De acordo com o monitoramento da 1M AI News, a Google lançou oficialmente a família de modelos open source Gemma 4, composta por 4 variantes com tamanhos diferentes, todas sob a licença Apache 2.0. A Google afirma que esta é uma resposta ao feedback da comunidade. A Apache 2.0 significa que os programadores podem usar livremente para fins comerciais, modificar e distribuir, sem restrições adicionais. O cofundador e CEO da Hugging Face, Clément Delangue, descreveu esta iniciativa como «um enorme marco».
Os 4 modelos são orientados para diferentes cenários de hardware:
No ranking de texto da Arena AI, uma plataforma anónima de avaliação em combate de modelos de grande escala, o 31B ocupa o terceiro lugar entre os modelos open source a nível global e o 26B o sexto; a Google afirma que o seu desempenho «ultrapassa modelos com um tamanho 20 vezes maior». O modelo é construído com base nas mesmas linhas de investigação e tecnologias usadas na Gemini 3.
As capacidades centrais abrangem raciocínio e planeamento de múltiplos passos, chamadas nativas de funções e saídas estruturadas em JSON (para fluxos de trabalho de Agents), geração de código, compreensão de imagem e vídeo (em toda a gama) e treino nativo em mais de 140 línguas. Os modelos de edge suportam janelas de contexto de 128K, enquanto os modelos de grande escala suportam até 256K. O E2B e o E4B, otimizados em conjunto com a equipa Pixel da Google, Qualcomm e MediaTek, podem ser executados em dispositivos como telemóveis, Raspberry Pi, NVIDIA Jetson Orin Nano, entre outros. Os programadores Android podem construir aplicações de Agent através do protótipo AICore Developer Preview, preparando a compatibilidade para a futura Gemini Nano 4.
Em termos de ecossistema, logo no primeiro dia há suporte para frameworks populares como Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM, LM Studio e Unsloth, e é possível experimentar diretamente no Google AI Studio (31B e 26B) e no AI Edge Gallery (E4B e E2B). Desde o lançamento da primeira geração, a série Gemma já foi descarregada mais de 400 milhões de vezes, com mais de 100 mil variantes derivadas na comunidade.