Google Official kündigt die Markteinführung der neuen Generation offener Modellserie Gemma 4 an. Das Modell verwendet dieselbe technische Architektur wie Gemini 3, stellt vollständig auf eine geschäftstaugliche Apache-2.0-Lizenz um und wirbt vor allem mit starker Leistungsfähigkeit beim lokalen Betrieb.
(Vorgeschichte: Google: Quantencomputer knacken Bitcoin in 9 Minuten – wie rechnet sich die Zahl, und wo liegt wirklich die Bedrohung?)
(Hintergrund-Ergänzung: KI sagt Naturkatastrophen voraus》Google bringt das „Groundsource“-Framework heraus, nutzt Gemini, um globale Nachrichten in 2,6 Millionen lebensrettende Datensätze umzuwandeln)
Inhaltsverzeichnis
Umschalten
Google setzt erneut einen gewaltigen Impuls in den Bereich Open-Source-KI. Offiziell wurde die Serie „Gemma 4“ vorgestellt, die damit wirbt, das derzeit intelligenteste offene Modell im eigenen Portfolio zu sein. Gemma 4 übernimmt direkt die weltklassige Forschungstechnologie des Flaggschiff-Modells Gemini 3 und bringt bahnbrechende Fähigkeiten zum Schließen sowie agentenorientierte (agentic) Arbeitsabläufe mit. Am meisten Aufmerksamkeit in der Community erhält, dass Google diesmal auf die Forderungen der Entwickler reagiert und vollständig auf eine geschäftsfreundliche Apache-2.0-Lizenz umstellt, sodass Nutzer in jeder Umgebung frei aufbauen und sicher bereitstellen können – vollkommen unter eigener Kontrolle über Daten und Infrastruktur.
We just released Gemma 4 — our most intelligent open models to date.
Built from the same world-class research as Gemini 3, Gemma 4 brings breakthrough intelligence directly to your own hardware for advanced reasoning and agentic workflows.
Released under a commercially… pic.twitter.com/W6Tvj9CuHW
— Google (@Google) April 2, 2026
Um unterschiedlichen Hardware- und Anwendungsszenarien gerecht zu werden, hat Gemma 4 insgesamt vier Versionen mit unterschiedlicher Größe veröffentlicht. Die leichteste E2B (2B-Parameter) ist speziell für mobile Endgeräte und Randgeräte wie Browser ausgelegt; E4B (4B-Parameter) hält ein Gleichgewicht zwischen Leistung und Effizienz und unterstützt zudem noch nativer visuelle sowie Audio-Eingaben. In der High-Performance-Schiene verwendet 26B A4B eine Mixture-of-Experts- (MoE-) Architektur: Beim Schließen werden nur etwa 4B-Parameter aktiviert, wodurch der Speicherbedarf stark sinkt – selbst auf Consumer-Hardware wie dem Mac Mini mit 24GB RAM läuft es flüssig. Das höchste Modell ist der dichte 31B-Ansatz, der das Leistungs-Flaggschiff der Serie darstellt.
In Bezug auf die technischen Spezifikationen unterstützt die große Modellvariante von Gemma 4 bis zu 256K Tokens Kontextfenster, sodass Entwickler auf einmal das gesamte Code-Repository oder riesige Mengen an Dokumentdaten verarbeiten können. Neben der nativen Unterstützung für Text- und Bildverarbeitung (E2B und E4B unterstützen auch Audio) verfügt Gemma 4 über starke native Fähigkeiten zum Funktionsaufruf (Function Calling). Es kann zuverlässig strukturierte JSON-Formate ausgeben und liefert damit eine hervorragende Grundlage für die Entwicklung autonomer Agent- Anwendungen. Darüber hinaus decken die Trainingsdaten über 140 Sprachen ab und bieten eine hohe globale Einsetzbarkeit.
Gemma 4 betont eine extrem hohe „Effizienz pro Token“. Laut Daten offener Modell-Rankings wie AI Arena liegt Gemma-4-31B derzeit auf dem 3. Platz der offenen Modelle; die Gesamtleistung kommt sogar an das riesige Qwen3.5-397B heran, obwohl seine Größe nur ein Zehntel davon beträgt. In den Forschungs-orientierten Inferenz-Benchmarks auf Graduate-Niveau (GPQA Diamond) erzielte die 31B-Version zudem mit 84,3% eine beeindruckende Leistung.
Let’s look at how the open model Gemma has progressed across its last three versions.
– Gemma 4 ranks 100 places above Gemma 3
– Gemma 3 ranks 87 above Gemma 2All three models from @GoogleDeepMind are roughly the same size (31B, 27B, 27B), and these gains came only 9 and 13… https://t.co/9JnbveYzwT pic.twitter.com/JQtTz09Y1A
— Arena.ai (@arena) April 2, 2026
Derzeit können Entwickler Gemma 4 bereits direkt in Google AI Studio ausprobieren, oder Gewichte-Modelle über Plattformen wie Hugging Face, Ollama und andere herunterladen. Die Community ist ebenfalls schnell nachgezogen und hat quantisierte Versionen auf den GPU-Einsatz optimiert herausgebracht. Allerdings weisen einige Entwickler auch darauf hin, dass Gemma 4 bei der Arbeit mit realen, komplexen Code-Debugging-Umgebungen noch Optimierungspotenzial hat. Insgesamt ist jedoch die Open-Source-Veröffentlichung zweifellos ein starker Anstoß für digitale Souveränität und lokale KI-Anwendungen.