Berkeley GEPA-Analyse: KI kann neue Aufgaben lernen, ohne Gewichte zu aktualisieren, 35-mal geringere Trainingskosten als RL

ChainNewsAbmedia

Ein Forschungsteam der University of California, Berkeley, hat eine neue KI-Trainingsmethode namens GEPA vorgestellt, die von der ICLR 2026 als Oral-Paper angenommen wurde. GEPA aktualisiert keine Modellgewichte, benötigt kein GPU-Training und nutzt lediglich einen einzelnen LLM, der „Trainingsprotokolle liest“, um die Prompts für das KI-System wiederholt umzuschreiben. Damit liegt GEPA bei 6 Aufgaben im Durchschnitt 6% vor gängigen Reinforcement-Learning-Methoden (GRPO), erreicht ein Spitzenplus von 20% und benötigt 35-mal weniger Trainingsversuche (rollouts). Nachdem die Forschung von der KI-Engineering-Community aufbereitet und in der X-Plattform diskutiert wurde, ist GEPA inzwischen in DSPy als erstklassiger Optimierer integriert.

Was GEPA macht: Trainingsprotokolle als Lehrmaterial nutzen, nicht nur auf Scores schauen

Der Workflow traditioneller Reinforcement-Learning-Methoden (z. B. GRPO) ist: Die KI führt eine Aufgabe einmal aus, bekommt basierend auf dem Ergebnis eine „+1 oder -1“-Punktzahl und passt dann die Modellgewichte wiederholt mithilfe dieser Punktzahl an. Das Problem: Der Ablauf, wie die KI einmal eine Aufgabe ausführt, umfasst typischerweise tausende Token an Inferenzschritten, Tool-Aufrufe und Fehlermeldungen – all diese reichen Details werden zu einem einzigen Score komprimiert und der Prozessinhalt geht verloren. Daher muss RL zehntausende Male laufen, um zu konvergieren.

GEPA geht genau umgekehrt vor: Nach jeder Aufgaben-Ausführung übergibt die KI die komplette Prozesskette (reasoning, Tool-Aufrufe, Fehlerprotokolle) vollständig an einen weiteren „Reflect-LLM“, der sie liest. Der Reflect-LLM verhält sich wie ein erfahrener Ingenieur, der Programmlogs studiert: Er identifiziert, wo genau ein Fehler auftrat, warum der Fehler auftrat, und wie der Prompt für die entsprechende Komponente angepasst werden sollte; anschließend schreibt er den Prompt für genau diese Komponente direkt um. Bei gleicher Aufgabenanzahl entnimmt GEPA damit deutlich mehr Signalmenge als RL aus dem einzelnen Score.

Warum es gewinnt: aus „Scoring“ wird „das ganze Prozessprotokoll lesen“

GEPA liegt bei 6 Aufgaben im Durchschnitt 6% vor GRPO; das Maximum beträgt 20%. Im Vergleich zu einem weiteren gängigen Prompt-Optimierer MIPROv2 schneidet GEPA ebenfalls um über 10% besser ab (bei AIME-2025-Mathematikaufgaben als Benchmark +12%). Am wichtigsten ist jedoch die Trainingskosten: Um die gleiche Leistung zu erreichen, benötigt GEPA nur 35-mal weniger rollouts (also einen vollständigen Lauf der Aufgabe).

Eine weitere Kennzahl: Nach der Integration von GEPA in DSPy kann der „Full Program Adapter“ das gesamte DSPy-Programm optimieren (inklusive signature, Module und Kontrollfluss). In MATH-Mathematikbenchmarks erreicht er 93% Genauigkeit und liegt damit deutlich über der ursprünglichen ChainOfThought-Schreibweise von DSPy, die 67% erreicht. GEPA zeigt zudem besonders starke Leistung in multi-module Workflows (AI-Agenten mit mehreren Modulen in Serie): Es kann gezielt das Prompt einer bestimmten fehlerhaften Modulkomponente neu schreiben, statt das gesamte System zu verändern.

Wer es zuerst nutzt: DSPy als erstklassiger Bürger, GitHub bereits Open Source

Der GEPA-Code ist auf GitHub veröffentlicht. Er ist als dspy.GEPA in das DSPy-Framework integriert und wird außerdem als eigenständige Python-Bibliothek veröffentlicht. Das Forschungsteam umfasst Partner aus UC Berkeley, Stanford, Notre Dame, Anthropic und weiteren Einrichtungen. Zu den Paper-Autoren gehören Matei Zaharia (Mitgründer von Databricks, Hauptautor von DSPy) und Omar Khattab (Hauptautor von DSPy).

Für die Entwickler-Community bietet GEPA eine neue Lösung für ein verbreitetes Problem: „Wir haben viele rollouts, aber wissen nicht, wie wir sie nutzen.“ Viele Teams haben bereits tausende oder zehntausende Agent-Task-Laufprotokolle gesammelt, aber abgesehen davon, dass man bei Fehlern ein paar Einträge durchblättert, fehlt eine systematische Methode, diese Protokolle in Modellverbesserungen umzuwandeln. Der nächste Beobachtungspunkt ist, ob GEPA in Unternehmen bei agentic Workflows (z. B. Kundenservice-Automatisierung, automatische Programmreparatur) praktisch eingeführt wird – und ob es entsprechende GEPA-Implementierungen geben wird, die unabhängig vom DSPy-Framework funktionieren.

Der Artikel „Berkeley GEPA erklärt“: Nicht Gewichte aktualisieren, und trotzdem lernt die KI neue Aufgaben – mit 35-mal weniger Trainingsaufwand und besser als RL – erschien zuerst in der Kette-news ABMedia.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

MoonPay bringt am Freitag die MoonAgents-Karte auf den Markt: eine virtuelle Mastercard für KI-Agenten

Laut The Block hat MoonPay am Freitag die MoonAgents Card auf den Markt gebracht, eine virtuelle Mastercard-Debitkarte. Die Karte ist sowohl für KI-Agenten als auch für Nutzer ausgelegt, wandelt Stablecoins beim Zahlungsvorgang in Fiat um und ermöglicht das Bezahlen bei jedem Online-Händler weltweit, der Mastercard akzeptiert. Die Karte i

GateNews5M her

OpenAI startet Codex Pets, einen KI-gestützten virtuellen Begleiter mit benutzerdefinierter Generierung

Laut Beating hat OpenAI eine neue „Codex Pets“-Funktion zur Codex-Desktopanwendung hinzugefügt. Sie ermöglicht es Nutzern, einen animierten virtuellen Begleiter zu erstellen und mit ihm zu interagieren. Nutzer können ein Haustier aktivieren, indem sie im Editor /pet eintippen. Die Funktion arbeitet als Indikator für den Agentenstatus und zeigt ein

GateNews9Std her

MoonPay bringt MoonAgents-Karte für KI-Agenten im Mastercard-Netz an den Start

Laut The Block hat MoonPay am Freitag die MoonAgents Card gelauncht, eine virtuelle Mastercard-Debitkarte, die Stablecoins in Echtzeit direkt am Point of Sale in Fiat umwandelt. Die Karte wird über Monavate ausgegeben, eine regulierte Zahlungsplattform und führendes Mitglied von Mastercard, in Partnerschaft mit Exodus M

GateNews12Std her

xAI bringt eine Voice-Cloning-API heraus, die über 80 Stimmen in 28 Sprachen unterstützt

Laut PANews hat xAI am 2. Mai seine Voice-Cloning-API gestartet und ermöglicht es Nutzern, in etwa 2 Minuten benutzerdefinierte Stimmen zu erstellen oder aus über 80 vordefinierten Stimmen auszuwählen, die 28 Sprachen abdecken, für Anwendungen einschließlich Sprachassistenten, Hörbüchern und Spielcharakteren. Die Funktion ist derzeit

GateNews13Std her

MoonPay bringt am Freitag die MoonAgents Card auf den Markt – eine virtuelle Mastercard für KI-Agenten und Nutzer

Laut The Block hat MoonPay am Freitag die MoonAgents Card gelauncht, eine virtuelle Mastercard-Debitkarte für KI-Agenten und Nutzer. Die Karte wandelt Stablecoins an der Verkaufsstelle in Fiat um und kann bei jedem Online-Händler weltweit verwendet werden, der Mastercard akzeptiert. Ausgestellt über Monavate, ein regulierter Zahlungsanbieter

GateNews22Std her

MoonPay bringt am Freitag die MoonAgents Card im Mastercard-Netzwerk auf den Markt

Laut The Block hat MoonPay am Freitag die MoonAgents Card gelauncht – eine virtuelle Mastercard-Debitkarte, die KI-Agents und Nutzer dazu befähigt, Stablecoins direkt von Onchain-Wallets aus auszugeben. Die Karte wird über Monavate ausgegeben, eine regulierte globale Zahlungsplattform und Principal Member von Mastercard, in

GateNews05-01 13:01
Kommentieren
0/400
Keine Kommentare