US-amerikanische Anwälte reichen in immer schnellerem Tempo KI-generierte Schriftsätze mit erfundenen Quellenangaben ein, Gerichtsbußgelder setzen neue Rekorde, und die Technologie dringt so tief in juristische Software ein, dass Experten sagen, verpflichtende Offenlegungsregeln könnten bereits veraltet sein.
Zusammenfassung
US-amerikanische Anwälte reichen in immer schnellerem Tempo KI-generierte Schriftsätze mit erfundenen Quellenangaben ein, Gerichtsbußgelder setzen neue Rekorde, und die Technologie dringt so tief in juristische Software ein, dass Experten sagen, verpflichtende Offenlegungsregeln könnten bereits veraltet sein. Laut einer Untersuchung von NPR vom 3. April nahm das Volumen der Gerichtsbußgelder für KI-generierte Fehler bis 2025 stark zu und hat sich 2026 nicht verlangsamt — ein Muster, das direkte Konsequenzen für jeden Bereich hat, auch für Crypto, dessen rechtliches Risiko davon abhängt, wie gut die in seiner Verteidigung eingereichten Schriftsätze sind.
Damien Charlotin, ein Forscher an der HEC Paris, der eine weltweite Statistik über Gerichtsbußgelder für KI-generierte Rechtsfehler pflegt, sagte NPR, das Tempo habe sich nicht eingependelt. „Kürzlich hatten wir 10 Fälle von 10 verschiedenen Gerichten an einem einzigen Tag“, sagte er. „Wir haben dieses Problem, weil KI einfach zu gut ist — aber nicht perfekt.“ Der prominenteste Fall der vergangenen Phase war derjenige der Anwälte des MyPillow-CEO Mike Lindell, die jeweils mit 3.000 $ bestraft wurden, weil sie Schriftsätze mit erfundenen Quellenangaben eingereicht hatten.
Ein Bundesgericht hat möglicherweise letzte Monat einen neuen Rekord aufgestellt, als ein in Oregon ansässiger Anwalt angewiesen wurde, 109.700 $ an Bußgeldern und Kosten zu zahlen. Auch die obersten Gerichte auf Bundesstaatsebene wurden einbezogen: Das oberste Gericht von Nebraska befragte im Februar einen Anwalt aus Omaha ausführlich über erfundene Quellenangaben und verwies ihn zur Disziplinarmaßnahme, und eine ähnlich öffentlichkeitswirksame Szene spielte sich im März am Georgia Supreme Court ab. „Ich bin überrascht, dass Leute das immer noch tun, obwohl es in den Nachrichten war“, sagte Carla Wale, stellvertretende Dekanin für Informations- und Technologiefragen an der University of Washington School of Law.
Einige Gerichte haben reagiert, indem sie verlangen, dass Anwälte in ihren Schriftsätzen alle KI-gestützten Inhalte kennzeichnen. Joe Patrice, leitender Redakteur von Above the Law und ein Anwalt, der zum Journalisten geworden ist, sagte NPR, diese Regeln dürften nahezu sofort unpraktikabel werden. „Es wird so stark in die Art integriert sein, wie alles funktioniert, dass man, um sorgfältig mit der Regel zu konform zu gehen, auf alles, was man veröffentlicht, schreiben müsste: ‚Hey, das ist KI-gestützt‘ — und dann wird es im Grunde zu einem nutzlosen Unterfangen“, sagte er. Auch die Ökonomie des juristischen Abrechnens beschleunigt die Übernahme statt sie auszubremsen. Da KI-Tools die Zeit fürs Verfassen verkürzen, geraten Kanzleien unter Druck, neue Abrechnungsmodelle zu finden — und Patrice schlägt vor, der daraus entstehende Zeitdruck mache es für Anwälte noch verlockender, KI-Erstentwürfe ohne ausreichende Verifizierung zu akzeptieren.
Der eigene Kurswechsel des DOJ weg von der Strafverfolgung von Krypto-Entwicklern beruhte teilweise auf dem Argument, Code sei neutral, sofern keine kriminelle Absicht vorliege — eine Unterscheidung, die genau die Art sorgfältiger juristischer Argumentation erfordert, die hastig erstellte, KI-gestützte Schriftsätze beständig nicht nachbilden können. Ein texanisches Bundesgericht wies kürzlich teilweise eine Krypto-Software-Haftungsklage zurück, indem es unter anderem ein DOJ-Memo zu Standards für die Strafverfolgung von Entwicklern zitierte — und zeigte damit, wie die Qualität juristischer Argumentation in fernetzen KI-nahen Fällen unmittelbar die regulatorischen Ergebnisse für den gesamten Sektor prägt.
KI selbst ist inzwischen auch außerhalb des Problems gerichtlicher Fehler in die juristische Schusslinie geraten. Im März wurde OpenAI in einem Bundesgericht in Illinois von der Nippon Life Insurance Company of America verklagt. Dabei wurde behauptet, eine Frau nutze ChatGPT als juristischen Berater und erhalte Hinweise, die zu unbegründeten Klagen gegen den Versicherer geführt hätten. In der Klageschrift wurde OpenAI vorgeworfen, ohne Zulassung Rechtsberatung zu leisten. In einer schriftlichen Stellungnahme gegenüber NPR sagte OpenAI: „Diese Beschwerde ist in jeder Hinsicht völlig unbegründet.“ Wale hingegen weist beide Extreme zurück. „Ich glaube, dass Anwälte, die verstehen, wie man generative KI effektiv und ethisch nutzt, Anwälte ersetzen, die das nicht tun“, sagte sie. „Das ist das, was ich für die Zukunft halte.“