
Der KI-Entwickler Anthropic hat seinen CEO Dario Amodei erneut mit dem stellvertretenden Minister für Forschung und Entwicklung des Verteidigungsministeriums der USA, Emil Michael, in Verhandlungen gebracht. Ziel ist es, vor der offiziellen Einstufung des Unternehmens als Risiko für die Verteidigungsversorgungskette eine Einigung zu erzielen und die militärische Zusammenarbeit aufrechtzuerhalten. Laut einem Bericht der britischen Financial Times, basierend auf vertraulichen Quellen, würde Anthropic bei einer offiziellen Einstufung aus dem US-Verteidigungskaufnetz ausgeschlossen.
Letzte Woche brachen die Verhandlungen plötzlich ab. Berichten zufolge warf Emil Michael Dario Amodei nach einem hitzigen Streit vor, ein „Betrüger“ zu sein, und kritisierte ihn wegen eines „Gott-Komplexes“. Der Kern des Konflikts lag in einer grundsätzlichen Meinungsverschiedenheit über eine Datenverwendungsklausel: Das Pentagon forderte, dass Anthropic die Klausel aus dem Vertrag streicht, die die Analyse großer Datenmengen einschränkt, und machte dies zur Voraussetzung für die Annahme anderer Bedingungen.
Amodei stellte in einem internen Memo klar, dass diese Klausel dazu diene, potenzielle groß angelegte inländische Überwachungsmaßnahmen zu verhindern. Anthropic positioniert diese Klausel als eine unüberwindbare rote Linie, vergleichbar mit der Ablehnung, KI für tödliche autonome Waffensysteme zu verwenden. Das Verteidigungsministerium unter Minister Pete Hegseth verschärfte den Druck und warnte, dass bei Scheitern der Verhandlungen Anthropic offiziell als Risiko für die Versorgungskette eingestuft werde.
Trotz der diplomatischen Krise sind die Geschäftsbeziehungen zwischen Anthropic und dem US-Militär weitaus enger als öffentlich bekannt:
Dieser Hintergrund macht die harte Haltung des Pentagon äußerst widersprüchlich – einerseits ist man auf Claude angewiesen, um kritische militärische Aufgaben zu erfüllen, andererseits droht man, das System als Sicherheitsrisiko einzustufen, was in der Branche große Aufmerksamkeit erregt.
Am Mittwoch veröffentlichten mehrere führende Technologieverbände eine gemeinsame öffentliche Stellungnahme an Trump, in der gewarnt wird, dass die Einstufung eines US-amerikanischen KI-Unternehmens als Risiko für die Versorgungskette die amerikanische Wettbewerbsfähigkeit im globalen KI-Wettlauf gegen China erheblich beeinträchtigen könnte. Unterzeichner sind die Software- und Informationsindustrievereinigung, TechNet, die Computer- und Kommunikationsindustrievereinigung sowie die Business Software Alliance, mit Mitgliedern wie Nvidia, Google (Alphabet) und Apple.
Der Brief warnt direkt: „Ein US-Technologieunternehmen als ausländischer Gegner statt als Vermögenswert zu betrachten, wird Innovationen behindern und die globale Wettbewerbsfähigkeit der US-KI-Industrie schwächen.“
Warum lehnt Anthropic die Entfernung der Big-Data-Analyse-Klausel ab?
Anthropic sieht diese Klausel als zentrale Sicherheitsvorkehrung gegen groß angelegte inländische Überwachung. Sie ist gleichwertig mit der roten Linie, die die Nutzung von KI für tödliche autonome Waffensysteme verbietet. Dario Amodei betonte in einem Memo, dass das Entfernen dieser Klausel gleichbedeutend sei mit der Erlaubnis an die Regierung, mit Claude massenhaft Datenüberwachung bei Bürgern durchzuführen – eine Position, die das Unternehmen nicht aufgeben wird.
Was sind die tatsächlichen Folgen, wenn Anthropic als Risiko für die Versorgungskette eingestuft wird?
Eine offizielle Einstufung würde bedeuten, dass Anthropic aus dem US-Militär- und Bundesbeschaffungssystem ausgeschlossen wird. Der bestehende Vertrag über 200 Millionen Dollar könnte gekündigt werden, und alle Regierungsauftragnehmer, die Claude verwenden, müssten ihre Geschäftsbeziehungen abbrechen. Für Anthropic wäre dies nicht nur ein finanzieller Schlag, sondern auch ein Vertrauensverlust in den Unternehmens- und Regierungsmarkt.
Warum treten Nvidia, Apple und andere Tech-Giganten für Anthropic ein?
Diese Unterstützung ist kein bloßes Bekenntnis zu Anthropic, sondern eine Warnung, dass solche Präzedenzfälle die gesamte US-KI-Industrie gefährden könnten. Wenn die Regierung per Administrativbefehl jedes inländische KI-Unternehmen als Sicherheitsrisiko einstufen kann, würde dies eine breite Abschreckung in der Branche bewirken, die Innovationskraft und Wettbewerbsfähigkeit amerikanischer Tech-Unternehmen im globalen Markt schwächen.