OpenAI gab am Montag bekannt, dass es eine angepasste Version von ChatGPT auf GenAI.mil, der vom US-Verteidigungsministerium entwickelten KI-Plattform, bereitstellt. Der Schritt erweitert den Zugang des Militärs zu leistungsstarken generativen KI-Modellen, während Kritiker warnen, dass Benutzerfehler ein bedeutendes Sicherheitsrisiko bleiben. ChatGPT ergänzt eine wachsende Liste von KI-Modellen, die dem US-Militär zur Verfügung stehen, darunter Googles Gemini und Grok, das von xAI entwickelte KI-System, das Anfang dieses Monats in SpaceX integriert wurde.
„Wir sind der Ansicht, dass diejenigen, die für die Verteidigung des Landes verantwortlich sind, Zugriff auf die besten verfügbaren Werkzeuge haben sollten, und es ist wichtig, dass die USA und andere demokratische Länder verstehen, wie KI mit den richtigen Schutzmaßnahmen dazu beitragen kann, Menschen zu schützen, Gegner abzuschrecken und zukünftige Konflikte zu verhindern“, erklärte OpenAI in einer Stellungnahme. OpenAI sagte, dass die Version von ChatGPT auf GenAI.mil für unklassifizierte Arbeiten des Verteidigungsministeriums genehmigt ist und innerhalb einer autorisierten Regierungs-Cloud-Infrastruktur läuft. Laut OpenAI enthält das System Schutzmaßnahmen, die dazu entwickelt wurden, sensible Daten zu schützen. Dennoch warnte J.B. Branch, Big Tech Accountability Advocate bei Public Citizen, dass eine Überabhängigkeit der Nutzer von KI diese Schutzmaßnahmen untergraben könnte.
„Forschungen zeigen, dass Menschen, die diese großen Sprachmodelle verwenden, ihnen oft den Vorteil des Zweifels geben“, sagte Branch gegenüber Decrypt. „In hochsensiblen Situationen wie im Militär ist es umso wichtiger, sicherzustellen, dass die Dinge korrekt wiedergegeben werden.“ Der Einsatz erfolgt, während das Pentagon die Nutzung kommerzieller KI in militärischen Netzwerken beschleunigt und KI-Entwickler nach Profit streben. Im Januar kündigte Verteidigungsminister Pete Hegseth an, dass das Ministerium plant, führende KI-Modelle sowohl in unklassifizierten als auch in klassifizierten militärischen Netzwerken einzusetzen. Während OpenAI sagte, die angepasste Version von ChatGPT sei nur für unklassifizierte Daten gedacht, warnte Branch, dass das Eingeben sensibler Informationen in KI-Systeme sie anfällig für Gegner macht, und fügte hinzu, dass Nutzer solche Werkzeuge oft mit sicheren Tresoren verwechseln. „Klassifizierte Informationen dürfen nur von bestimmten Personen eingesehen werden“, sagte er. „Selbst wenn es ein System gibt, das nur innerhalb des Militärs zugelassen ist, ändert das nichts daran, dass klassifizierte Daten nur für eine begrenzte Gruppe von Personen bestimmt sind.“ OpenAI reagierte auf eine Anfrage von Decrypt zunächst nicht.