Des centaines chez Google poussent la direction à abandonner le partenariat en IA avec le Pentagone

Plus de 600 employés de Google (GOOGL, GOOG) ont dit à Sundar Pichai lundi de tenir le Pentagone à l’écart de l’IA de Google pour le travail classifié.

La lettre est venue de travailleurs de DeepMind et Google Cloud, qui ont pointé un rapport de The Information indiquant que Google et le Département de la Défense des États-Unis étaient en pourparlers pour utiliser Gemini dans des systèmes classifiés.

Les employés de Google exposent de nombreuses raisons de bloquer Gemini pour le travail secret du Pentagone

La lettre a commencé par un avertissement direct à Sundar, que les employés disent, “Nous sommes des employés de Google profondément préoccupés par les négociations en cours entre Google et le Département de la Défense des États-Unis. En tant que personnes travaillant sur l’IA, nous savons que ces systèmes peuvent centraliser le pouvoir et qu’ils font aussi des erreurs.”

Les employés ont dit qu’ils croient que leur proximité avec la technologie leur donne “une responsabilité de mettre en évidence et de prévenir ses usages les plus immoraux et dangereux.”

“Nous vous demandons de refuser de rendre nos systèmes d’IA disponibles pour des charges de travail classifiées. Sinon, de tels usages pourraient se produire sans notre connaissance ou la capacité de les arrêter,” ont déclaré les employés de Google. La lettre expliquait ensuite qu’ils veulent que l’IA aide les gens, pas qu’elle soutienne le mal. Ils ont nommé les armes autonomes létales et la surveillance de masse comme principales craintes. Ils ont aussi dit que les risques dépassent ces deux domaines, car le travail classifié peut cacher ce qui se passe réellement.

Leur argument était que si Google accepte des charges de travail militaires secrètes, les employés n’auraient peut-être aucun moyen de vérifier l’utilisation, de la remettre en question ou de l’arrêter, et la seule véritable garantie est de rejeter le travail classifié avant que l’accord ne soit conclu.

Ils ont aussi averti que le mauvais choix pourrait nuire à la réputation, aux affaires et à la place de Google dans le monde. Les employés ont dit que leur propre sécurité et les infrastructures critiques font face à des menaces actives, tandis que des vies et des droits civils sont déjà en danger à cause d’une mauvaise utilisation de la technologie créée par des personnes comme eux.

Le Pentagone de Trump s’impose dans un accès massif à l’IA pour l’armée américaine

Les dirigeants du Pentagone ont dit que l’armée doit être libre d’utiliser l’IA commerciale pour “tous les usages légaux.” Les responsables disent que cette phrase donne au gouvernement la marge pour utiliser la technologie dans différents cas tout en restant dans la légalité et les règles militaires américaines.

Les travailleurs de l’IA ne voient pas cela comme une protection suffisante. Leur inquiétude a grandi à cause du langage et des actions de Trump lui-même. Plus tôt ce mois-ci, le président Donald Trump a menacé de bombarder “chaque” pont et centrale électrique en Iran. Des experts ont dit au Post qu’une telle attaque violerait le droit international. Les frappes de son administration sur des bateaux qu’elle prétend transporter de la drogue ont aussi été contestées par des experts en droit international.

La lettre de Google est arrivée alors que d’autres entreprises d’IA sont déjà mêlées à des luttes avec le Pentagone. Anthropic, la société privée derrière Claude, a vu sa technologie intégrée dans des systèmes militaires américains l’année dernière. Ces outils aidaient à trier des données et à identifier des cibles possibles.

Puis le Pentagone a coupé Anthropic de tout travail avec le Département de la Défense en février. La société avait tenté d’ajouter des clauses contractuelles stipulant que son IA ne pourrait pas être utilisée pour la surveillance de masse ou des armes autonomes létales.

Anthropic et le gouvernement sont maintenant en justice pour savoir si cette coupure était légale. Cette affaire a attiré plus d’attention sur Google et OpenAI, car les deux travaillent avec l’armée américaine.

OpenAI est privé, donc il n’y a pas de symbole boursier. Il a signé un accord en février pour fournir de l’IA pour des charges de travail classifiées peu après le retrait d’Anthropic. Sam Altman, le PDG d’OpenAI, a dit qu’il était confiant que le contrat gouvernemental bloque l’utilisation pour la surveillance de masse aux États-Unis et les armes autonomes létales.

Google est déjà passé par là. En 2018, des employés ont protesté contre un projet du Pentagone utilisant l’IA de Google pour identifier des objets dans des images de drones. Des centaines ont signé une pétition contre ce travail, et Google a ensuite choisi de ne pas renouveler l’accord.

Après cette lutte, Google a créé un engagement disant que sa technologie d’IA ne serait pas utilisée pour des armes ou de la surveillance. Mais l’entreprise a passé ces dernières années à chercher plus de contrats militaires. L’année dernière, Google a levé ces limites. En décembre, elle a signé un accord permettant au Département de la Défense d’utiliser Gemini.

Si vous souhaitez une entrée plus calme dans la crypto DeFi sans le battage habituel, commencez par cette vidéo gratuite.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler