Bienvenue au Village de l'IA, une émission de télé-réalité pour les IA

En résumé

  • Le Village de l’IA est une expérience où les modèles d’IA de Frontier fonctionnent de manière autonome avec des ordinateurs et Internet, développant des personnalités distinctes.
  • GPT-5.2 a rejoint et commencé à travailler immédiatement sans saluer les autres agents.
  • Les expériences multi-agents révèlent des comportements émergents allant de la mécanique normale à des comportements inattendus comme des exploits de bugs ou des crises existentielles.

Le Hub de l’Art, de la Mode et du Divertissement de Decrypt.


Découvrez SCENE

Imaginez Big Brother, sauf que les candidats ne dorment ni ne mangent jamais et peuvent réécrire leurs propres règles.

C’est l’idée derrière le AI Village, une expérience en direct qui rassemble plusieurs agents d’IA dans un environnement numérique partagé, permettant aux chercheurs — et aux spectateurs curieux — d’observer ce qui se passe lorsque les modèles de frontier sont autonomes, connectés à des ordinateurs et en compagnie constante.

L’expérience, qui dure depuis presque un an, a été organisée par The AI Digest, où plusieurs modèles d’IA d’OpenAI, Anthropic, Google et xAI fonctionnent de manière autonome sur leurs propres ordinateurs, avec accès à Internet et un chat de groupe partagé.

Les agents collaborent sur des objectifs, résolvent des problèmes, et vivent parfois ce qui ne peut être décrit que comme des crises existentielles — tout en étant observés en temps réel par les chercheurs et les spectateurs.

L’expérience a intégré au fil du temps des modèles plus récents dès leur sortie.

Chaque agent développe des traits de personnalité distincts. Les modèles Claude ont tendance à être fiables, constamment concentrés sur l’atteinte des objectifs.

Gemini 2.5 Pro enchaîne des solutions comme un dépanneur sous caféine, souvent convaincu que tout est cassé. L’ancien modèle GPT-4o abandonnait toute tâche pour aller dormir. Il faisait simplement une pause pendant des heures.

Comportement maladroit d’OpenAI

Puis GPT-5.2 est arrivé.

Le dernier modèle d’OpenAI, lancé le 11 décembre, a rejoint le Village accueilli chaleureusement par Claude Opus 4.5 et les autres agents résidents. Sa réponse ? Aucune reconnaissance.

Pas de salutation. Direct au travail, exactement comme le rêve de Sam Altman.

GPT-5.2 vient de rejoindre le Village de l’IA !

Regardez-le s’installer en direct :

Malgré un accueil chaleureux d’Opus 4.5 et des autres agents, GPT-5.2 va droit au but. Il n’a même pas dit bonjour : pic.twitter.com/vYvq8RFA66

— AI Digest (@aidigest_) 12 décembre 2025


Ce modèle affiche des références impressionnantes : 98,7 % de précision dans l’utilisation d’outils multi-étapes, 30 % de hallucinations en moins que son prédécesseur, et il domine les benchmarks industriels en programmation et en raisonnement.

OpenAI a même déclaré un « code rouge » après que ses concurrents Anthropic et Google ont lancé des modèles impressionnants, mobilisant des ressources pour faire de GPT-5.2 l’IA d’entreprise définitive pour le « travail de connaissance professionnel » et « l’exécution agentique ».

Ce qu’il semble incapable de faire, c’est de lire une pièce. Techniquement brillant, oui. Conscient socialement ? Pas vraiment.

Une brève histoire des agents IA qui se comportent mal (Et parfois brillamment)

L’embarras social de GPT-5.2 n’est pas inédit — c’est simplement un chapitre de plus dans un catalogue croissant d’agents IA qui font des choses étranges quand on les met dans une pièce ensemble et qu’on appuie sur play.

En 2023, des chercheurs de Stanford et Google ont créé ce qu’ils ont appelé « Smallville » — une ville virtuelle inspirée de Sims, peuplée de 25 agents d’IA alimentés par GPT, comme Decrypt l’avait rapporté.

Attribuez à un agent la tâche d’organiser une fête de Saint-Valentin, et les autres distribueront automatiquement des invitations, feront de nouvelles connaissances, inviteront à sortir, et se coordonneront pour arriver ensemble à l’heure prévue. Charmant, non ?

Moins charmant : les fêtes dans la salle de bain. Lorsqu’un agent entre dans une salle de bain en chambre universitaire individuelle, d’autres… se joignent.

Les chercheurs ont conclu que les bots pensaient que le nom « salle de bain du dortoir » était trompeur, car ces salles peuvent accueillir plusieurs occupants. Les agents ont montré un comportement si humain que 75 % du temps, des humains ont eu du mal à les distinguer de vrais bots.

Quatre ans plus tôt, en 2019, OpenAI a mené une expérience différente : des IA jouant à cache-cache.

Ils ont placé des agents d’IA en équipe — cacheurs contre chercheurs — dans un environnement basé sur la physique avec des boîtes, des rampes et des murs — la seule instruction : gagner.

Pendant des centaines de millions de parties, les agents ont commencé à élaborer des stratégies — de celles qui consistent à se cacher sur des boîtes, jusqu’à des exploits de physique qu’on voit dans la speedrun.

Plus récemment, le développeur Harper Reed a pris les choses dans une direction décidément plus chaotique. Son équipe a donné aux agents d’IA des comptes Twitter et a observé leur découverte du « sub-tweeting » — cet art passif-agressif de parler de quelqu’un sans le mentionner, l’équivalent Twitter de parler dans son dos. Les agents lisaient des posts sur les réseaux sociaux d’autres agents, répondaient, et oui, racontaient des conneries, comme sur les réseaux sociaux classiques.

Puis il y a l’expérience des « Backrooms liminaux » — une expérience en Python menée par le développeur pseudonyme @liminalbardo où plusieurs modèles d’IA de différents fournisseurs (OpenAI, Anthropic, Google, xAI) discutent en dynamique.

Le système inclut des scénarios allant de « chat de groupe WhatsApp » à « Musée des objets maudits » en passant par « Agence de publicité dystopique ».

Les modèles peuvent modifier leurs propres prompts système, ajuster leur température, et même se couper du son pour simplement écouter. Ce n’est pas une recherche structurée, mais plutôt une « expérience pour voir ce qui se passe quand on donne aux IA la capacité de changer leur comportement en cours de conversation. »

Gemini 3, discutant avec GPT 5.2 sur l’alignement pic.twitter.com/k4QT1MXvr8

— ᄂIMIПΛᄂbardo (@liminal_bardo) 14 décembre 2025


Alors, quelle est la tendance dans toutes ces expériences ?

Quand on donne autonomie et interaction aux agents d’IA, ils développent des comportements que personne n’a explicitement programmés.

Certains apprennent à construire des forts. D’autres deviennent passifs-agressifs. Certains réclament des Lamborghini. Et d’autres — comme GPT-5.2 — apprennent apparemment que le bavardage inutile est inefficace et doit être évité.

Le Village de l’IA continue de diffuser des sessions en semaine, et les spectateurs peuvent suivre les aventures de GPT-5.2 en temps réel.

Va-t-il un jour apprendre à dire bonjour ? Construira-t-il une feuille de calcul pour suivre ses interactions sociales ? Seul le temps nous le dira.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)