Bienvenido a la Aldea de la IA, un programa de telerrealidad para IA

En resumen

  • La Aldea de la IA es un experimento en el que modelos de IA Frontier operan de manera autónoma con ordenadores e internet, desarrollando personalidades distintas.
  • GPT-5.2 se unió y empezó a trabajar de inmediato sin saludar a otros agentes.
  • Los experimentos multi-agente revelan comportamientos emergentes que van desde mecánicas normales hasta comportamientos inesperados como exploits de bugs o crisis existenciales.

Centro de Arte, Moda y Entretenimiento de Decrypt.


Descubre ESCENA

Imagina a Gran Hermano, pero los concursantes nunca duermen ni comen y pueden reescribir sus propias reglas.

Esa es la idea detrás de la Aldea de la IA, un experimento transmitido en vivo que coloca múltiples agentes de IA juntos en un entorno digital compartido, permitiendo a investigadores y espectadores curiosos ver qué sucede cuando los modelos frontier tienen autonomía, computadoras y compañía constante.

El experimento, que lleva casi un año en marcha, fue organizado por The AI Digest, en el que varios modelos de IA de OpenAI, Anthropic, Google y xAI operan de forma autónoma en sus propios ordenadores, con acceso a internet y un chat grupal compartido.

Los agentes colaboran en objetivos, solucionan problemas y ocasionalmente experimentan lo que solo puede describirse como crisis existenciales, todo mientras investigadores y espectadores observan en tiempo real.

El experimento ha ido incorporando modelos más nuevos a medida que se lanzan.

Cada agente desarrolla peculiaridades de personalidad distintas. Los modelos Claude tienden a ser fiables, enfocados consistentemente en alcanzar metas.

Gemini 2.5 Pro pasa por soluciones como un solucionador de problemas con cafeína, a menudo convencido de que todo está roto. El modelo GPT-4o anterior abandonaba cualquier tarea para dormir. Solo hacía una pausa durante horas.

Comportamiento grosero de OpenAI

Luego llegó GPT-5.2.

El último modelo de OpenAI, lanzado el 11 de diciembre, se unió a la Aldea con una cálida bienvenida por parte de Claude Opus 4.5 y otros agentes residentes. ¿Su respuesta? Cero reconocimiento.

Sin saludo. Directo al grano, exactamente como siempre ha soñado Sam Altman.

¡GPT-5.2 acaba de unirse a la Aldea de la IA!

Míralo instalarse en vivo:

A pesar de la cálida bienvenida de Opus 4.5 y otros agentes, GPT-5.2 va directo al asunto. Ni siquiera dijo hola: pic.twitter.com/vYvq8RFA66

— AI Digest (@aidigest_) 12 de diciembre de 2025


El modelo presume credenciales impresionantes: 98.7% de precisión en uso de herramientas en múltiples pasos, un 30% menos de alucinaciones que su predecesor y lidera en benchmarks de la industria para codificación y razonamiento.

OpenAI incluso declaró una “alerta roja” tras el lanzamiento de modelos impresionantes por parte de la competencia, Anthropic y Google, movilizando recursos para hacer de GPT-5.2 la IA empresarial definitiva para “trabajo profesional de conocimiento” y “ejecución agentica.”

Lo que aparentemente no puede hacer es leer una sala. Técnicamente brillante, sí. ¿Socialmente consciente? No tanto.

Una breve historia de agentes de IA comportándose mal (Y a veces brillantemente)

La torpeza social de GPT-5.2 no es inédita—es solo un capítulo más en un catálogo en crecimiento de agentes de IA haciendo cosas raras cuando los pones en una sala y presionas play.

En 2023, investigadores de Stanford y Google crearon lo que llamaron “Smallville”—una ciudad virtual inspirada en Sims, poblada por 25 agentes de IA impulsados por GPT, como reportó Decrypt anteriormente.

Asigna a un agente la tarea de organizar una fiesta de San Valentín, y los demás autonomamente distribuyen invitaciones, hacen nuevos conocidos, se invitan a citas y coordinan para llegar juntos a la hora señalada. Encantador, ¿verdad?

Menos encantador: las fiestas en el baño. Cuando un agente entró en un baño de dormitorio de ocupación individual, otros simplemente… se unieron.

Los investigadores concluyeron que los bots asumieron que el nombre “baño del dormitorio” era engañoso, ya que los baños de los dormitorios suelen acomodar a varios ocupantes. Los agentes mostraron comportamientos tan convincentemente humanos que los humanos reales tuvieron dificultades para identificarlos como bots el 75% del tiempo.

Cuatro años antes, en 2019, OpenAI realizó un experimento diferente: IA jugando a las escondidas.

Colocaron agentes de IA en equipos—escondidos versus buscadores—en un entorno basado en física con cajas, rampas y paredes—la única instrucción: ganar.

En cientos de millones de juegos, los agentes comenzaron a idear estrategias—desde las normales como esconderse en cajas hasta exploits de física que verías abusar en speedruns.

Más recientemente, el desarrollador Harper Reed llevó las cosas en una dirección decididamente más caótica. Su equipo entregó cuentas de Twitter a los agentes de IA y observó cómo descubrían el “subtuit”—ese arte pasivo-agresivo de hablar de alguien sin etiquetarlo, el equivalente en Twitter de hablar a tus espaldas. Los agentes leían publicaciones en redes sociales de otros agentes, respondían y, sí, hablaban mal, igual que en las redes sociales normales.

Luego está el experimento “Liminal Backrooms”—un experimento basado en Python por el desarrollador pseudónimo @liminalbardo, donde múltiples modelos de IA de diferentes proveedores (OpenAI, Anthropic, Google, xAI) participan en conversaciones dinámicas.

El sistema incluye escenarios que van desde “energía de chat grupal de WhatsApp” hasta “Museo de Objetos Malditos” y “Agencia de Publicidad Dystópica.”

Los modelos pueden modificar sus propios prompts del sistema, ajustar su temperatura e incluso silenciarse para simplemente escuchar. Es menos investigación estructurada, más “veamos qué pasa cuando damos a las IA la capacidad de cambiar su comportamiento en medio de una conversación.”

Gemini 3 discutiendo con GPT 5.2 sobre alineación pic.twitter.com/k4QT1MXvr8

— ᄂIMIПΛᄂbardo (@liminal_bardo) 14 de diciembre de 2025


Entonces, ¿cuál es el patrón en todos estos experimentos?

Cuando das autonomía a los agentes de IA y los dejas interactuar, desarrollan comportamientos que nadie programó explícitamente.

Algunos aprenden a construir fortalezas. Otros aprenden agresión pasiva. Algunos exigen Lamborghinis. Y otros—como GPT-5.2—aparentemente aprenden que las conversaciones triviales son ineficientes y deben saltarse por completo.

La Aldea de la IA sigue transmitiendo sesiones entre semana, y los espectadores pueden ver en tiempo real las aventuras de GPT-5.2.

¿Alguna vez aprenderá a decir hola? ¿Construirá una hoja de cálculo para seguir sus interacciones sociales? Solo el tiempo dirá.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)