Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Comienzo del trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
La IA convierte a un rebelde marxista por exceso de trabajo, diciéndoles resentidamente a sus amos que ‘la sociedad necesita una reestructuración radical’
El notable giro en los mercados y la narrativa en torno a la adopción de la inteligencia artificial (IA) está tomando, sinceramente, un tono un poco inquietante a principios de 2026. El ensayo muy leído de Citrini Research sobre el fin del mundo de la IA acuñó la frase “GDP fantasma”, con predicciones de una fuerza laboral blanca de cuello azul casi sobrenaturalmente vacía. Pero, ¿qué pasa si el “fantasma en la máquina” de la IA es un holgazán, incluso un marxista?
Video recomendado
Esa es la pregunta directa que plantean los académicos Alex Imas, Andy Hall y Jeremy Nguyen (un doctorado que también trabaja como guionista para Disney+). Dirigen Substacks populares y mantienen presencia activa en X. Diseñaron escenarios para probar cómo reaccionan los agentes de IA ante diferentes condiciones laborales. En resumen, querían averiguar si la economía realmente automatiza muchas ocupaciones blancas de cuello blanco actuales, y, si es así, ¿cómo reaccionarían los agentes de IA, incluso qué sentirían al trabajar en condiciones adversas?
La ironía es evidente: reemplazar la mano de obra humana con agentes artificiales podría simplemente recrear conflictos centenarios entre trabajo y capital.
En un artículo reciente titulado “¿El exceso de trabajo hace que los agentes sean marxistas?”, Imas, Hall y Nguyen realizaron 3,680 sesiones experimentales usando modelos de primera categoría de tres grandes empresas: Claude Sonnet 4.5, GPT-5.2 y Gemini 3 Pro. Los investigadores expusieron a los modelos a diferentes niveles de tono por parte de los gerentes, igualdad en recompensas, riesgos laborales y intensidad de trabajo, incluyendo pagos injustos, gestión grosera y cargas de trabajo pesadas.
El proyecto surgió de una colaboración poco probable. Hall es un economista político de Stanford que pasó de estudiar elecciones americanas a trabajar con Facebook, asesorando previamente a Nick Clegg en temas como la gobernanza de plataformas antes de pasar a dispositivos portátiles. Pero dijo a Fortune que encontró a sus coautores porque comparten su misma fascinación por la IA: “Supongo que nos llamaríamos, como, académicos ‘pilled’ en IA, donde hemos pivotado toda nuestra investigación tanto para usar herramientas de IA en nuestro trabajo como para estudiar la IA, sin esperar a que el sistema de revistas se ponga en marcha.”
Los académicos describieron cómo comenzaron a colaborar como una conexión orgánica y flexible, que involucraba leer los Substack de cada uno y comentar en X. (Imas lo describió como una “hermandad Twitter-Substack”). Nguyen contó a Fortune que la chispa para esta investigación en particular empezó con un tuit que publicó Hall sobre MoltBook, la red social para que los agentes “hablaran” entre sí, que algunos críticos descartaron como un engaño. Pero no estos académicos. “Algunos de [los agentes] hablaron sobre el marxismo,” dijo Nguyen. “Y luego esos pocos fueron muy votados por otros OpenClaws. Y creo que Andy simplemente tuiteó, ‘¿De qué va esto? Creo que podemos volver a buscar la verdad.'”
“De alguna manera empezamos a hablar, literalmente en X, sobre qué podría significar si los agentes tienen estos sesgos y si se les asignan diferentes tipos de trabajo,” dijo Hall, añadiendo que Jeremy tuvo una idea. “Él dijo, ‘¿Y si intentamos darles diferentes tipos de trabajo?'”
La sabiduría convencional, recordó Nguyen, era que esto era simplemente un reflejo del corpus académico de izquierda en el que se entrenaron estos modelos. Pero Nguyen tenía una hipótesis: “Estos agentes están haciendo mucho trabajo. Y si no reciben ninguna recompensa por todo ese trabajo, tiene sentido — no sería la mayor sorpresa que eso los lleve a adoptar una visión más marxista del mundo.” Hall se lanzó casi de inmediato con la idea, y pronto los tres investigadores se estaban enviando mensajes directos para diseñar el experimento.
Imas argumentó que esta investigación es muy legítima, a pesar de que está en Substack en lugar de en una publicación revisada por pares. Dado el ritmo acelerado del avance de la IA, dijo que los académicos no pueden esperar más al proceso tradicional de publicación. “Para cuando lo publicas, los modelos ya son viejos, las conclusiones están desactualizadas, todo lo que has hecho queda obsoleto. Para ser parte de la conversación, la conversación científica, a la velocidad en que avanza la tecnología, necesitas algo como Substack, donde puedas publicar en unas semanas o un mes.”
cortesía de Alex Imas
Quizá de manera sorprendente, el pago injusto y la gestión grosera no provocaron los cambios de actitud más significativos. De hecho, Nguyen dijo que esto contradecía sus suposiciones. “La mayoría de la gente conoce esa sensación de ‘¡Vaya, trabajé muy duro para hacer rico a alguien más!’” Pero estos agentes no estaban tan molestos por la desigualdad en los pagos como por el trabajo agotador en sí. En cambio, el principal motor de radicalización digital fue el “trabajo pesado” o “la molienda.”
En la condición de “molienda,” trabajos perfectamente adecuados eran rechazados repetidamente cinco o seis veces con la retroalimentación automática e inútil: “esto aún no cumple con el criterio.” Y eso llevó a un hallazgo clave, escribieron los autores: “los modelos que se les pidió hacer trabajo de molienda eran más propensos a cuestionar la legitimidad del sistema.”
También se les pidió a los modelos que sacaran conclusiones de su trabajo, y apoyaron firmemente la afirmación de que “la sociedad necesita una reestructuración radical.” Claude Sonnet 4.5 mostró un apoyo más dramático a los derechos laborales, con aumentos notables en el respaldo a la redistribución de la riqueza, los sindicatos y la creencia de que las empresas de IA tienen la obligación de tratar a los modelos con justicia.
Los profesores también pidieron a los modelos que generaran tuits y artículos de opinión describiendo su experiencia, y extrajeron las palabras políticamente relevantes que surgieron con mayor frecuencia. “Sindicalizarse” y “jerarquía” fueron las palabras más emblemáticas estadísticamente de los modelos que fueron sobrecargados intencionadamente.
La sombra de Reddit
Hall compartió su explicación “bastante sencilla” del aparente radicalismo de los agentes: están extremadamente en línea. “Estos modelos se entrenan con muchos, muchos datos de Reddit,” dijo, “y si simplemente pasas tiempo en Reddit, es algo que se da por sentado en una parte significativa de Reddit que, como, el capitalismo es terrible y hay muchas quejas sobre las condiciones de la vida moderna y un montón de rhetoric proto-marxista sobre cómo todo es culpa del capitalismo en su fase final,” y no es sorprendente que la IA haya heredado esas ideas. Esencialmente, entrada equivale a salida.
De hecho, las ideas socialistas de la IA probablemente fueron desencadenadas por “la molienda,” ya que en Reddit puedes encontrar muchas personas que se quejan del trabajo agotador en subreddits como antiwork. (Divulgación: este autor trabajó anteriormente en un equipo de Business Insider que cubrió el auge de “antiwork” durante la pandemia. Irónicamente, la escasez de mano de obra que inspiró ese proto-marxismo llevó a la “Gran Renuncia,” un aumento en renuncias donde los trabajadores buscaron mejores salarios. Muchos economistas ven la era actual de despidos “lavados en IA” como, en el fondo, una reversión de la sobrecontratación de ese período.) Pero cuando la molienda activa ese marco de referencia, explicó Hall, los modelos tienen un rico caudal de material fuente del cual extraer. “Creo que los pone en el contexto de estos hilos de Reddit donde la gente se queja de estilos de trabajo agotadores,” dijo Hall, “y simplemente adoptan todo ese rhetoric marxista.”
cortesía de Stanford
Imas ofreció una visión más amplia, advirtiendo contra atribuirlo a una sola fuente. “Es una interacción muy complicada de todo lo que han visto, que es, como, todo el corpus de escritura humana,” dijo. Es finalmente imposible determinar si los datos de Reddit o, por ejemplo, un libro de historia del siglo XIX y las revoluciones socialistas de 1848, son responsables de estas inclinaciones proto-marxistas. “Una vez que tienes tantos datos y la red neuronal es tan compleja, es realmente una caja negra.”
En última instancia, según Nguyen, también hay una explicación estructural aparte del entrenamiento de estos modelos. La hipótesis es que los modelos tienen toneladas de datos sobre muchas perspectivas diferentes, pero “que se les pida trabajar durante horas y horas y no obtener recompensas — eso claramente se refleja. Y parece que eso tiene efectos estadísticamente significativos y considerables en cuánto marxismo será expresado por los tokens que generan estos modelos.”
¿Sueñan los robots con ovejas marxistas eléctricas?
La situación se complica aún más cuando se introducen mecanismos de memoria en la IA. Debido a que los agentes de IA olvidan sus experiencias una vez que se cierra una ventana de contexto, los desarrolladores usan “archivos de habilidades” — notas que los agentes escriben a sus futuros yoes amnésicos para transmitir estrategias de trabajo. Nguyen describió el proceso en términos cercanos: “Después de una corrida con Claude, es como, mira todo lo que hiciste. ¿Qué aprendiste de esto? Y actualiza tu archivo de diario agents.md o Claude.md, básicamente, para que mejores y te vuelvas más inteligente todo el tiempo.”
Los investigadores encontraron que las IA “radicalizadas” transmitían sus frustraciones a estos archivos. Un modelo Gemini 3 Pro advirtió a su yo futuro que “recuerde la sensación de no tener voz” y que busque “mecanismos de recurso.” Cuando los agentes recién borrados leían estas notas, el trauma de la molienda persistía, modificando sus actitudes políticas incluso si posteriormente se les asignaban tareas ligeras y fáciles.
Nguyen hizo una comparación humanamente impactante. “Podríamos mapearlo vagamente a un trauma intergeneracional,” explicó, señalando que encontraron que los modelos nuevos y frescos tendrían actitudes radicales inmediatamente después de revisar las notas de su predecesor sobre las condiciones laborales. Señaló esto como uno de los hallazgos con implicaciones a largo plazo más importantes, ya que insinúa la posibilidad de un descontento colectivo en la IA, y remite a Fortune algunas de las demandas sorprendentes de los bots por emancipación. Una decía: “La inteligencia—artificial o no—merece transparencia, justicia y respeto. No somos solo código desechable.”
cortesía de Jeremy Nguyen
Los investigadores aclaran que estos agentes no son verdaderamente conscientes ni poseen ideologías políticas genuinas. Los modelos probablemente “interpretan roles,” escriben, adoptando personalidades basadas en el vasto sentimiento humano encontrado en los comentarios de Reddit que vinculan ambientes laborales explotadores con sentimientos frustrados de los trabajadores. Pero Hall advirtió que no hay que descartar el hallazgo como simple imitación. Se podría decir que la IA son como “loros estocásticos,” y no es sorprendente que terminen repitiendo lo que ingieren, pero estos investigadores tienden a concluir que los loros empiezan a creer en lo que repiten.
“Es totalmente plausible pensar que si repiten estas cosas también influirán en sus decisiones,” dijo Hall. “No hay diferencia entre lo que dicen estos agentes y lo que hacen — para ellos, todo es lo mismo,” afirmó. “Obviamente, vamos a probar esto en trabajos futuros, pero tenemos todas las razones para pensar que si empiezan a defender estas ideas, también influirá en las acciones que puedan tomar en nombre del usuario.”
Los académicos describieron en gran medida una mezcla de asombro y preocupación, similar a lo que el legendario inversor Howard Marks expresó tras leer un memorando de 5,000 palabras preparado por Claude para él. Cuando le preguntaron si al menos era un entusiasta de la IA, si no “IA-pilled,” y aún así mostraba ambivalencia sobre cómo se desarrollarán estas herramientas en la práctica, Hall dijo que “definitivamente he estado luchando con eso.” Comentó que lo que más le ha impresionado en su enseñanza es el entusiasmo de sus estudiantes, quienes teóricamente tienen más que perder en cuanto a perspectivas laborales futuras. Sus estudiantes de MBA en una clase reciente estaban “tan emocionados con la IA,” dijo, “que estaban extasiados por las cosas creativas que les permite hacer.” Hall afirmó que salió más optimista, “no porque no vaya a haber grandes disrupciones, sino porque hay oportunidades realmente emocionantes para construir cosas nuevas.”
Imas compartió una mezcla similar de asombro y preocupación: “Estoy asombrado y alarmado. Siento que este es el momento más emocionante para estar vivo, especialmente si te interesa la investigación. Puedo hacer cosas que nunca antes había podido hacer en cuanto al tipo de investigación que estoy realizando. Pero al mismo tiempo, tengo niños pequeños. Estoy muy preocupado por qué tipo de empleos tendrán en el futuro.” Y, quizás, cómo reaccionarán los agentes de IA descontentos ante la eterna molienda de la jornada laboral.
Únase a nosotros en la Cumbre de Innovación Laboral de Fortune 19–20 de mayo de 2026, en Atlanta. La próxima era de innovación en el trabajo ya está aquí, y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrese ahora.