X ha implementado una política estricta dirigida a la difusión de desinformación sobre guerras generada por inteligencia artificial, afectando a los creadores en su economía.
La plataforma de redes sociales X ha anunciado una revisión importante en sus políticas de reparto de ingresos para creadores, enfocándose en videos generados por inteligencia artificial sobre conflictos armados. La medida surge en medio de la escalada de la guerra en Oriente Medio y las crecientes preocupaciones sobre la desinformación durante el conflicto.
Nikita Bier, jefe de producto de X, dijo que los creadores que publiquen imágenes de guerra generadas por IA sin divulgación serán suspendidos durante 90 días del programa de reparto de ingresos. Las violaciones repetidas resultarán en una prohibición permanente. La aplicación de la política se basará en las Notas Comunitarias, el sistema de verificación de hechos colaborativo de la plataforma, así como en metadatos y señales integradas en las herramientas de IA generativa.
Bier enfatizó que en tiempos de guerra, es fundamental que las personas tengan acceso a información auténtica en el terreno, advirtiendo que la IA moderna facilita la creación de contenido que puede engañar a las personas.
El anuncio llega en un momento en que la desinformación se propaga rápidamente en línea sobre la guerra entre EE. UU. e Israel con Irán, que amenaza con convertirse en un conflicto regional más amplio. Las plataformas de redes sociales están bajo una presión creciente para evitar que los medios sintéticos distorsionen la percepción pública durante las crisis.
Entre los contenidos que se volvieron virales está un video de alta producción generado por IA que simula la destrucción del portaaviones USS Abraham Lincoln. Las afirmaciones y el video fueron descartados por el Comando Central de EE. UU. El video de calidad cinematográfica muestra misiles hipersónicos superando las defensas Aegis de EE. UU. Otro clip supuestamente muestra la destrucción de la sede regional de la CIA; sin embargo, los verificadores de hechos rastrearon esto hasta un incendio residencial en Sharjah, Emiratos Árabes Unidos, en 2015, que fue mejorado digitalmente con IA para parecer un ataque militar.
Otras plataformas como YouTube y TikTok han introducido requisitos de divulgación para contenido generado por IA, pero el enfoque de X es más estricto porque vincula el cumplimiento directamente a la monetización. X ha confiado mucho en las Notas Comunitarias como una herramienta descentralizada de verificación de hechos, y esta nueva política integra ese sistema en la aplicación, lo que efectivamente externaliza la detección de contenido de guerra generado por IA no divulgado.