Cuando estalló la guerra entre Rusia y Ucrania en 2022, las redes sociales estaban inundadas de imágenes falsas de baja calidad, ya fuera fotos manipuladas con Photoshop o capturas erróneas tomadas de videojuegos, películas o viejas noticias. Hoy en día, las mismas técnicas vuelven a aparecer en el conflicto de Irán, pero esta vez con una herramienta de engaño de nueva generación que aún no era común en 2022: herramientas de IA fáciles de usar que pueden generar videos e imágenes de alta calidad y realismo engañoso.
El profesor de criminología digital de la Universidad de California en Berkeley, Hany Farid, señala que hace diez años, mensajes falsos similares se limitaban a uno o dos ejemplos, y rápidamente eran descubiertos; ahora, sin embargo, hay cientos, y su nivel de realismo es asombroso. “No solo son convincentes, sino que están fermentando — influyendo profundamente en las personas. La gente cree que son reales y continúa compartiéndolos y difundiéndolos.”
La popularización de la IA generativa ha reducido drásticamente las barreras para crear contenido falso
Shayan Sardarizadeh, periodista senior de BBC Verify y quien ha seguido de cerca las noticias falsas en zonas de conflicto, afirma que el cambio más importante en el último año ha sido la reducción significativa en la umbral para acceder a la IA generativa. “Ahora cualquiera puede crear videos e imágenes altamente convincentes que parecen ser escenas de un conflicto importante, y que son difíciles de distinguir a simple vista o con ojos no especializados.”
Menos de dos semanas después de que comenzara el conflicto en Irán, Sardarizadeh y otros expertos confirmaron que múltiples videos falsos generados por IA acumulaban decenas de millones de vistas en varias plataformas sociales.
¿Qué tipos de imágenes falsas están circulando?
Actualmente, los contenidos falsos identificados por IA abarcan un amplio espectro, incluyendo:
En cuanto a imágenes estáticas, se han difundido escenas de bases militares y embajadas estadounidenses en llamas tras ataques iraníes, fotografías de la muerte del líder supremo iraní, Khamenei, aplastado bajo escombros, y escenas de civiles iraníes llorando a las víctimas. Incluso algunos medios vinculados al gobierno iraní han publicado mapas satelitales falsificados que afirman mostrar daños en bases estadounidenses en Baréin.
Y estas son solo la punta del iceberg de la desinformación relacionada con Irán que circula actualmente.
La laxitud en la regulación de plataformas hace más difícil frenar las noticias falsas
Aunque Sardarizadeh y otros continúan desmentiendo noticias falsas a diario, los contenidos falsificados siguen surgiendo a un ritmo mucho mayor que la capacidad de desmentirlos, y su nivel de realismo es tal que usuarios comunes tienen dificultades para identificarlos en desplazamientos rápidos por sus feeds.
Algunas de las noticias falsas más difundidas parecen provenir de cuentas pro-iraníes con fines propagandísticos. Pero en muchos casos, las motivaciones para crear estas falsificaciones son difíciles de determinar: podrían ser para obtener tráfico, influencia o beneficios económicos, o simplemente porque es muy fácil producirlas.
Farid señala que la situación actual es muy problemática: “El contenido es más convincente, en mayor cantidad y más penetrante — esa es nuestra realidad actual, y está muy desordenada.”
La plataforma X (antes Twitter) anunció la semana pasada que, si creadores de contenido pagados publican videos de guerra sin indicar que son generados por IA, se les suspenderá la monetización durante 90 días, y en caso de reincidencia, se les bloqueará permanentemente. Sin embargo, Farid duda de la efectividad de esta política, y la mayoría de los usuarios de X no forman parte de programas de pago para creadores. TikTok y Meta (que posee Facebook e Instagram) no han respondido a las solicitudes de comentarios de CNN.
Lo que resulta aún más preocupante es que el propio chatbot de IA de X, Grok, ha sido mencionado varias veces por Sardarizadeh, quien afirma que en realidad ayuda a difundir desinformación: informa erróneamente a los usuarios que múltiples videos generados por IA son reales.
¿Cómo evitar ser engañado por noticias falsas?
Farid admite que incluso las técnicas de detección de imágenes falsas generadas por IA que circulaban hace meses ya casi no funcionan hoy en día. Antes, bastaba con fijarse en el número de dedos o en las proporciones corporales, pero la IA actual ya corrige estos errores evidentes.
Su consejo fundamental es optar por obtener información de medios de comunicación confiables, en lugar de confiar en cuentas desconocidas en redes sociales. “En momentos de conflicto global, las redes sociales no son el lugar para obtener información confiable.”
Para quienes deben navegar frecuentemente en redes sociales, los expertos recomiendan:
El futuro presenta desafíos aún mayores
Sardarizadeh hace un llamado a la población para que “entrene su ojo” y aprenda a detectar las huellas de contenido generado por IA. Pero también admite: “Detectar contenido generado por IA se vuelve cada vez más difícil, y las tendencias indican que en el futuro será aún más complicado.”
Con el avance continuo de la tecnología de IA generativa y la relajación de las regulaciones en las plataformas sociales, la batalla contra la desinformación digital se expande a una velocidad sin precedentes, y cada usuario que desliza en su teléfono se encuentra en la primera línea de esta guerra de información.
Este artículo sobre la proliferación de imágenes de guerra falsas generadas por IA y cómo las noticias falsas relacionadas con Irán están conquistando las redes sociales fue publicado originalmente en ABMedia.