En 2022, lors du déclenchement de la guerre entre la Russie et l’Ukraine, les médias sociaux étaient envahis par des images de mauvaise qualité — qu’il s’agisse de photos composites faites avec Photoshop ou de captures d’écran mal étiquetées provenant de jeux vidéo, de films ou d’anciennes actualités. Aujourd’hui, la même technique refait surface dans le contexte du conflit en Iran, mais cette fois avec un nouvel outil de tromperie qui n’était pas encore répandu en 2022 : des outils d’IA accessibles à tous, capables de générer des vidéos et des images haute définition, d’une authenticité trompeuse.
Hany Farid, professeur en criminalistique numérique à l’Université de Californie à Berkeley, explique qu’il y a dix ans, des fausses informations similaires se limitaient à une ou deux pièces, rapidement démasquées ; aujourd’hui, ce sont des centaines, avec un réalisme saisissant. « Ce n’est pas seulement réaliste, c’est en train de fermenter — cela influence profondément les gens. Tout le monde y croit et continue à partager. »
L’essor de l’IA générative réduit considérablement la barrière à la falsification
Shayan Sardarizadeh, journaliste senior de BBC Verify et observateur de longue date des fausses informations sur les zones de conflit, indique que le changement le plus crucial au cours de l’année écoulée est la baisse drastique du seuil d’accès à l’IA générative. « Maintenant, n’importe qui peut produire des vidéos et des images très convaincantes, semblant provenir d’événements majeurs, difficiles à distinguer à l’œil nu ou par un regard non expert. »
Moins de deux semaines après le début du conflit en Iran, plusieurs vidéos générées par IA ont déjà été vues des dizaines de millions de fois sur diverses plateformes sociales.
Quelles images fausses circulent ?
Les contenus falsifiés identifiés jusqu’à présent couvrent un large éventail, notamment :
Une fausse attaque de missiles iranienne sur Tel-Aviv
Des scènes de panique lors de l’évacuation de la foule à l’aéroport de Tel-Aviv lors d’une attaque
Une vidéo montrant des forces spéciales américaines escortées par des soldats iraniens armés
Des « images de surveillance » prétendant montrer la destruction d’installations militaires iraniennes (dont trois sont générées par IA, une étant une véritable scène de l’année dernière)
Des images de véhicules militaires américains en opération au sol en Iran
Des images de débris d’un hélicoptère américain tombé défilant dans les rues de Téhéran
Concernant les images statiques, on trouve des scènes de bases militaires américaines et de l’ambassade des États-Unis en flammes après une attaque iranienne, des images du chef suprême iranien Khamenei écrasé sous des décombres, ou encore des scènes de civils iraniens pleurant les victimes. Certaines médias liés au gouvernement iranien ont même publié une fausse image satellite prétendant montrer des dégâts à la base américaine de Bahreïn.
Ce ne sont là que la partie émergée de l’iceberg des fausses informations liées à l’Iran qui circulent actuellement.
Une régulation insuffisante des plateformes, un défi accru pour stopper la désinformation
Malgré les efforts quotidiens de Sardarizadeh et d’autres pour démasquer ces fausses images, de nouveaux contenus falsifiés apparaissent à une vitesse bien supérieure à celle de leur détection, avec un réalisme si poussé que l’utilisateur moyen a du mal à les distinguer en faisant défiler son fil d’actualité.
Certaines fausses informations largement diffusées proviennent clairement de comptes pro-iranien ou à but de propagande. Mais la motivation derrière la création de beaucoup d’autres reste difficile à déterminer — cela pourrait être pour le trafic, l’influence ou le profit, ou simplement parce que leur fabrication est devenue trop facile.
Farid souligne la difficulté actuelle : « Le contenu est plus réaliste, en plus grande quantité, et plus infiltré que jamais — c’est notre réalité actuelle, et c’est très chaotique. »
La plateforme X (anciennement Twitter) a annoncé la semaine dernière que les créateurs payants qui publieraient des images de guerre non marquées comme générées par IA verraient leur monétisation suspendue pendant 90 jours, avec une interdiction permanente en cas de récidive. Cependant, Farid reste sceptique quant à l’efficacité de cette politique, la majorité des utilisateurs de X n’étant pas dans le programme de paiement des créateurs. TikTok et Meta (propriétaire de Facebook et Instagram) n’ont pas répondu aux demandes de commentaire de CNN.
Ce qui est encore plus préoccupant, c’est que le chatbot IA de X, Grok, a été plusieurs fois pointé du doigt par Sardarizadeh, qui affirme qu’il contribue en réalité à la désinformation — en indiquant à tort à l’utilisateur que plusieurs vidéos générées par IA sont authentiques.
Comment éviter d’être trompé par de fausses informations ?
Farid admet que même la technique de détection des images falsifiées par IA, qui circulait il y a quelques mois, est aujourd’hui presque inefficace. Autrefois, il suffisait d’observer le nombre de doigts ou la proportion des membres d’une personne, mais l’IA a déjà corrigé ces erreurs évidentes.
Il recommande de privilégier l’information provenant de médias crédibles plutôt que de comptes inconnus sur les réseaux sociaux. « En période de conflit mondial, les médias sociaux ne sont pas le lieu pour s’informer. »
Pour les utilisateurs qui doivent continuer à consulter fréquemment les réseaux sociaux, voici ses conseils :
Ralentir : face à une image de guerre sensationnelle, prendre quelques secondes pour vérifier avant de partager ou de croire
Observer les détails : la synchronisation audio-vidéo est-elle cohérente ? Les caractéristiques de l’image correspondent-elles à la réalité ? L’IA a encore des défauts, et certains contenus générés laissent des filigranes
Vérifier auprès de sources professionnelles : voir si des médias de vérification ou des experts ont déjà commenté cette image
Surveiller les commentaires : les utilisateurs ordinaires peuvent parfois soulever des questions valides
Utiliser des outils de détection IA : bien qu’imparfaits, ils offrent une certaine aide
Une tendance inquiétante, des défis encore plus grands à l’avenir
Sardarizadeh appelle le public à « entraîner ses yeux » pour repérer les traces d’IA, mais il avoue aussi : « La détection du contenu généré par IA devient de plus en plus difficile, et la tendance montre que ce sera de pire en pire à l’avenir. »
Sous la pression de l’évolution continue de la technologie IA générative et de la réglementation laxiste des plateformes sociales, la bataille contre la désinformation numérique s’accélère à une vitesse sans précédent, et chaque utilisateur de smartphone se trouve en première ligne de cette guerre de l’information.
Cet article sur la prolifération des images de guerre générées par IA : comment les fausses informations sur l’Iran envahissent les réseaux sociaux a été initialement publié par ABMedia.