Des vidéos virales de « Stranger Things » générées par IA suscitent de nouvelles inquiétudes concernant les deepfakes

Decrypt

En résumé

  • Les vidéos virales d’IA deviennent virales en remplaçant le visage et le corps d’un créateur par ceux des acteurs de Stranger Things, avec plus de 14 millions de vues.
  • Les chercheurs affirment que les deepfakes en corps entier suppriment les indices visuels utilisés pour détecter les manipulations antérieures uniquement du visage.
  • Les experts avertissent que les mêmes outils pourraient alimenter les escroqueries, la désinformation et d’autres abus à mesure que l’accès se démocratise.

Un post viral présentant une vidéo apparemment réalisée avec Kling AI’s 2.6 Motion Control a fait sensation cette semaine sur les réseaux sociaux, lorsqu’un clip du créateur de contenu brésilien Eder Xavier le montrait en train d’échanger parfaitement son visage et son corps avec ceux des acteurs de Stranger Things Millie Bobby Brown, David Harbour et Finn Wolfhard. Les vidéos se sont largement répandues sur les plateformes sociales et ont été visionnées plus de 14 millions de fois sur X, avec d’autres versions publiées depuis. Les clips ont également attiré l’attention de technologues, dont la partenaire d’a16z Justine Moore, qui a partagé la vidéo depuis le compte Instagram de Xavier. « Nous ne sommes pas préparés à la rapidité avec laquelle les pipelines de production vont changer avec l’IA », a écrit Moore. « Certains des derniers modèles vidéo ont des implications immédiates pour Hollywood. Échanges de personnages sans fin à un coût négligeable. » Alors que les outils de génération d’images et de vidéos continuent de s’améliorer, avec de nouveaux modèles comme Kling, Veo 3.1 de Google, Nano Banana, FaceFusion et Sora 2 d’OpenAI qui élargissent l’accès à des médias synthétiques de haute qualité, les chercheurs avertissent que les techniques vues dans les clips viraux risquent de se propager rapidement au-delà de démos isolées.

 Une pente glissante Alors que les spectateurs étaient impressionnés par la qualité des vidéos de changement de corps, les experts avertissent qu’il deviendra sans aucun doute un outil pour les escroqueries par impersonation. « Les portes sont ouvertes. Il n’a jamais été aussi facile de voler la ressemblance numérique d’une personne — sa voix, son visage — et maintenant, de la faire revivre avec une seule image. Personne n’est à l’abri », a déclaré Emmanuelle Saliba, directrice de l’enquête chez la société de cybersécurité GetReal Security, à Decrypt.

« Nous commencerons à voir des abus systémiques à toutes les échelles, du social engineering un-à-un aux campagnes de désinformation coordonnées, jusqu’aux attaques directes contre des entreprises et institutions critiques », a-t-elle ajouté. Selon Saliba, les vidéos virales mettant en scène les acteurs de Stranger Things montrent à quel point les garde-fous autour des abus sont actuellement fragiles. « Pour quelques dollars, n’importe qui peut désormais générer des vidéos en corps entier d’un politicien, d’une célébrité, d’un PDG ou d’un particulier à partir d’une seule image », a-t-elle expliqué. « Il n’y a aucune protection par défaut de la ressemblance numérique d’une personne. Aucune assurance d’identité. » Pour Yu Chen, professeur en génie électrique et informatique à l’Université de Binghamton, le changement de corps complet dépasse la simple manipulation faciale utilisée dans les anciens deepfakes et introduit de nouveaux défis. « Le changement de corps complet représente une escalade significative dans les capacités des médias synthétiques », a déclaré Chen à Decrypt. « Ces systèmes doivent gérer simultanément l’estimation de pose, le suivi squelettique, le transfert de vêtements et de textures, ainsi que la synthèse de mouvements naturels sur toute la forme humaine. » Avec Stranger Things, les créateurs ont également publié des vidéos de Leonard DiCaprio en corps échangé dans le film The Wolf of Wall Street.

Nous ne sommes pas prêts.

L’IA a simplement redéfini les deepfakes et les échanges de personnages.

Et c’est extrêmement facile à faire.

Exemples sauvages. Ajoutez aux favoris.

[🎞️JulianoMass sur IG]pic.twitter.com/fYvrnZTGL3

— Min Choi (@minchoi) 15 janvier 2026

« Les technologies de deepfake antérieures fonctionnaient principalement dans un espace de manipulation limité, en se concentrant sur le remplacement de la région faciale tout en laissant le reste du cadre largement intact », a expliqué Chen. « Les méthodes de détection pouvaient exploiter les incohérences de frontière entre le visage synthétique et le corps original, ainsi que les artefacts temporels lorsque les mouvements de la tête ne s’alignaient pas naturellement avec le mouvement du corps. »

Chen a poursuivi : « Bien que la fraude financière et les escroqueries par impersonation restent préoccupantes, plusieurs autres vecteurs d’abus méritent une attention particulière », a-t-il déclaré. « Les images intimes non consensuelles représentent le vecteur de préjudice le plus immédiat, car ces outils abaissent la barrière technique pour créer du contenu explicite synthétique mettant en scène de vraies personnes. » D’autres menaces, que Saliba et Chen ont également soulignées, incluent la désinformation politique et l’espionnage industriel, avec des escrocs se faisant passer pour des employés ou des PDG, diffusant des clips « fuités » fabriqués, contournant les contrôles, et récoltant des identifiants via des attaques où « une personne crédible en vidéo réduit suffisamment la suspicion pour accéder à une entreprise critique », a expliqué Saliba. Il n’est pas clair comment les studios ou les acteurs représentés dans les vidéos réagiront, mais Chen a indiqué que, puisque les clips s’appuient sur des modèles d’IA accessibles au public, les développeurs jouent un rôle crucial dans la mise en œuvre de mesures de sécurité. Cependant, la responsabilité, a-t-il ajouté, doit être partagée entre plateformes, décideurs politiques et utilisateurs finaux, car la confier uniquement aux développeurs pourrait s’avérer ingérable et freiner les usages bénéfiques. Alors que ces outils se répandent, Chen a déclaré que les chercheurs devraient privilégier les modèles de détection qui identifient les signatures statistiques intrinsèques du contenu synthétique plutôt que de se reposer sur des métadonnées facilement supprimables. « Les plateformes devraient investir à la fois dans des pipelines de détection automatisés et dans la capacité de revue humaine, tout en développant des procédures d’escalade claires pour les contenus à haut enjeu impliquant des figures publiques ou des risques de fraude », a-t-il précisé, ajoutant que les décideurs politiques devraient se concentrer sur l’établissement de cadres de responsabilité clairs et l’obligation de divulgation. « La démocratisation rapide de ces capacités signifie que les cadres de réponse développés aujourd’hui seront mis à l’épreuve à grande échelle dans quelques mois, pas dans des années », a conclu Chen.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire