Un post viral présentant une vidéo apparemment réalisée avec Kling AI’s 2.6 Motion Control a fait sensation cette semaine sur les réseaux sociaux, lorsqu’un clip du créateur de contenu brésilien Eder Xavier le montrait en train d’échanger parfaitement son visage et son corps avec ceux des acteurs de Stranger Things Millie Bobby Brown, David Harbour et Finn Wolfhard. Les vidéos se sont largement répandues sur les plateformes sociales et ont été visionnées plus de 14 millions de fois sur X, avec d’autres versions publiées depuis. Les clips ont également attiré l’attention de technologues, dont la partenaire d’a16z Justine Moore, qui a partagé la vidéo depuis le compte Instagram de Xavier. « Nous ne sommes pas préparés à la rapidité avec laquelle les pipelines de production vont changer avec l’IA », a écrit Moore. « Certains des derniers modèles vidéo ont des implications immédiates pour Hollywood. Échanges de personnages sans fin à un coût négligeable. » Alors que les outils de génération d’images et de vidéos continuent de s’améliorer, avec de nouveaux modèles comme Kling, Veo 3.1 de Google, Nano Banana, FaceFusion et Sora 2 d’OpenAI qui élargissent l’accès à des médias synthétiques de haute qualité, les chercheurs avertissent que les techniques vues dans les clips viraux risquent de se propager rapidement au-delà de démos isolées.
Une pente glissante Alors que les spectateurs étaient impressionnés par la qualité des vidéos de changement de corps, les experts avertissent qu’il deviendra sans aucun doute un outil pour les escroqueries par impersonation. « Les portes sont ouvertes. Il n’a jamais été aussi facile de voler la ressemblance numérique d’une personne — sa voix, son visage — et maintenant, de la faire revivre avec une seule image. Personne n’est à l’abri », a déclaré Emmanuelle Saliba, directrice de l’enquête chez la société de cybersécurité GetReal Security, à Decrypt.
« Nous commencerons à voir des abus systémiques à toutes les échelles, du social engineering un-à-un aux campagnes de désinformation coordonnées, jusqu’aux attaques directes contre des entreprises et institutions critiques », a-t-elle ajouté. Selon Saliba, les vidéos virales mettant en scène les acteurs de Stranger Things montrent à quel point les garde-fous autour des abus sont actuellement fragiles. « Pour quelques dollars, n’importe qui peut désormais générer des vidéos en corps entier d’un politicien, d’une célébrité, d’un PDG ou d’un particulier à partir d’une seule image », a-t-elle expliqué. « Il n’y a aucune protection par défaut de la ressemblance numérique d’une personne. Aucune assurance d’identité. » Pour Yu Chen, professeur en génie électrique et informatique à l’Université de Binghamton, le changement de corps complet dépasse la simple manipulation faciale utilisée dans les anciens deepfakes et introduit de nouveaux défis. « Le changement de corps complet représente une escalade significative dans les capacités des médias synthétiques », a déclaré Chen à Decrypt. « Ces systèmes doivent gérer simultanément l’estimation de pose, le suivi squelettique, le transfert de vêtements et de textures, ainsi que la synthèse de mouvements naturels sur toute la forme humaine. » Avec Stranger Things, les créateurs ont également publié des vidéos de Leonard DiCaprio en corps échangé dans le film The Wolf of Wall Street.
Nous ne sommes pas prêts.
L’IA a simplement redéfini les deepfakes et les échanges de personnages.
Et c’est extrêmement facile à faire.
Exemples sauvages. Ajoutez aux favoris.
[🎞️JulianoMass sur IG]pic.twitter.com/fYvrnZTGL3
— Min Choi (@minchoi) 15 janvier 2026
« Les technologies de deepfake antérieures fonctionnaient principalement dans un espace de manipulation limité, en se concentrant sur le remplacement de la région faciale tout en laissant le reste du cadre largement intact », a expliqué Chen. « Les méthodes de détection pouvaient exploiter les incohérences de frontière entre le visage synthétique et le corps original, ainsi que les artefacts temporels lorsque les mouvements de la tête ne s’alignaient pas naturellement avec le mouvement du corps. »
Chen a poursuivi : « Bien que la fraude financière et les escroqueries par impersonation restent préoccupantes, plusieurs autres vecteurs d’abus méritent une attention particulière », a-t-il déclaré. « Les images intimes non consensuelles représentent le vecteur de préjudice le plus immédiat, car ces outils abaissent la barrière technique pour créer du contenu explicite synthétique mettant en scène de vraies personnes. » D’autres menaces, que Saliba et Chen ont également soulignées, incluent la désinformation politique et l’espionnage industriel, avec des escrocs se faisant passer pour des employés ou des PDG, diffusant des clips « fuités » fabriqués, contournant les contrôles, et récoltant des identifiants via des attaques où « une personne crédible en vidéo réduit suffisamment la suspicion pour accéder à une entreprise critique », a expliqué Saliba. Il n’est pas clair comment les studios ou les acteurs représentés dans les vidéos réagiront, mais Chen a indiqué que, puisque les clips s’appuient sur des modèles d’IA accessibles au public, les développeurs jouent un rôle crucial dans la mise en œuvre de mesures de sécurité. Cependant, la responsabilité, a-t-il ajouté, doit être partagée entre plateformes, décideurs politiques et utilisateurs finaux, car la confier uniquement aux développeurs pourrait s’avérer ingérable et freiner les usages bénéfiques. Alors que ces outils se répandent, Chen a déclaré que les chercheurs devraient privilégier les modèles de détection qui identifient les signatures statistiques intrinsèques du contenu synthétique plutôt que de se reposer sur des métadonnées facilement supprimables. « Les plateformes devraient investir à la fois dans des pipelines de détection automatisés et dans la capacité de revue humaine, tout en développant des procédures d’escalade claires pour les contenus à haut enjeu impliquant des figures publiques ou des risques de fraude », a-t-il précisé, ajoutant que les décideurs politiques devraient se concentrer sur l’établissement de cadres de responsabilité clairs et l’obligation de divulgation. « La démocratisation rapide de ces capacités signifie que les cadres de réponse développés aujourd’hui seront mis à l’épreuve à grande échelle dans quelques mois, pas dans des années », a conclu Chen.