
Table des matières
La vidéo YouTube tendance que vous regardez en direct n’est peut-être pas réelle. Comme l’a prouvé une arnaque récente, les vidéos deepfake en direct peuvent être mieux classées que la version réelle. Naturellement, ceux-ci sont conçus pour tromper. Voici ce que vous devez savoir pour éviter de tomber dans le piège des fraudeurs.
Des vidéos Deepfake en direct sont diffusées simultanément
Récemment, Nvidia a organisé un événement en direct pour son événement GTC. Cependant, alors que le PDG Jensen Huang était occupé à prononcer le discours d’ouverture sur des chaînes légitimes, une autre version de Huang engageait les téléspectateurs et les envoyait sur leur joyeux chemin vers une arnaque cryptographique.
Les deux diffusions en direct se sont déroulées simultanément sur YouTube. Le pire, c’est que le deepfake est mieux classé que le flux en direct légitime. Le nom de la chaîne, NVIDIA LIVE, la rendait probablement plus crédible. C’est peut-être aussi pour cela qu’il s’est classé si haut. Les utilisateurs recherchaient probablement « nvidia live », ce qui a conduit YouTube à recommander la vidéo deepfake plutôt que la vraie.
Dylan Martin a été le premier à tirer la sonnette d’alarme sur X.
Oui, la vidéo a depuis été supprimée, mais l’utilisateur qui l’hébergeait n’a pas encore été banni. Il s’agit là d’un autre type d’arnaque majeur auquel YouTube est confronté.
La leçon clé ici est de ne pas simplement cliquer sur le premier résultat. Assurez-vous que la vidéo est diffusée à partir du bon canal.
Les fraudeurs utilisent délibérément des mots-clés courants pour garantir que leurs vidéos deepfake en direct progressent dans les résultats. Même si cela ne fonctionne que pendant une courte période, c’est tout ce dont ils ont besoin pour en arnaquer des centaines ou des milliers à la fois.
Réfléchissez bien à ce qui est proposé
Qui ne veut pas de crypto gratuite ? C’est ce que savent les escrocs. Ils savent que les gens veulent des choses gratuites.
Mais le flux live deepfake de Nvidia a commis une erreur majeure, du moins pour ceux qui se souviennent que les grandes entreprises ne vont pas donner des tonnes d’argent par bonté de cœur.
Le faux PDG a promis que toute crypto-monnaie envoyée dans le portefeuille des fraudeurs serait comme par magie convertie en Bitcoin et restituée. La conversion signifierait recevoir plus que ce que vous avez envoyé.
À aucun moment il n’est réaliste de croire que Nvidia se contenterait de remettre des milliards de Bitcoin pour aider les téléspectateurs de quelque manière que ce soit. L’entreprise est occupée à investir des milliards dans l’IA, pas dans les humains.
Avant de croire ce qui est promis, réfléchissez-y attentivement. Est-ce que cela a du sens ? Êtes-vous envoyé vers un site réputé? Par exemple, si l’aubaine des crypto-monnaies était réelle, Nvidia ne l’aurait-il pas hébergé sur son site, et non sur un site tiers sommaire ?
De plus, si l’on vous demande de remettre de l’argent pour obtenir quelque chose « gratuitement », ce n’est pas gratuit. C’est une transaction. Et c’est une arnaque.
Les Deepfakes d’IA deviennent de plus en plus sophistiqués
À l’origine, vous voyiez principalement des photos deepfake et de courts clips vidéo. Désormais, des événements en direct entiers peuvent être des deepfakes. Ils font souvent appel à une personnalité de confiance, comme le PDG de Nvidia. L’IA correspond à l’apparence, aux mouvements et à la voix de la personne. En faisant appel à une personne bien connue, il est plus facile de collecter des données sur elle pour entraîner l’IA.
Les experts commencent à avoir du mal à faire la distinction entre ce qui est réel et ce qui ne l’est pas. Dans une interview, Hany Farid, un expert en IA, ne pouvait pas dire quelle voix était la sienne entre deux fausses et la vraie.

Oui, il existe des signes indiquant qu’une photo, une voix ou une vidéo est un deepfake. Mais l’IA s’améliore et rend plus difficile la détection de ces signes, tels que des mouvements irréguliers, un flou, des doigts ou des oreilles bizarres, ou toujours le fait de garder le sujet principal à distance.
Des moyens simples pour éviter les vidéos Deepfake en direct
Si vous regardez simplement une diffusion en direct avec désinvolture, vous ne remarquerez probablement pas de réelles différences. Cela ne signifie pas que vous devez accepter de ne jamais savoir si ce livestream est réel ou non.

Utilisez plutôt ces règles simples pour vous aider à sélectionner les vraies vidéos :
- S’il s’agit d’une plateforme vidéo réputée telle que YouTube ou Twitch, vérifiez la chaîne et/ou l’utilisateur. Si le message ne provient pas de l’utilisateur officiel ou de la chaîne dont il prétend provenir, ce n’est pas réel. Signalez le flux ou la vidéo et informez la vraie chaîne de ce qui se passe.
- Prenez un moment pour zoomer. Aussi incroyable que soit l’IA, les vidéos deepfake en direct présentent souvent encore un certain flou lorsque vous zoomez. Le sujet principal est tenu à distance pour rendre cela difficile à voir. Zoomez et voyez s’il y a du flou autour du visage et des membres du sujet. C’est un signe clair que c’est un faux.
- Vérifiez les commentaires. Vous n’avez pas besoin d’être un détective expert en deepfake tout seul. Parcourez les commentaires et voyez si quelqu’un d’autre remet en question la légitimité du flux. Les utilisateurs qui ont déjà repéré le problème avertissent souvent les autres. Gardez à l’esprit que les spammeurs tenteront de supprimer rapidement ces commentaires.
- Recherchez sur YouTube ou tout autre service de diffusion en direct le sujet de la diffusion en direct. Si vous voyez une option similaire diffusée en même temps, consultez les deux. Il s’agit probablement d’une arnaque.
- Il s’agit généralement d’un deepfake s’il s’éloigne du sujet. Par exemple, le PDG de Nvidia parlant d’un cadeau de crypto-monnaie n’a aucun sens. Ce serait comme si Microsoft offrait des iPhones, mais il vous suffit de leur donner accès à votre compte Microsoft.
Vous pouvez également utiliser des outils pour analyser le contenu afin de voir s’il est réel ou s’il est IA. Cependant, ils ne sont pas toujours précis à 100 %. Restez simplement conscient des escroqueries liées à l’IA et ne prenez pas les vidéos, les photos ou l’audio pour acquis.








