Les Deepfakes : des fausses vidéos plus vraies que nature

Les Deepfakes : des fausses vidéos plus vraies que nature

Les Deepfakes sont des faux (Fake) vidéo-montages qui accordent le visage d’une personne avec le corps d’une autre et sont créés grâce à des technologies de deep learning et intelligence artificielle.
Depuis le début de l’année, de centaines de vidéos Deepfake apparaissent en ligne, superposant des visages de célébrités sur les corps d’acteurs pornographiques en pleine action, ou encore des visages de politiciens sur les corps de personnes agissant de façon inappropriée.

Le principe du Deepfake est simple : des logiciels utilisent des systèmes d’apprentissage automatique (machine learning) spécifiquement programmés pour superposer le visage d'une personne sur le corps d'une autre, tout en gardant ses expressions faciales. Le résultat est étonnamment réussi par rapport à l’effort et aux compétences requises ; certes, à l’heure actuelle, l'effet n'est pas encore parfait, mais il permet de démocratiser des effets spéciaux qui, jusqu’à maintenant, étaient limités aux studios de cinéma et aux professionnels de la vidéo. Hormis le côté divertissant de cette nouvelle technologie émergente, les Deepfakes peuvent entraîner des conséquences graves, voir catastrophiques.

Les politiciens

On se souvient : le 23 mai 2017, un hackeur pénètre dans l’agence de presse nationale du Qatar (QNA) et publie une histoire fictive alléguant un soutien de l’Iran et du Hamas par l’Émir et affirmant qu’il critiquait ouvertement les États-Unis et Trump. Le lendemain, les médias du Moyen-Orient reprennent la nouvelle qui devient virale. Quelques jours plus tard, les pays du Golfe, accusant le Qatar de soutenir le terrorisme international, décident de couper tout lien avec le pays, l’isolant complètement.
Une fausse vidéo de l’Émir soutenant l’Iran, au lieu d’un faux article, aurait pu avoir des conséquences bien plus dramatiques.
La situation politique actuelle, locale tant qu’internationale, est parfois tellement tendue qu’une actualité, même fabriquée, peut démarrer une crise difficile à arrêter. Des gouvernements pourraient créer des Deepfakes, hacker des sites officiels pour les publier, puis utiliser des troll farms (commentateurs anonymes sur Internet prétendant représenter une opinion publique) rendant l’information virale afin de déstabiliser un pays. Des vidéos virtuelles mettant en scène des personnages publics acceptant des pots-de-vin, des militaires exécutant des civils, des politiciens menaçant des pays, etc. pourraient être l’événement déclencheur d’une crise ou d’une guerre.
On estime communément que les vidéos sont fiables et authentiques : Twitter et Facebook permettent aux utilisateurs de publier des informations qui peuvent devenir virales tout en n’étant pas vérifiées et qui mènent souvent, dans l’empressement d’être toujours à la pointe de l’actualité, de nombreux médias à relayer ces informations ; les démentis, les excuses et les corrections à postériori n’ont qu’un impact mineur. Les Deepfakes vont évidemment rendre le travail des journalistes encore plus complexe, les obligeant à faire systématiquement appel à des experts afin de valider la véracité d’une vidéo avant de la relayer.

Le cyber-bullying et le revenge porn

Parmi les aspects les plus funestes d’internet se trouvent le revenge porn (lorsqu’une personne publie du contenu pornographique de son ex-conjoint pour se venger d’une rupture) et le cyber-bullying (l'utilisation d’internet pour nuire à plusieurs reprises ou harceler d'autres personnes de manière délibérée, telle la publication de rumeurs ou de contenu humiliant ; ce sont des outils fréquemment utilisés chez les jeunes et ados). Le cyber-bullying et le revenge porn ont mené à plusieurs suicides, souvent parmi des mineurs.
Les Deepfakes ouvrent un tout nouveau monde de diffamation. Les ados adorent les nouvelles technologies et sont les premiers à s’amuser avec les Deepfakes. Il est évident que, très rapidement, ils vont créer des vidéos mettant en scène des personnes de leur entourage dans un contexte possiblement humiliant et malveillant.
Une fois ce contenu publié et partagé sur internet, il sera quasiment impossible de le retirer ; les victimes des Deepfakes manquent souvent de moyens financiers pour faire bloquer des vidéos et les démarches légales sont trop longues et lentes pour retirer le contenu avant que le mal soit fait. La vérité aura beaucoup de peine à rattraper le mensonge, lorsque des fausses vidéos pornographiques apparaitront. Les dommages à la réputation des victimes suite à la publication de vidéos Deepfake, surtout si elles apparaissent dans les résultats lors d’une recherche Google, sont inimaginables. Nous pouvons même nous attendre à une utilisation de Deepfake par des criminels afin de demander des rançons.

Les stars

Les Deepfakes de cyber-bullying ou ciblant les politiciens semblent les utilisations les plus évidentes, néanmoins la majorité des Deepfake visent actuellement les stars.
Des dizaines de Deepfakes de Emma Watson, Ariana Grande ou encore de Taylor Swift, mises en scène dans des vidéos pornographiques, circulent sur internet. Les équipes de relations publiques de ces stars tentent de bloquer la publication et le partage de ces vidéos avec un succès limité.
Ces personnages publics ont l’habitude d’être au centre de scandales et possèdent des équipes capables de gérer les crises, leur offrant ainsi des plateformes efficaces pour démentir les vidéos.


Une façon de lutter contre les Deepfakes est de prouver que l’événement n’a pas eu lieu, une démarche qui impliquera forcément une intrusion dans la vie privée des personnes concernées. Par exemple, une personne figurant dans une vidéo où elle apparaît participant à une manifestation extrémiste, devra se défendre en prouvant qu’elle n’y était pas et sera obligée de dévoiler où elle se trouvait, violant potentiellement sa sphère privée. Des compagnies, telles que Facebook, pourront se profiler dans le futur comme « traqueurs », en exposant des logs d’activité de la personne afin de prouver qu’une vidéo mise en scène est un Deepfake. Les personnes refusant d’utiliser ces technologies de « surveillance » seront susceptibles de perdre leur capacité de se défendre.
Une solution technologique permettant de distinguer les Deepfakes des vidéos légitimes va probablement être déployée dans le mois qui viennent et une « course à l’armement » commencera entre les deux technologies ; en définitive, il incombera à chacun de se questionner sur la véracité des vidéos publiées, et le public aura tendance à choisir la narration qui lui convient en fonction de son opinion préconçue.

La propagation des Deepfakes risque de mettre en péril le fonctionnement efficace de nos démocraties et notre confiance dans les médias. Non seulement les fausses vidéos pourront mener des campagnes de désinformation, mais aussi, et plus subtilement, le public deviendra enclin à ne pas croire à des faits réels s’il les considère inconfortables ou embarrassants. Les préjugés cognitifs encouragent déjà la résistance à s’exposer à des faits qui ne correspondent pas à nos opinions ; l’existence des Deepfakes renforcera cette tendance, fournissant une excuse toute prête pour ignorer les preuves non désirées. Au fur et à mesure que les fausses vidéos se répandront, le public aura de la difficulté à prêter confiance à ce que ses yeux voient, même si l'information est bien réelle.
La technologie de Deepfake est à sa genèse, mais pose une première pierre vers un déclin global de la vérité et du déni possible de toute action ou preuve ; une simple solution technologique ne pourra vraisemblablement pas à elle seule résoudre ce problème. Il faudra combiner aux solutions technologiques, qui pourront tagger des vidéos susceptibles d’être des Deepfakes, des solutions légales, pour punir la création de Deepfakes malveillants, et l’éducation des utilisateurs, pour les sensibiliser au scepticisme des vidéos et au devoir de toujours analyser le contexte de parution.

Tweets de ZENData

RT @BleepinComputer: FDA Wants Medical Devices to Have Mandatory Built-In Update Mechanisms - by @campuscodi https://t.co/ZK1lVhCkgy
Le #CybersecurityTechAccord est un très bel exemple d'un partenariat public-privé où les entreprises aident des gou… https://t.co/LFHJkFwLmN
@mikkotweets2013 @mikko A sufficient unskilled user is indistinguishable from malice.
La sécurité en profondeur: Attention où on clique Bon firewall Bon antivirus Scotch sur la webcam. C'est la somme d… https://t.co/9FwwQOvW4q
RT @mattiasgeniar: That Drupal vulnerability that only got a 21/25 severity? It just got bumped to 25/25. Any unpatched Drupal should now…

Nous animons aussi le blog de cyber-sécurité du magazine Bilan. Retrouvez nos articles sur leur site: www.bilan.ch/steven-meyer

Contact

ZENData - Cyber-sécurité

Informations

Contactez-nous pour une analyse gratuite de vos besoins en sécurité ou pour des renseignements sur nos services, solutions et produits.

ZENData Sarl

Téléphone: +4122 588 65 90

Email:

Adresse: 114 rue du Rhône, 1204 Genève, Suisse


LinkedIn: linkedin.com/company/zendata

Twitter: twitter.com/ZenDataSec

Facebook: facebook.com/zendataSec

Google+: plus.google.com/+ZendataCh

Contactez-nous

7+12=

Souhaitez-vous vous inscrire à notre newsletter mensuelle ?

Vous y trouverez nos articles, l’actualité, des conseils et des informations importantes liées à la cyber-sécurité.