L’émergence des « deepfake » dans les flux d’informations numériques


Avec le nombre croissant de flux d’informations partagées en masse sur les réseaux de communications numériques s’est accompagné avec la propagation de « fake news ». Cette expression, qui n’a pas d’équivalent en français, désigne principalement des fausses informations pouvant être propagées dans des buts différents. Certaines ont pour objectif de tromper le lecteur ou d’influencer son opinion sur un sujet particulier. D’autres sont fabriquées de toute pièce avec un titre accrocheur pour densifier le trafic et augmenter le nombre de visiteurs sur un site.

Cette manipulation de l’information risque de prendre un nouveau tournant avec l’émergence des « deepfake ». Il s’agit d’une technique de modification de vidéos basé sur la synthèse d’image à partir de technologies associées aux intelligences artificielles, utilisé principalement pour substituer un visage par un autre.

L’un des exemples de deepfake les plus connus et qui a mis en lumière ce phénomène est celui d’une vidéo montrant Barack Obama traitant Donald Trump « d’abruti complet ».

Comme on peut le constater, cette vidéo mise en scène par BuzzFeed, et avec la complicité du cinéaste américain Jordan Peele, montre clairement les dérives qu’engendrent les deepfake, il est possible à travers un support vidéo de diffuser de fausses déclarations provenant par exemple d’une personnalité politique. Il s’agit donc d’un outil de désinformation potentiellement puissant pouvant avoir un impact considérable notamment lors d’échéances électorales.

Ce procédé, aussi fascinant qu’inquiétant sur son utilisation future, tend à se démocratiser et des outils plus simple d’utilisation ont vu le jour. C’est notamment le cas de « Face2Face » développé par des chercheurs de l’université américaine de Stanford, de l’université allemande d’Erlangen-Nuremberg et de l’institut Max Planck à Leipzig.

L’objectif de cet outil est d’animer les expressions faciales de la vidéo cible par un acteur source et de restituer le rendu de la vidéo manipulée de manière photo-réaliste. Vous prenez une vidéo YouTube de quelqu’un qui parle (par exemple Donald Trump) et vous utilisez une webcam standard pour capturer une vidéo de quelqu’un d’autre qui produit différentes expressions faciales ou qui dit quelque chose de complètement différent. Les deux vidéos sont traitées par le système Face2Face et la reconstitution est réalisée par un transfert de déformation rapide et efficace entre la source et la cible. À partir de la séquence cible, l’intérieur de la bouche est récupéré et déformé pour produire un ajustement précis, et le visage cible synthétisé est retransformé au-dessus du flux vidéo correspondant. Le résultat final montre une vidéo crédible de Donald Trump disant autre chose et ayant différentes expressions faciales.

Vincent Nozick, enseignant chercheur au laboratoire d’informatique Gaspard Monge (LIGM) estime que l’algorithme utilisé pour le développement de Face2Face « est très complexe à coder et pour le moment, son code n’est pas accessible. Elle devrait donc rester “sécurisée” pendant encore quelques années mais à terme, d’autres arriveront à la reproduire. Ce qui peut poser problème car Face2Face fonctionne avec à peine 5 minutes de vidéo de la cible.”

Cette technologie, qui peut se révéler innovante dans le domaine du divertissement, se montre plus inquiétante dans l’authenticité des informations qui nous sont relayées par la possibilité de manipuler les vidéos. Avec la technologie progressant, ce genre de procédés est enclin à se populariser au risque de multiplier des sources de désinformations (au même titre que les images retouchées qui peuvent être relayées en masse).

 

Sources:

O’Sullivan Donie, « When seeing is no longer believing Inside the Pentagon’s race against deepfake videos », janvier 2019, CNN Buisness
https://edition.cnn.com/interactive/2019/01/business/pentagons-race-against-deepfakes/

Grand Harold, « Après les fake news, la menace du «deep fake» prend de l’ampleur sur le web », 2 février 2019, Le Figaro
http://www.lefigaro.fr/secteur/high-tech/2019/01/02/32001-20190102ARTFIG00162-apres-les-fake-news-la-menace-du-deep-fake-prend-de-l-ampleur-sur-le-web.php

Cagan Anne, « Deepfake : est-il facile de créer des vidéos truquées crédibles ? », 29 janvier 2019, Le Journal du Geek

Deepfake : est-il facile de créer des vidéos truquées crédibles ?

Visage Technologies blog, « Face2Face: live video editing of facial expressions », 21 mars 2016

Face2Face: live video editing of facial expressions

Laissez un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *