Deep Fake

1 1 282

2016, dans le film Rogue One de la saga Star Wars, le Grand Moff Tarkin, terrible commandant de l’Etoile Noire, dialogue avec la jeune princesse Leia âgée de 20 ans… alors que l’acteur Peter Cushing est décédé en 1994 et que Carrie Fisher n’est plus de la première jeunesse. Cette résurrection numérique a nécessité tout le savoir-faire et les moyens financiers de la société d’effets spéciaux de George Lucas (le budget du film est de 200 millions de dollars).  2018, un internaute anonyme recrée, en utilisant l’application Deep Fake de Reddit, une partie de la scène en quelques minutes avec son ordinateur personnel et sans dépenser un centime.

A la sortie du film Rogue One, la résurrection numérique du Grand Moff Tarkin suscite à la fois l’admiration devant la prouesse technique mais aussi la polémique. Disney, devant les protestations, s’engage à ne l’utiliser qu’avec modération. Aujourd’hui, avec Deep Fake, application utilisant les technologies deep learning d’intelligence artificielle, il devient  possible pour tout le monde (un peu geek quand même) de substituer dans une vidéo n’importe quel visage par un autre. Vous rêviez d’être Vivian Leigh avec sa fameuse robe dans « Autant en emporte le vent ». Un coup de Deep Fake et c’est presque fait vous voilà au bras de Clark Gable.

Depuis la sortie de Deep Fake, la toile est en ébullition. Une communauté de 70.000 « deepfakers » teste les potentialités du programme. Malheureusement, les geeks américains (souvent des adolescents ou post-adolescents à tendance acnéique) ne sont pas vraiment romantiques. Deep Fake aura donc eu comme première application le « fake porn » : faire jouer virtuellement ses stars préférées ou sa voisine dans des vidéos porno. Je vous parlais il y a quelques mois du film Wonderwoman interprété par la belle actrice israélienne Gal Gadot. Elle est bien malgré elle devenue l’héroïne d’une vidéo porno visionnée plus d’1 million de fois.

Bienvenue dans le monde du Fake. Il y a d’abord eu Photoshop, permettant de faire des fake photos. Il y a ensuite eu Snapchat où mes filles se transforment au gré du filtre du jour en Catwoman ou en lapin. Il y a enfin eu Donald Trump avec ses fake news (selon le principe vieux comme le monde que plus on ment, plus il faut dénoncer le mensonge des autres). Il y aura désormais les fake vidéos, bientôt indécelables des vraies avec des images deep fake et des imitations de voix deep voice.

Comme à chaque fois, des gogos, des pigeons ou des malchanceux y laisseront des plumes. Des illusionnistes prospéreront. Mais aussi, comme à chaque fois, nous nous adapterons pour distinguer le faux du vrai : le 1er fake pigeon voyageur a trompé son monde, pas le 2ème. Je connais une start-up prometteuse, Digiactivity, qui accompagne nos adolescents sur ce chemin. C’est l’éternelle dialectique entre l’épée et le bouclier. Avec le numérique, la vitesse d’évolution du bouclier est exponentielle. Le bouclier de l’esprit humain évoluera-t’il suffisamment vite ?

Mise à jour du 13/01/2019

Un an après l’arrivée d’outils pour générer des vidéos deep fake en masse, le débat et l’inquiétude grandissent sur le sujet. La technologie a continué à progresser et les experts nous annoncent qu’il sera bientôt possible de produire des fausses vidéos indétectables.

Aux États-Unis, une agence de recherche américaine de défense liée au Pentagone finance pour 68 millions de dollars des projets technologiques pour lutter contre les deep fake. Il semble bien que seule l’intelligence artificielle pourra déceler les manipulations générées par une autre AI.

À l’heure où les fake news explosent sur les réseaux sociaux, la campagne des élections européennes sera probablement la 1ère où nous serons confrontés aux vidéos deep fake. Nous en reparlerons.

Mise à jour du 21/02/2019

Une IA project debater arrive à débattre avec des humains experts en débat. On pourrait imaginer de lui donner la voix et l’image d’une célébrité : des deep fake débats en perspectives?

Abonnez-vous dès maintenant et resté(e) informé(e) en temps réel de la publication de nouveaux articles !

1 commentaire
  1. Aphadolie dit

    L’audiovisuel peut totalement nous manipuler si on lui accorde crédit.

Laisser un commentaire

Votre adresse email ne sera pas publiée.

Centre de préférences de confidentialité

    Cookies

    Publicités

    Analytics

    Other