Ardisson fait revivre Dalida : les prouesses et les limites de l’intelligence artificielle pointées du doigt par des chercheurs

Publié le Mis à jour le
Écrit par Camille Nowak

Ce lundi 2 mai à 21h10 a été diffusé sur France 3 le premier numéro de "l’Hôtel du temps", présenté par Thierry Ardisson. Ce biopic 2.0, fait revivre des personnalités disparues à travers l’intelligence artificielle. Un programme d’un nouveau genre qui interroge des chercheurs de l'Université de Limoges.

Dans la nuit du 2 au 3 mai 1987, Dalida disparaissait. 35 ans après, cette chanteuse mythique est sur le point de réapparaître sur les écrans de télévision, dans un programme d’un nouveau genre intitulé "l’Hôtel du temps".  

Basée sur la technique du deepfake ou hypertrucage - utilisée jusqu’à présent pour détourner des vidéos bien souvent de manière comique -, ce programme consiste à redonner vie à des personnalités disparues comme Dalida, Coluche, ou encore Jean Gabin. 

Derrière cette technique : le concept de l’intelligence artificielle, bien connu du master "Informatique, synthèse d’images et conception graphique", ISICG, de  l’Université de Limoges.

L’intelligence artificielle au service de l'hommage   

Ce master unique en France forme des étudiants à créer, transformer des images principalement à destination des jeux vidéo et du cinéma. "La formation est orientée vers les domaines de la synthèse d’images et de la conception graphique", explique Djamchib Ghazanfarpour, responsable de ce master depuis 20 ans et spécialisé dans la synthèse d’images depuis 1982.

"On forme  notamment nos étudiants à la technique de deep learning, qui consiste à élaborer des modèles de calcul pour modéliser des données. Cette technique est la base des DeepFakes", ajoute-t-il.

Le terme deepfake ou hypertrucage est en effet une combinaison de "deep learning" et de "fake". Basée sur l'intelligence artificielle, cette technique permet de simuler des personnages réels. 

Dans ce master, Frédéric Claux, enseignant-chercheur en images est chargé de dispenser les cours autour de cette technique. Il nous explique son fonctionnement :

C’est un programme automatique qui peut pratiquement fonctionner en temps réel si vous avez une machine extrêmement puissante. Dans un premier temps, il va analyser la vidéo à traiter, isoler le visage, il ignore tout ce qui a autour. Cette étape est très importante, puisqu’on ne veut modifier que le visage.

Frédéric Claux, enseignant-chercheur en images à l'Université de Limoges

Ensuite, "sur une autre vidéo vous avez un second visage qui vous intéresse, c’est le visage cible. De la même manière, le programme va isoler le visage. Ensuite, lorsque vous avez les deux vidéos juste avec le visage, vous allez les faire passer dans ce qu’on appelle un auto-encodeur qui est un programme qui détecte la pose pour les deux vidéos apprises et ça permet de passer du visage source vers le visage cible. Pour que cela fonctionne, il faut que les deux visages soient très proches".

La bande annonce de l'émission diffusée sur France 3, lundi 2 mai à 21h10 :

Le réalisme n'a pas de limite ? 

  "On peut aller très loin en termes de réalisme. Il n’y a pas beaucoup de contraintes technologique, l’informatique n’a pas de limite", renchérit, Djamchib Ghazanfarpour.

Pour ces as de l’informatique, cette émission est une "prouesse technique, je vais être scotché devant ma télévision", confie avec rires Frédéric Claux.

Mais d’autres, en revanche ne voient pas le concept d’un très bon œil. C’est le cas de Nicole Pignier, professeur en sciences de l’information et de la communication à l’Université de Limoges.

Ces dernières années, elle a mené de nombreuses recherches sur cette technique du deepfake.

A mon sens ce phénomène des deepfakes, de fausses images ou fausses vidéos pose la question de ce qu’énoncer veut dire. Quand quelqu’un parle, chante, ou dessine, il s’exprime ou il exprime quelque chose. Là ce n’est plus le cas. On lui fait dire quelque chose.

Nicole Pignier, professeur en sciences de l’information et de la communication à l’Université de Limoges

Avant d’ajouter, "Dalida on ne lui demande pas son avis, si elle est d’accord. On va s’amuser, à la faire chanter, lui faire dire des choses, mais derrière se pose la question du respect de la personne qui est disparue".  

Thierry Ardisson se défend, "il n’y a pas de droit à l’image pour les personnes décédées. Mais à chaque fois j’ai contacté les héritiers, par respect, par éthique et parce qu’ils m’aident aussi pour le scénario. Pour écrire les texte, je donne des thèmes (les origines, l’enfance, les études…) à des documentalistes qui réunissent toutes les phrases réellement prononcées ou écrites".

"C'est un pas de plus vers un monde hors-sol"

Le présentateur de l’émission réalisée par Serge Khalfon et produite par 3ème Œil Productions, a également déclaré lors d'une interview accordée à France 3,  "je suis le premier à faire une utilisation positive et culturelle du deepfake. C’est un outil, et un outil n’a pas d’idéologie".

Des propos contredits par Nicole Pignier : "C’est totalement faux. Derrière tout cela, il y a l’idéologie du néolibéralisme conçu pour dompter les activités humaines, les cadrer. Thierry Ardisson oublie que produire une image, produire une chanson, jouer un rôle c’est à la fois  signifier, vouloir dire quelque chose mais tisser du lien humain dans une société".  

"Au lieu de proposer à des chanteurs et des comédiens de se mettre dans la peau de l’autre pour jouer l’autre, on va s’en remettre à des prouesses technologiques qui vont sembler plus vraies que vraies, mais est ce qu’on a réellement besoin de cela pour rendre hommage à quelqu’un ? Ce n’est pas une révolution, c’est un pas de plus vers ce monde du hors-sol, on s’envole vers des flux de propos qui n’ont plus grand-chose à voir avec notre réalité. ", ajoute-t-elle. 

Détecter les vidéos truquées

Derrière ce concept, une dernière question, celle de la tromperie. Est-il possible de détecter les vidéos réalisées avec cette technique ? 

"Bien sûr, explique Frédéric Claux, vous utilisez le même principe, vous prenez une vidéo truquée, vous isolez le visage, vous dites au programme, ça c’est truqué et vous faites la même chose avec une vidéo qui n’est pas truquée. Vous reproduisez l’exercice des milliers de fois, il saura détecter à la fin les vidéos truquées".  

Autant décrié que loué, le deepfake ne laisse quoi qu’il en soit personne indifférent. 

L'émission "L'hôtel du temps : Dalida" est voir ou revoir sur France.tv