YouTube interdit les vidéos "deepfakes" mettant en scène des personnes décédées

Sur YouTube et Tik Tok, de nombreuses vidéos mettant en scène des personnes décédées ou disparues grâce à l'intelligence artificielle, comme Estelle Mouzin ou le petit Grégory, ont suscité la polémique. La plateforme américaine a alors annoncé interdire ces contenus, appelés "deepfakes", à compter du 16 janvier.

Société
De la vie quotidienne aux grands enjeux, découvrez les sujets qui font la société locale, comme la justice, l’éducation, la santé et la famille.
France Télévisions utilise votre adresse e-mail afin de vous envoyer la newsletter "Société". Vous pouvez vous désinscrire à tout moment via le lien en bas de cette newsletter. Notre politique de confidentialité

Ces vidéos faisaient polémiques, elles ne devraient finalement bientôt plus exister. Enfin, du moins sur YouTube. La plateforme américaine a annoncé interdire et supprimer tous les contenus mettant en scène des personnes décédées grâce à l'intelligence artificielle sous peine de sanctions à partir du 16 janvier.

Ces vidéos, appelées "deepfakes" (technologie permettant de reproduire le visage et/ou la voix d'une personnalité sur une vidéo quelconque), connaissaient un certain succès sur la plateforme et sur le réseau social Tik Tok. On peut y voir des personnes décédées dans des faits divers, comme Estelle Mouzin, le petit Grégory ou Samuel Paty, en train de raconter leur histoire, comme s'ils étaient face caméra, avec une voix artificielle.

Une technologie accessible à tous

Pour certains jeunes utilisateurs, qui l'expliquent en commentaire, ces vidéos constituent un moyen de s'informer sur des affaires marquantes. Problème : aucune autorisation n'est donnée par les proches des personnes mises en scène, et certaines des informations communiquées sont factuellement fausses.

De plus en plus répandus sur internet depuis 2018, les deepfakes sont de plus en plus faciles à créer grâce au développement de l'intelligence artificielle. De nombreux tutoriels pour en réaliser se propagent sur YouTube, en faisant une technologie de plus en plus réaliste et accessible à tous.

Pour lutter contre, la plateforme appartenant à Google a actualisé ses conditions d'utilisation au début du mois de janvier : "le 16 janvier, nous commencerons à supprimer les contenus qui simulent de manière réaliste des mineurs décédés ou des victimes d'événements violents majeurs, mortels ou bien documentés, et qui décrivent leur mort ou les violences subies".

Un impact sur le deuil

Il faut dire que ces vidéos peuvent avoir un impact important sur les proches des personnes "ressuscitées" le temps d'une vidéo. Stephen Dehoul, psychologue, se réjouit de cette mesure : "c'est une bonne chose. Ces vidéos posent problème au niveau du deuil. S'il n'est pas encore fait, ces deepfakes ne vont faire que prolonger quelque chose de difficile. Et même s'il est fait, cela peut le relancer. Revoir la personne animée, c'est déjà quelque chose de compliqué, mais en plus avec des propos qui ne lui appartiennent pas, il y a encore autre chose. Cela peut déclencher de la colère. Et puis, il faut se demander aussi quelle est la finalité de ces vidéos. Pourquoi faire ?", questionne le psychologue, pour qui la mise en place d'une réglementation sur ces questions est essentielle.

"De manière plus générale, qu'il s'agisse d'une personne décédée ou non, le deepfake a un impact social important. Une fois qu'on a vu une image, même s’il est démontré par la suite que cette dernière est fausse, on l'a vue. Cela reste en tête", poursuit le psychologue. Le deepfake pornographique, nouvelle menace virtuelle, est en ce sens une pratique qui inquiète fortement au vu de son utilisation de plus en plus massive, toujours en lien avec les progrès de l'intelligence artificielle.

"Un manque absolu d'humanité"

Pour ce qui est des personnes décédées, les constats du psychologue peuvent trouver écho dans les déclarations du père d'Estelle Mouzin à propos des vidéos mettant en scène sa fille, disparue depuis 2003. "Je n'ai pas envie de commenter ce genre de vidéos, si on peut appeler ça une vidéo, car ce serait apporter du crédit à quelque chose qui n'inspire que du mépris et du dégoût. Ne pas respecter des enfants morts dans des circonstances affreuses et infliger ces vidéos aux parents, aux familles, aux proches, c'est un manque absolu d'humanité", commentait-il au micro de BFMTV.

À compter du 16 janvier, les utilisateurs de YouTube qui enfreignent cette nouvelle règle verront donc leur vidéo supprimée de la plateforme, avant de recevoir un avertissement. Ce dernier les empêchera de mettre une vidéo en ligne ou de diffuser en direct pendant une semaine. En cas d'accumulation de trois avertissements en 90 jours, leur chaîne YouTube sera définitivement supprimée.

De son côté, Tik Tok a interdit la diffusion de deepfakes mettant en scène des personnes privées, mais fait exception pour les "personnalités publiques ayant un rôle public important", comme "un politicien, un chef d'entreprise" ou "une célébrité". Ces contenus seront toujours autorisés sur le réseau social, tant que le contenu n'est pas utilisé à des fins de promotion ou qu'il n'enfreint aucune autre condition d'utilisation concernant, par exemple, les discours haineux, le harcèlement ou le contenu à caractère sexuel. Les deepfakes ont alors encore de beaux jours devant eux, malgré leur interdiction sur YouTube.

Tous les jours, recevez l’actualité de votre région par newsletter.
Tous les jours, recevez l’actualité de votre région par newsletter.
Veuillez choisir une région
France Télévisions utilise votre adresse e-mail pour vous envoyer la newsletter de votre région. Vous pouvez vous désabonner à tout moment via le lien en bas de ces newsletters. Notre politique de confidentialité
Je veux en savoir plus sur
le sujet
Veuillez choisir une région
en region
Veuillez choisir une région
sélectionner une région ou un sujet pour confirmer
Toute l'information