Suite au suicide de deux adolescents, sept familles ont déposé un recours contre le réseau social TikTok devant le tribunal judiciaire de Créteil ce lundi. Leur avocate estime que certains contenus diffusés par la plateforme mettent les adolescents en danger autant mentalement que physiquement.
C'est une première en Europe. Des parents d'adolescents déposent un recours devant le tribunal judiciaire de Créteil dans le Val-de-Marne. Ils souhaitent faire reconnaître la responsabilité du réseau social dans le suicide et de mal-être de leurs enfants.
Réunis en collectif, ils sont représentés par Me Laure Boutron-Marmion, avocate spécialisée en droit des mineurs à Paris. Celle-ci dénonce la dangerosité de certains contenus sur TikTok pour les adolescents. Entretien.
Pourquoi avoir déposé ce recours ?
Il y a un an, j'avais accompagné une famille suite au suicide de leur fille Marie poussée à l'acte par des vidéos qu'elle avait vues sur TikTok.
Suite à cela, j'ai créé le collectif Algos Victima en mars dernier pour venir en aide aux familles de ces jeunes qui sont victimes des algorithmes des réseaux sociaux et de leur contenu bien souvent inapproprié pour leur âge qui les confortent dans leur mal-être. Les familles dénoncent les effets dévastateurs de TikTok sur la santé physique et mentale de leurs enfants.
Vous affirmez que certaines vidéos diffusées sur TikTok peuvent être dangereuses pour un jeune public. Quels types de contenus visez-vous en particulier ?
Lorsqu'ils ouvrent le fil "Pour toi" de TikTok qui est basé sur leurs centres d'intérêt, il faut en moyenne deux minutes aux adolescents pour tomber sur des contenus qui évoquent de manière positive le suicide, l'automutilation ou les troubles alimentaires comme l'anorexie ou la boulimie.
Cela peut être des tutoriels qui indiquent quels médicaments prendre pour se suicider ou bien comment se scarifier. Cela crée ce que l'on appelle une "bulle de filtre". Au bout d'un certain temps, toutes les vidéos qu'ils voient renforcent leur sentiment d'anxiété. Cela les met dans un état psychique très dangereux si on ajoute à cela tous les questionnements liés à l'adolescence.
En novembre dernier, Amnesty International alertait sur la dangerosité des contenus. Quels dangers présentent-ils pour la santé des adolescents ?
C'est très variable selon les personnalités des jeunes. Cela va de l'automutilation où ils se scarifient, mais certains sont poussés au suicide par ces contenus. Ils arrivent sur TikTok en étant déjà mal dans leur peau, et ces vidéos qui défilent sans arrêt "romancent" leur état de mal-être et le rendent légitime à leurs yeux.
C'est extrêmement dangereux. De plus, très peu de moyens sont mis en place pour les avertir des dangers liés au fait de regarder ces vidéos à longueur de journée. Ces contenus enferment les jeunes qui y sont exposés dans l’idée que ces pratiques sont anodines et bénéfiques alors qu'elles portent directement atteinte à leur santé.
Comment protéger le jeune public face à la multiplication de ces contenus ?
Il faut que les plateformes de réseaux sociaux continuent à travailler pour faire appliquer le principe de majorité numérique. En juillet 2023, une loi l'a fixée à 15 ans. Il faut également continuer à sensibiliser les parents face aux dangers qu'encourent leurs adolescents sur internet. Les aider à évoquer leurs ressentis sur ce qu'ils voient sur les réseaux sociaux.
Avant cet âge, le fait de naviguer seul sur TikTok ou d'autres réseaux sociaux peut amener les enfants et adolescents à voir des contenus inadaptés selon leur âge.
Qu'attendent les familles de ce recours ?
La justice française doit reconnaître la responsabilité de TikTok dans l'hébergement et la diffusion de vidéos qui peuvent mener à des comportements dangereux chez les adolescents. Cette application a une conception délibérément addictive et son algorithme ne parvient pas à modérer la diffusion de contenus faisant la promotion du suicide, de l'automutilation et des troubles alimentaires. Cela doit évoluer.
Le réseau doit répondre de ses actes et négligences. Cela doit passer par le fait de revoir les systèmes de modération et les algorithmes.
De son côté, TikTok indique n'avoir reçu "aucune notification relative à cette procédure judiciaire". Le réseau social assure supprimer " tout contenu évoquant un acte, ou tentative, de suicide, des idées suicidaires ou tout autre contenu qui pourrait inciter à commettre des actes de suicide ou d'automutilation."