Suicide d’une adolescente à Cassis : les réseaux sociaux peuvent-ils être tenus pour responsables ?

Après plusieurs suicides d'adolescentes, Tik Tok, Instagram et Pinterest sont pointés du doigt. Alors que la justice britannique s'est déjà penchée sur la question, les parents d'une victime originaire de Cassis, portent plainte contre un réseau social, une première en France.

Deux ans après le suicide de leur fille, les parents de Marie, une adolescente de 15 ans qui s’est donné la mort en 2021, dans les Bouches-du-Rhône, ont porté plainte pour “provocation au suicide”, “non-assistance à personne en péril” et “propagande ou publicité des moyens de se donner la mort”, contre le réseau social chinois Tik Tok. Cette plainte, une première en France, n’est toutefois pas garantie d’aboutir. 

L’algorithme mis en cause par la famille de l’adolescente  

L’adolescente a été retrouvée pendue dans sa chambre le 16 septembre 2021 à Cassis, dans les Bouches-du-Rhône. Quelques semaines avant son suicide, Marie avait publié sur Tik Tok une vidéo où elle exprimait son mal être suite au harcèlement scolaire qu’elle subissait en raison de son poids. Une série de contenus similaires lui a alors été suggérée par l’algorithme du réseau social.   

Les parents de Marie estiment que TikTok a joué un rôle dans son passage à l’acte en lui proposant de telles vidéos. 

De son côté, l’avocate de la famille dénonce l'algorithme du réseau social chinois, qu’elle juge “extrêmement puissant” et par lequel l’adolescente “a reçu en masse ces vidéos qui sont sur le même thème et qui ne peuvent que conduire à être encore plus mal”.

Depuis le suicide de Marie, une enquête est ouverte sur les faits de harcèlement scolaire dénoncés. Le parquet de Toulon précise que la plainte de ses parents contre TikTok mérite une analyse approfondie.

La question reste de savoir si la plainte aboutira.

Manque de fondement juridique 

La plainte vise le fonctionnement de l’algorithme du réseau social qui a suggéré ce type de contenus à la jeune adolescente.

Or, comme le rappelle Maître Romain Darièrre, avocat au barreau de Paris et spécialisé en droit de l’Internet et des nouvelles technologies, la loi du 21 juin 2004, qui établit le régime pénal de responsabilités des hébergeurs, tel que Tik Tok, ne permet de mettre en cause l'algorithme d'une plateforme.

Ainsi selon les dispositions 2 et 3 de l'article 6-I de cette loi, les hébergeurs "ne peuvent pas voir leur responsabilité civile engagée du fait des activités ou des informations stockées à la demande d'un destinataire [des services d’hébergement s’ils] n'avaient pas effectivement connaissance de leur caractère manifestement illicite ou de faits et circonstances faisant apparaître ce caractère ou si, dès le moment où elles en ont eu cette connaissance, elles ont agi promptement pour retirer ces données ou en rendre l'accès impossible".

Autrement dit, d’un point de vue de la législation française telle qu'elle existe aujourd'hui, Tik Tok pourrait être mis en cause seulement s’il avait eu connaissance de l’existence de contenus à caractère manifestement illicites et qu’il n’avait rien fait pour les retirer de sa plateforme. 

En dehors de ce cadre juridique, il revient au plaignant la tâche difficile de démontrer la part de responsabilité du réseau social dans la mort de la jeune adolescente. 

Le cas britannique, Molly Russel, "un point de bascule"

Bien que difficile à démontrer d’un point de vue légal, une telle décision de justice n’est néanmoins pas impossible à obtenir comme le souligne Justine Atlan, directrice générale de e-Enfance, une association de protection des jeunes victimes de violences numériques. 

“Il est toujours compliqué de démontrer un lien de causalité entre un comportement et un suicide, ce n’est pas propre à cette situation, explique-t-elle. Il n’est pas impossible que l’on arrive à la même situation qu’en Angleterre.” 

Au Royaume-Uni, après le suicide de Molly Russel, une adolescente de 14 ans, une décision de justice a clairement mis en cause pour la première fois l'année dernière les algorithmes de Pinterest et Instagram dans le passage à l'acte de cette jeune fille.

Pour les parents de Molly, les contenus qu'elle avait consultés sur les réseaux sociaux sont en partie responsables du suicide de leur fille en 2017. La jeune adolescente avait notamment reçu par email des suggestions de Pinterest lui recommandant d'aller lire "Dix posts sur la dépression que tu pourrais aimer". La justice britannique a donné raison aux parents de l'adolescente le 30 septembre 2022.

Un "combat juridique de longue haleine" contre les réseaux sociaux

Cette décision de justice pourrait bien ouvrir la voie à d’autres procès et faire bouger les lignes. “L’affaire Molly est un précédent qui constitue un point de bascule et qui va permettre à d’autres de pouvoir continuer ce combat”, estime Justine Atlan. 

“Au-delà de cette affaire, il y a un vrai combat à mener sur le statut des réseaux sociaux et le régime de responsabilité qui les protègent, poursuit-elle. Le statut d’hébergeur complètement déresponsabilisé ne tient pas la route. Il s'agit de combats juridiques de longue haleine. Il faut marteler, faire des actions partout pour que la jurisprudence évolue.

Suite à l’affaire Molly Russel, Pinterest a largement augmenté ses moyens pour lutter contre les publications dangereuses pour ses utilisateurs, et propose de l’aide aux personnes cherchant des termes liés au suicide. De son côté, Instagram n’a pas annoncé prendre des mesures de ce genre après le suicide de l'adolescente britannique, mais des systèmes de prévention existent sur le réseau social.