Affaire Lindsay : Impunité des réseaux sociaux dans la lutte contre le cyberharcèlement, entretien avec un expert en droit du numérique

Alors que la famille de Lindsay est toujours victime de cyberharcèlement, Marcel Moritz, maître de conférences en droit du numérique à l'Université de Lille, revient sur les textes qui régissent les réseaux sociaux en Europe et qui tentent d'infléchir sur les plateformes, en visant le portefeuille.

Depuis déjà quelques jours, les proches de Lindsay, collégienne de Vendin-le-Vieil qui s'est suicidée en mai 2023 suite à une vague de harcèlement scolaire, sont de nouveau la cible de cyberharcèlement sur TikTok. Depuis le décès de Lindsay, des comptes et vidéos se réjouissant de la mort de la jeune fille, naissent quasi quotidiennement sur les réseaux sociaux. Un acharnement "inhumain" qui a finalement conduit la famille de Lindsay et leur avocat, Pierre Debuisson, à déposer une nouvelle plainte contre TikTok pour "complicité de cyberharcèlement" et "non-assistance en personne en péril".

"À l'heure des intelligences artificielles et de progrès techniques incroyables, il est inconcevable que des propos haineux puissent perdurer sur les réseaux sociaux. Je pose donc la question de leur responsabilité et de leur complicité dans la mise en danger d'autrui", affirmait (non sans colère) Maître Debuisson ce vendredi 2 février 2024, mettant en avant la question des limites du droit européen et français en matière de régulation des grandes plateformes numériques.

Où en est le droit des réseaux sociaux en termes de modération de contenu ? Quelles sont leurs limites et quelles avancées pourraient être apportées ? Ébauche de réponse avec Marcel Moritz, maître de conférences en droit du numérique à l'Université de Lille.

► À lire aussi : Affaire Lindsay : ses proches toujours cyberharcelés sur TikTok, leur avocat pointe du doigt le "diktat des réseaux sociaux"

Comme le souligne Maître Debuisson, les réseaux sociaux semblent toujours avoir une grande marge de manœuvre dans leurs méthodes de modération. Pourtant sur le plan législatif, des textes existent pour les réguler. Quels sont les grands moments qui ont marqué le droit du numérique, en matière de modération de contenu ?

M.M. : Les premiers textes de l'Union européenne (UE) en la matière remontent aux années 2000 mais restent assez laxistes, s'inspirant de réglementations venues des États-Unis, toutes aussi coulantes envers les réseaux sociaux qui ont évolué très, voire trop rapidement. En 2004, une directive de l'UE a par exemple été votée. Celle-ci atteste que les hébergeurs, qui s'occupent de stocker le contenu des sites web et des utilisateurs sur internet, ne sont responsables de la propagation de contenus illégaux que si une notification leur est parvenue et qu'ils n'ont pas agi pour y remédier. Ce qui leur laisse une très grande marge de manœuvre car les plateformes peuvent attendre patiemment, tout en continuant de générer des rentrées d'argent, qu'un contenu leur soit signalé.

Un moment marquant pour la régularisation des plateformes a été la loi Avia, promulguée en 2020, qui prévoyait de contraindre les plateformes comme Facebook ou Twitter à retirer les contenus illégaux très rapidement, sous 24 heures dans la plupart des cas, voire en 1 heure pour certains, comme lorsqu'il s'agit de pédopornographie ou d'apologie du terrorisme. Cependant, le Conseil constitutionnel a largement censuré le texte, car il pouvait porter atteinte à la liberté d'expression.

Porter atteinte à la liberté d'expression, c'est-à-dire ?

M.M. : Vu la rapidité à laquelle les plateformes devraient supprimer leurs contenus pour ne pas être sanctionnées lourdement, elles auraient certainement cherché à surmodérer. Peut-être même que des algorithmes auraient été employés pour filtrer et analyser les images, ce qui aurait pu créer des dérives et des suppressions abusives. On peut facilement voir en quoi le texte aurait effectivement pu être contraignant pour la liberté d'expression, même si sa large censure empêche l'Union européenne de peser lourdement sur les plateformes.

Vu la rapidité à laquelle les plateformes devraient supprimer leurs contenus pour ne pas être sanctionnées lourdement, elles auraient certainement cherché à surmodérer.

Marcel Moritz, expert en droit du numérique

Et depuis d'autres textes ont-ils vu le jour ? Pour chercher à contraindre davantage les réseaux sociaux et les pousser à agir?

M.M. : Oui notamment avec un règlement voté en octobre 2022, le DSA (Digital Services Act), qui est l'une des principales législations issues de l'UE depuis deux décennies en matière de régulation des grandes plateformes numériques. C'est une réglementation entrée en vigueur en août 2023 qui cherche à contraindre les plateformes à mieux lutter contre le harcèlement en ligne, en les obligeant à s'autoréguler et rendre compte de leur système de modération. En rendant un rapport sur le budget alloué ou sur les délais de leur mode de suppression de contenus par exemple. Sinon c'est la sanction, sous forme d'amende, qui peut représenter jusqu'à 6 % du chiffre d'affaires mondial de l'entreprise.

► À lire aussi : Harcèlement scolaire : "En toute humilité, j’aimerais vraiment aider", rencontre avec Anne-Sophie Calais, autrice de La marche des justes

Les cas de cyberharcèlement, comme celui de Lindsay par exemple, sont encore monnaie courante. Ces textes ne semblent donc pas avoir porté leurs fruits jusqu'à présent. Ces 6 % de pénalité pourraient-ils être plus efficaces ?

M.M. : Il est encore un peu tôt pour tirer des conclusions sur l'efficacité de cette réglementation, mais je pense qu'elle peut être efficace ! C'est une réglementation qui pourrait faire réfléchir les plateformes en agissant là où ça risque de faire le plus mal : au niveau du portefeuille. Et ça se comprend, vu les milliards de dollars qui pourraient être impliqués en cas de manquement.

Alors oui, on imagine que cela peut faire réfléchir les plateformes sur la question de la modération de contenu car, malheureusement, une approche de la responsabilisation par la sanction reste à peu près la seule chose qui semble fonctionner pour réguler le contenu sur les réseaux sociaux.

Une approche de la responsabilisation par la sanction reste à peu près la seule chose qui semble fonctionner pour réguler le contenu sur les réseaux sociaux.

Marcel Moritz

Comment expliquer qu'un texte aussi ambitieux n'ait pu voir le jour qu'en 2024, après déjà deux décennies d'un Internet très similaire à celui que l'on connaît aujourd'hui ?

Il faut savoir que ce n'est pas simple de revenir d'un coup sur des années d'irresponsabilité, qu'on ne peut pas changer le régime juridique du tout au tout, le droit évolue par petite touche. Et puis il faut dire qu'il y a aussi du lobbying derrière tout ça, ce qui retarde les choses.

Malgré tout, on a pu le voir avec le cyberharcèlement que continue de vivre la famille de Lindsay, qu'il est toujours très difficile de parvenir à faire supprimer des propos haineux en ligne. Est-ce qu'au niveau judiciaire les lois permettent de faciliter les procédures de victimes ? Est-ce que les plaintes finissent par aboutir ?

M.M. : Il y a assez peu de jurisprudence puisque les contentieux lancés contre les réseaux sociaux, qui pèsent très lourd, sont assez longs et coûtent souvent très cher financièrement. Or les victimes n'ont pas forcément l'envie, le temps ou l'argent de se lancer dans une bataille juridique face à des grandes plateformes. Il y a encore un caractère disproportionné dans cette lutte, même si certaines victoires peuvent parfois avoir lieu, par exemple en matière de protection des données personnelles... Mais en cyberharcèlement, je n'en ai pas en tête. Et puis quand on voit la première chose qu'a faite Elon Musk en arrivant chez X, c'est de virer des modérateurs, c'est sûr qu'on ne ressent pas l'esprit d'évolution attendue sur un réseau social à notre époque.

Quand on voit la première chose qu'a faite Elon Musk en arrivant chez X, c'est de virer des modérateurs, c'est sûr qu'on ne ressent pas l'esprit d'évolution attendue sur un réseau social à notre époque.

Marcel Moritz

Tout ça ne semble pas très optimiste, est-ce que toutes ces mesures sont finalement vaines face à des plateformes tentaculaires comme Facebook, TikTok ou Instagram ?

M.M. : Je ne sais pas si on peut dire ça, car les actions fortes menées par l'Union européenne permettent tout de même de régler le problème globalement, et puis le DSA doit toujours faire ses preuves. En tout cas, il est certain qu'il vaut mieux se prémunir en éduquant les jeunes aux médias sociaux. Je crois beaucoup au pouvoir de l'instruction qui devrait même commencer bien avant le collège, pour éviter de devoir en arriver à des affaires de contentieux.