ENTRETIEN : "Notre attention est sous le contrôle d'algorithmes dangereux pour l'humanité" mais un autre modèle est possible

Dans un livre intitulé "La dictature des algorithmes", le toulousain Jean-Lou Fourquet montre avec le président de l'association Tournesol, Lê Nguyên Hoang, comment des algorithmes contrôlés par des multinationales ou des États totalitaires fragilisent nos démocraties, alors que la construction d'un autre modèle est possible. Entretien.

Société
De la vie quotidienne aux grands enjeux, découvrez les sujets qui font la société locale, comme la justice, l’éducation, la santé et la famille.
France Télévisions utilise votre adresse e-mail afin de vous envoyer la newsletter "Société". Vous pouvez vous désinscrire à tout moment via le lien en bas de cette newsletter. Notre politique de confidentialité

Ancien ingénieur et entrepreneur social, Jean-Lou Fourquet est un enseignant et journaliste indépendant toulousain. Il a été chroniqueur sur l'économie de l’attention pour Arrêt sur images. Avec le polytechnicien et président de l'association Tournesol, Lê Nguyên Hoang, il vient de publier "La dictature des algorithmes : Une transition numérique démocratique est possible". "Depuis une décennie, notre attention est sous le contrôle d'algorithmes dangereux pour l'humanité et nous regardons ailleurs", écrivent-ils. C'est pour eux l'enjeu civilisationnel du siècle. Entretien avec Jean-Lou Fourquet.

France 3 : De quoi parle-t-on précisément quand on parle d'algorithmes de recommandation ?

Jean-Lou Fourquet : Quand on va sur n'importe quelle plateforme numérique, n'importe quel réseau social, il y a beaucoup plus de contenu que ce qu'on ne pourra jamais regarder. Une manière simple de l'expliquer : sur n'importe quelle page web, il y a un rédacteur en chef qui va décider quel article on met en première page. Mais dans les plateformes numériques, il y a tellement d'infos que ce n'est pas un humain qui le fait, c'est un algorithme de recommandation. Et sa particularité, c'est qu'il le fait de manière totalement personnalisée.

Le rédacteur en chef compose sa première page et se dit : "Bon, tout le monde va voir ça". Mais un algorithme propose une page différente, qui est fonction de la personne, si elle est déjà allée sur la page ou pas, ce qu'elle a regardé ou pas, aimé ou pas... 

France 3 : Qu'est-ce qui vous a poussé à vous intéresser à ces algorithmes ?

Jean-Lou Fourquet : À la base, moi, mon sujet c'est plutôt le changement climatique et la transition énergétique. Mais je me suis aperçu que, contrairement à ce que je pensais au début, le problème n'est pas l'absence de bons contenus ou de contenus qui arrivent à démonter les thèses climatosceptiques. La question, c'est sa diffusion massive. Et quand on s'intéresse au régime informationnel de chacun, on se rend compte que le gros levier, ce sont les algorithmes de recommandation.

L'humanité regarde un milliard d'heures sur YouTube par jour, dont 700 millions qui sont recommandés par l'algorithme de recommandation de YouTube. Donc, on a beau faire des vidéos très bien, le GIEC a beau faire un rapport très sérieux sur le changement climatique, si dans ces 70%, dans ces 700 millions d'heures qui sont recommandées par YouTube, il y a beaucoup d'heures de contenu climatosceptique, on n'avance pas. 

Il faut se rendre compte que la majeure partie de ce que nous regardons, c'est décidé par les algorithmes de recommandation. Donc si on n'avance pas vers des "algos" de recommandation faits différemment, on n'avancera pas sur le climat par exemple.

France 3 : Qu'est-ce qui fait que ça marche ou pas ? Quels sont les rouages de ce système ?

Jean-Lou Fourquet : Là où ça bloque, c'est sur le modèle économique des grandes plateformes, les Bigtec (Youtube, Méta, Twitter, Linkelin, Amazon...). Il est très simple : plus elles parviennent à ce que les gens restent sur la plateforme, plus elles font de l'argent. C'est ce qu'on appelle l'économie de l'attention.

C'est le métier de TF1. Le patron de TF1 disait en 2004 : "Notre métier, c'est vendre des secondes de cerveau humain disponibles à Coca-Cola". Et en fait, le métier des grandes plateformes, c'est le même. Sauf que TF1 n'a pas d'algorithmes de recommandation. TF1 n'a pas la capacité de recommander des contenus en fonction de qui la regarde. Vous, moi, on regarde le même contenu.

Les plateformes ont le même modèle économique, mais avec cette innovation supplémentaire : les algorithmes de recommandation qui leur permettent d'avoir des fils de recommandations pour chacun.

France 3 : Des fils très efficaces qui nous activent presque comme des marionnettes quand on voit le temps passé non ?

Jean-Lou Fourquet : Comme il n'y a aucune régulation, personne qui dit "cette stratégie pour recommander des contenus, ce n'est pas bon parce que ça fait appel à telle ou telle émotion", la plateforme, sans volonté partisane de le faire, rend les gens accros.

On se rend compte qu’il y a plein de manières qui sont très efficaces pour rendre les gens obsessionnels à telle ou telle plateforme, qui ont des conséquences sociétales, individuelles et collectives dramatiques. Mais ce n'est pas forcément volontaire de la part de ces plateformes. Par exemple, une bonne manière de rendre du contenu viral et de faire en sorte que les gens restent sur la plateforme, c'est de faire la promotion algorithmiquement de contenus qui clivent et qui génèrent de la colère.

Mais encore une fois, ce n'est pas Facebook qui s'est réveillé un jour et qui s'est dit "je veux rendre les gens en colère". Eux, ce qu'ils ont fait, c'est essayer d'optimiser le temps passé sur la plateforme. Et il s'avère que l'entraînement de l'algorithme a trouvé que ce genre de contenu rendait les gens addicts.

France 3 : Ça a des conséquences sur la santé des gens, la démocratie...

Jean-Lou Fourquet : Il existe plein d'effets collatéraux, par exemple individuellement beaucoup de dépression et de dysmorphophobie chez les jeunes, notamment chez les jeunes filles. Il va y avoir aussi des conséquences collectives qui sont de l'ordre de la polarisation et de l'altération des valeurs démocratiques.

Un exemple très documenté est celui du génocide des Rohingyas au Myanmar. L'algorithme de méta Facebook a eu beaucoup d'influence. Il a aggravé les exactions en faisant la promotion de certains messages qui appelaient à la haine. 

Il y a une responsabilité des plateformes car elles connaissent depuis des années les conséquences, qu'elles n'ont pas forcément recherchées, mais elles savent. Et pour le coup, nous, on milite pour dire qu'elles sont responsables de ça. Maintenant, ce n'est plus une surprise que les plateformes attisent la haine.

Il y a eu l'affaire des Facebook Files en 2021, je crois. On a vu dans l'organisation interne que Facebook avait des études, des investigations pour savoir ce que générait la plateforme. Et pourtant, ils ne font rien pour changer ça. Donc ça, c'est de leur responsabilité.

France 3 : Ces plateformes peuvent devenir une arme politique...

Jean-Lou Fourquet : À proprement parler, oui. On commence à avoir des gens qui ont une vision politique et qui ont la main sur des plateformes. L'exemple, c'est TikTok Douyin, la version chinoise de TikTok depuis laquelle le parti communiste chinois est aux commandes et qui donne une vision qui n'est plus seulement économique.

C'est aussi le cas maintenant de Twitter ("X"). Elon Musk a une vision partisane et un vrai combat politique. D'ailleurs, il a appelé à voter Trump il y a quelques jours et je crois qu'il a même offert de l'argent à toute personne qui convaincrait quelqu'un de s'inscrire sur les listes. Il mène ce combat politique et il est propriétaire de Twitter.

Là, pour le coup, on est passé d'une sorte de plateforme numérique qui n'était pas partisane à une plateforme qui a des enjeux politiques très forts. Elon Musk intervient de manière brute : il a poussé ses employés à surrecommander ses tweets qu'ils ne trouvaient pas assez regardés. Mais il a aussi utilisé une manière plus feutrée, plus insidieuse...

Il a rendu les likes privés sur Twitter. Avant si on likait une info, les gens pouvaient aller voir. Les contenus likés faisaient partie de leur image publique. Ils étaient obligés d'assumer leurs likes. Or en début d'été Elon Musk a rendu les likes privés. Les gens peuvent "se lâcher". Ça n'a l'air de rien mais c'est un changement majeur parce que ça libère leur parole. Ils ne se contiennent plus car ils n'ont plus à assumer publiquement les likes de contenus violents. L'algorithme a ainsi amplifié ces contenus likés secrètement. Ça aurait participé à la gravité des émeutes au Royaume-Uni cet été.

France 3 : Comment contrer ces manipulateurs d'opinion ?

Jean-Lou Fourquet : Je parle pour moi, dès qu'il y a une thématique sur laquelle j'ai un rapport un peu émotionnel, je me dis que ce n'est pas une bonne idée d'aller me renseigner dessus sur les réseaux sociaux. Ce sont des thématiques sur lesquelles j'aurais vraiment tendance à plutôt lire des livres car si on est émotionnel sur une question et qu'on se connecte aux réseaux sociaux, on est à peu près sûr de se faire avoir dans ce genre de boucle là.

Ce qu'on propose au-delà de la question individuelle, c'est de réfléchir aux régulations à mettre en place. Pour prendre une comparaison, quand on a un Airbus ou un Boeing qui arrivent avec un nouvel avion, on ne leur dit pas "Vas-y, vole !". De la même manière, quand Sanofi arrive avec un nouveau médicament, on ne lui dit pas, "Fonce, tu as accès au marché !".

Or aujourd'hui, une plateforme avec un nouvel algorithme de recommandation ne rend aucun compte, ne passe aucun contrôle. ChatGPT par exemple n'a pas été expertisé du tout. Ils ont déployé leur nouveau modèle dans le monde entier. C'est complètement fou. Ça a des conséquences technologiques et sociales énormes, on ne peut pas laisser faire ça. Il y a une exception, une clémence envers le secteur du numérique qu'il faut stopper.

France 3 : Une régulation est-elle possible ?

Jean-Lou Fourquet : Il y a deux choses qu'on peut envisager de mettre en place en termes de régulation qui sont juste des changements de paradigme. Il faudrait instaurer une présomption de non-conformité de toutes les innovations technologiques ou des innovations technologiques majeures. Il faudrait qu'elles passent au filtre d'une vérification politique, tout simplement.

C'est comme le RGPD (règlement général de protection des données), on peut le faire au niveau de l'Europe. On peut tout à fait interdire à YouTube son nouvel algorithme et dire non. La deuxième mesure, c'est la présomption de non-recommandabilité. Imaginons qu'un contenu apparaisse dans le fil de 100 personnes, on se dit : ça n'a pas de conséquences trop importantes. Mais si ça réagit et qu'on voit que ce contenu peut intéresser bien d'autres personnes, par exemple plus de 300 personnes,  on peut dire qu'à partir de ce seuil, on met en place une vérification. Une sorte de validation qui corresponde à certains critères.

Nous, ce que l'on fait, c'est que l'on propose une plateforme qui s'appelle Tournesol. On travaille sur la gouvernance collaborative des algorithmes de recommandation, et même plus généralement des algorithmes. Plutôt que de laisser les big tech choisir, plutôt que de laisser le parti communiste chinois choisir, est-ce qu'on ne peut pas créer des manières de décider démocratiquement de ce qui devrait être recommandé massivement ?

France 3 : En quoi la démarche de Tournesol est-elle démocratique ?

Jean-Lou Fourquet : La plateforme Tournesol crée des systèmes transparents, où tout le monde peut aller voir comment ça marche. L’objectif est d'extraire de toutes les comparaisons faites par la communauté des notes de recommandations, des évaluations. Tournesol dit à quel point la communauté pense que tel ou tel contenu devrait être recommandé.

On essaie de faire appel à ce qu'on appelle la volition : des choix long terme et réfléchis des gens. On essaie de recueillir des comparaisons argumentées de la part de la communauté. De cette façon la démocratie peut s'exercer. Elle s'appuie sur la transparence et le vote éclairé des gens.

Tous les jours, recevez l’actualité de votre région par newsletter.
Tous les jours, recevez l’actualité de votre région par newsletter.
choisir une région
France Télévisions utilise votre adresse e-mail pour vous envoyer la newsletter de votre région. Vous pouvez vous désabonner à tout moment via le lien en bas de ces newsletters. Notre politique de confidentialité
Je veux en savoir plus sur
le sujet
choisir un sujet
en region
choisir une région
sélectionner une région ou un sujet pour confirmer
Toute l'information