A Châtelet, des caméras comptabilisent les voyageurs sans masque : une "banalisation" de la surveillance ?

Alors que le port du masque est désormais obligatoire dans le métro et le RER, des caméras installées à Châtelet dénombrent en temps réel les voyageurs non équipés. Si la RATP assure qu’il "n’a aucune finalité de verbalisation", le dispositif inquiète les associations.

Dans la plus grande gare souterraine d'Europe, des caméras détectent et comptabilisent désormais les voyageurs du métro et du RER sans morceau de tissu au bout du nez. Depuis le mercredi 6 mai, la RATP et Île-de-France Mobilités ont en effet lancé une nouvelle technologie de surveillance à la station Châtelet - Les Halles, pour "déterminer le respect du port du masque à compter du 11 mai", comme l’explique la régie des transports. L’algorithme en question, actif aujourd’hui sur 6 caméras (déjà installées par le passé) puis sur un total de 12 appareils à terme, permet en effet "d’obtenir en temps réel le nombre exact et le pourcentage de personnes masquées ou non dans les espaces concernés", selon la RATP.La régie tente de rassurer en affirmant que cette "expérimentation ponctuelle", d’une durée de trois mois, touche "un périmètre limité" et "n’a aucune finalité de verbalisation". L’outil est censé plutôt aider à "mener des actions de sensibilisation auprès des usagers pour les inciter au respect des règles sanitaires" au fil du déconfinement. En clair, le dispositif n’est pas censé entraîner une hausse du nombre de contrôles ou d’agents, mais plutôt une hausse de la prévention. Un tableau de bord électronique réunissant les statistiques collectées doit ainsi informer la RATP, "jour après jour, de l’évolution du taux de port du masque". La régie des transports parisiens soutient par ailleurs que la détection des personnes masquées ou non est réalisée "de façon anonyme". Selon le groupe, "aucune image" n’est stockée ou diffusée. La RATP explique aussi que "les voyageurs sont informés de l’expérimentation à travers une campagne d’affichage déployée dans la salle d’échange et sur les quais de la station".

La technologie n’est pas forcément dangereuse

Datakalab, l’entreprise à l’origine du système, assure l'avoir conçu de façon à ne "pas collecter de données personnelles", mais uniquement pour "créer des statistiques agrégées et anonymes, sans pouvoir viser des individus". Concrètement, Xavier Fischer, le CEO de cette startup française spécialisée dans l’intelligence artificielle, explique qu’un petit ordinateur est installé à côté de chaque caméra. "On ne stocke pas les données, et on n’envoie pas les vidéos via Internet, détaille le responsable. On a décidé de développer des algorithmes très peu gourmands, et on n’a pas recours à de gros serveurs, via le cloud. A chaque fois qu’on analyse les pixels pour identifier les masques dans l’image, on le fait directement sur la mémoire vive des ordinateurs. Même s’ils sont volés, on ne peut pas récupérer de données personnelles dessus. On utilise certes le capteur de la caméra, mais on traite uniquement le flux, en temps réel. Puis on donne uniquement le pourcentage de personnes portant ou non un masque."

Xavier Fischer précise que le système crée des "paquets de 15 minutes" : "L’information remonte en groupe, il n’y a pas de reconnaissance. Si vous passez devant la caméra deux fois à plus de 15 minutes d’écart, vous serez comptabilisé comme une deuxième personne. C’est un peu comme utiliser un cliqueur pour compter le public à l’entrée d’une salle de concert." Le CEO de Datakalab défend que "la technologie n’est pas forcément dangereuse". "Il faut contrôler comment utiliser ces outils, sans trop de contraintes sur les données personnelles, soutient-il. L’analyse de l’image peut faire peur au premier abord, et c’est important de débattre de ce sujet en société. Mais le problème n’est pas la machine en soi : il faut contrôler l’homme qui contrôle la machine."

Ça peut permettre d’aider à gérer la répartition des stocks de masques

Xavier Fischer, qui évoque "un problème de compétitivité avec la Chine par exemple, sur le type d’algorithme" développé par sa société, dit "vouloir proposer une alternative, avec une transparence sur l’utilisation des données". Il met aussi en avant l’utilité, selon lui, de ce genre de dispositif : "Il n’y aucune autre façon de mesurer précisément le port du masque, 24 heures sur 24 et 7 jours sur 7, sans algorithme. Le job ne peut pas être réalisé par un homme, ça prendrait beaucoup trop de temps et il faut aussi prendre en compte les biais cognitifs. On ne remplace pas le rôle d'un humain. Et ça peut permettre d’aider à gérer la répartition des stocks de masques, les volumes n’étant dans tous les cas pas infinis."

Opacité, données biométriques, banalisation de la surveillance… L’inquiétude des associations

Du côté des associations de défense des libertés, le système lancé à Châtelet soulève des inquiétudes. Martin Drago, membre de la Quadrature du net, pointe du doigt un "manque de transparence" : "Le plus gênant avec tous ces dispositifs qui se multiplient avec la crise sanitaire, c’est l’opacité qui les entoure. Aujourd’hui, tout passe uniquement par des éléments de communication transmis via des articles de presse, alors que le système concerne des millions de personnes. Tout pousse à croire sur parole l’entreprise." Le juriste alerte aussi sur la question des données biométriques, qui permettent d’identifier individuellement les personnes à partir de leurs caractéristiques physiques par exemple. "Datakalab donne l’image d’une technologie neutre et indolore, explique-t-il. Or on flirte avec un système de données biométriques. Même si l’entreprise parle d’un traitement global, sa technologie implique forcément une capacité à repérer des visages dans la foule. Et le problème n’est pas que ce traitement soit effectivement réalisé, mais que l’entreprise en soit capable." Une inquiétude partagée par Maryse Artiguelong, vice-présidente de la Ligue des droits de l’homme (LDH), et co-animatrice du groupe de travail Liberté et TIC (Technologies de l'information et de la communication) au sein de l’association : "Du moment où l’outil est mis en place, rien n’empêche de le lier à des systèmes de reconnaissance faciale. Pour compter le nombre de porteurs de masques, il faut bien pouvoir identifier les visages pour produire les statistiques... Même s’il n’y a pas pour l’instant d’identification, ou de recoupage avec des bases de données."

C’est une façon de nous habituer à être surveillé

A long terme, les associations craignent une "banalisation" des technologies de vidéosurveillance automatisée. "On a un pied déjà bien engagé dans l’engrenage, s’inquiète Martin Drago. On a vu de nombreuses entreprises proposer leurs services pour aider à mettre en place le confinement depuis le début de la crise, et aujourd’hui on voit que les solutions sont mises en œuvre, avec entre autres des caméras thermiques dans certaines communes françaises. Et force est de constater que cette normalisation n’a pas l’air de gêner plus que ça la RATP, c’est assez fou. Châtelet servait déjà avant la crise de laboratoire pour des entreprises basées sur ce type technologies, afin d’expérimenter leurs algorithmes." La régie indique en effet que son expérimentation s’inscrit dans le cadre du "LAB’IA video", qui propose à des sociétés de tester dans des conditions réelles leurs algorithmes sur le vaste réseau de caméras du site, dans le cadre du programme Intelligence artificielle du groupe. "C’est une façon de nous habituer à être surveillé, explique également Maryse Artiguelong. Ce solutionnisme technologique, avec ces outils censés tout régler dans une logique de contrôle et de sanction, mène à faire un pas de plus vers cette surveillance déshumanisée. Et le port du masque a beau cacher une partie du visage, l’identification des personnes est rendue difficile mais pas impossible. La crise est une grosse opportunité pour les entreprises spécialisées. Cédric O, le secrétaire d'État au Numérique, pousse les sociétés françaises à expérimenter pour prendre de l’avance dans ce secteur, alors que le gouvernement devrait au contraire protéger nos libertés." Même analyse du côté de la Quadrature du net. "Datakalab était jusqu’ici concentrée sur l’analyse des émotions, dans l’audiovisuel, souligne Martin Drago. L’entreprise profite clairement de la situation de crise. Elle est arrivée à Cannes, elle a fait un bon coup, et ça lui a permis de remonter en Île-de-France vers un nouveau marché." Datakalab a en effet déjà lancé un dispositif similaire à celui de Châtelet dans le Sud de la France, pour détecter automatiquement par caméras si les Cannois portent ou non des masques dans plusieurs marchés de la ville.

On a l’impression de se retrouver sous une sorte de magma, avec tellement de nouveaux combats à mener

Martin Drago se dit enfin préoccupé par la masse de dossiers à gérer depuis le début de l'épidémie. "Ça fait énormément de dossiers pour les associations, et on a l’impression de se retrouver sous une sorte de magma, avec tellement de nouveaux combats à mener, regrette le juriste. Stop Covid, les drones… On peut avoir un sentiment de dépassement. Et on se demande où est la Cnil dans tout ça, parce qu’on ne l’a voit pas beaucoup communiquer. On a parfois l’impression de faire son boulot." La RATP, elle, affirme que des "éléments techniques, juridiques" ainsi que des "éléments d’information de l’expérience ont été transmis (…) pour information" à la Commission nationale informatique et libertés. L’autorité administrative indépendante explique de son côté que "le sujet est en cours d’analyse", sans pouvoir se prononcer "à ce stade".


 
L'actualité "Économie" vous intéresse ? Continuez votre exploration et découvrez d'autres thématiques dans notre newsletter quotidienne.
Tous les jours, recevez l’actualité de votre région par newsletter.
choisir une région
Paris Ile-de-France
France Télévisions utilise votre adresse e-mail pour vous envoyer la newsletter de votre région. Vous pouvez vous désabonner à tout moment via le lien en bas de ces newsletters. Notre politique de confidentialité