JO de Paris 2024. Sommes-nous sous surveillance ? Avec l'arrivée des "caméras intelligentes", Amnesty International tire la sonnette d'alarme

Plus sur le thème :

La vidéosurveillance algorithmique, VSA, sera expérimentée à partir de juillet prochain lors des JO et jusqu'en 2025. Plusieurs associations craignent que ces caméras intelligentes mènent à une société sous surveillance.

Société
De la vie quotidienne aux grands enjeux, découvrez les sujets qui font la société locale, comme la justice, l’éducation, la santé et la famille.
France Télévisions utilise votre adresse e-mail afin de vous envoyer la newsletter "Société". Vous pouvez vous désinscrire à tout moment via le lien en bas de cette newsletter. Notre politique de confidentialité

"Une pente glissante et dangereuse." Katia Roux est formelle. La chargée de plaidoyer Technologie et Droits humains au sein d'Amnesty International s'inquiète.

Amnesty International a organisé ce mardi un rassemblement au cimetière du Père-Lachaise à Paris. Une assemblée vêtue de noir a enterré symboliquement notre "vie privée". Objectif : alerter sur les dangers des caméras "intelligentes".

Une étape vers la reconnaissance faciale ?

L'ONG qui milite pour le respect des libertés individuelles craint que l'utilisation de la vidéosurveillance algorithmique (VSA) prévue pendant les jeux olympiques en juillet prochain ne soit "un pas supplémentaire" vers l'implantation de la reconnaissance faciale dans les prochaines années. La VSA a déjà été expérimentée en Île-de-France dans certaines gares comme gare du Nord ou gare de Lyon et lors de concerts notamment à Paris la Défense Arena.

"La VSA apporte déjà son lot de questions concernant le respect de la vie privée des individus. Une fois que cette technologie sera développée, l'exécutif ne reviendra pas en arrière", indique la chargée de plaidoyer.

Autre problématique selon l'ONG : "Les logiciels utilisés pour la VSA sont souvent les mêmes que ceux utilisés pour la reconnaissance faciale. Même si la reconnaissance faciale ne sera pas utilisée durant les JO, le recours de plus en plus fréquent aux dispositifs de surveillance utilisant des algorithmes nous fait craindre le pire."

Elle dénonce au sujet de la VSA une "ingérence au droit à la vie privée qui a un impact sur les libertés fondamentales car ces techniques de surveillance ont un aspect dissuasif. Lorsqu'on se sent surveillé, on n'agit pas de la même manière."

L'ONG réclame l'adoption d'une loi d'interdiction de la reconnaissance faciale en France. Un basculement sécuritaire que craignent également des associations comme la Quadrature du Net.

"Des rapports parlementaires annuels montrent que la VSA n'est qu'une étape vers la surveillance généralisée de la population dans l'espace public en France", selon Noémie Levain, juriste au sein de l'association. Selon elle, cette première expérimentation est "l'arbre qui cache la forêt. Un projet plus large est en marche", soutient la juriste.

Des technologies vectrices de discrimination ? 

En plus de l'atteinte à la vie privée, Amnesty International craint que ces techniques de surveillance soient vectrices de discrimination. "On a constaté par exemple avec la VSA expérimentée dans les gares que des individus qui restaient statiques pendant plus de 5 minutes pouvaient être considérés comme suspects.", indique Katia Roux.

Selon la Quadrature du Net, la VSA "est une technologie qui reproduit des mécanismes policiers. Elle classe, elle analyse, elle surveille", explique Noémie Levain qui est chargée des questions juridiques pour le compte de l'association de défense des libertés individuelles à l'ère numérique.

La vidéosurveillance algorithmique sera testée pendant les JO-2024, mais les autorités l'assurent : aucun des logiciels utilisés ne permet l'utilisation de la reconnaissance faciale, pourtant déjà employée en France dans certains cas et sous conditions.

La loi Jeux olympiques (JO) adoptée en avril 2023 autorise jusqu'à mars 2025 le recours à la vidéosurveillance algorithmique (VSA), soit des caméras dotées d'algorithmes, dans huit situations précises, comme la détection des départs de feu, des mouvements de foule ou des objets abandonnés en vue d'alerter pompiers, policiers ou gendarmes.

Elle pourra être utilisée dans des cas précis au cours de "manifestations sportives, récréatives ou culturelles particulièrement exposées à des risques d'actes de terrorisme ou d'atteintes graves à la sécurité des personnes", prévoit le texte de loi.  

 

   

Tous les jours, recevez l’actualité de votre région par newsletter.
Tous les jours, recevez l’actualité de votre région par newsletter.
Veuillez choisir une région
France Télévisions utilise votre adresse e-mail pour vous envoyer la newsletter de votre région. Vous pouvez vous désabonner à tout moment via le lien en bas de ces newsletters. Notre politique de confidentialité
Je veux en savoir plus sur
le sujet
Veuillez choisir une région
en region
Veuillez choisir une région
sélectionner une région ou un sujet pour confirmer
Toute l'information