Aller au contenu
Agir
Faire un don
ou montant libre :
/mois
Grâce à la réduction d'impôts de 66%, votre don ne vous coûtera que : 5,1 €/mois
URGENCE PROCHE ORIENT

Exigez avec nous la protection sans condition des populations civiles

Des caméras de vidéosurveillance installées sur les quais de Seine à Paris, le 22 avril 2022 / © Lilian Cazabet - Hans Lucas via AFP
Liberté d'expression

JO 2024 : Pourquoi la vidéosurveillance algorithmique pose problème

À l’occasion des Jeux olympiques de Paris, un outil de surveillance intrusif va se déployer dans nos rues : la vidéosurveillance algorithmique (VSA). Un dispositif inquiétant, rendu légal par la loi JO 2024. Analyse.

Des caméras dopées à l’intelligence artificielle vont désormais passer au crible, en direct, vos moindres mouvements. Marcher à contresens d’une foule aux abords d’un stade parce que vous rejoignez vos amis pourra faire de vous une personne suspecte. Ce qui aura analysé votre mouvement : un algorithme. Voici ce qui se cache derrière le terme technique de « vidéosurveillance algorithmique ». 

Concrètement comment fonctionne la VSA ?  

La vidéosurveillance algorithmique (VSA) est un système qui vise à automatiser le traitement d’images de caméras de surveillance. C’est une couche algorithmique ajoutée aux caméras « classiques » de vidéosurveillance. Les images captées par les caméras sont analysées par des algorithmes, entraînés à détecter, en temps réel, des situations prédéfinies.

La France a légalisé ce dispositif dans le cadre de la loi relative aux Jeux olympiques et paralympiques de 2024. Une première au sein de l’Union européenne. La loi a été votée en procédure accélérée et indique que les « caméras augmentées » seront utilisées à titre expérimental.

Lire aussi : 7 expérimentations inquiétantes de technologies de surveillance en France

La nouveauté avec cette loi : ce sont les algorithmes qui vont identifier des situations considérées comme « anormales ». Or, comment définir ce qui est la norme ? Comment s’assurer que l’algorithme ne va pas cibler des groupes déjà marginalisés ? Comment être sûr que des mesures dites d’« exception » ne vont pas se pérenniser ? La VSA pose problème. Voici pourquoi.

1. La VSA va menacer notre vie privée et nos libertés 

La vidéosurveillance algorithmique légalisée en France soulève des enjeux nouveaux et préoccupants en matière de respect du droit à la vie privée et à la liberté d’expression.

Tout d’abord, le fait que des algorithmes analysent en direct les comportements des individus repose sur une collecte de données personnelles préoccupante quant au respect du droit à la vie privée. Toute surveillance dans l’espace public est une ingérence dans le droit à la vie privée. Pour être légale, une telle ingérence doit être nécessaire et proportionnée.

Ensuite, ce type de technologie peut avoir un réel effet dissuasif sur les libertés. Le simple fait de se savoir surveillé peut conduire les personnes à modifier leurs comportements, à s’auto-censurer et à ne pas exercer certains droits.

C'est aux autorités de faire la démonstration qu'il n'existe pas de moyen moins attentatoire aux libertés pour garantir la sécurité. Or, cette démonstration n'a pas été faite.

Katia Roux, spécialiste technologies et droits humains à Amnesty International France 

Lire aussi : Technologies de surveillance en France : ils sont inquiets, ils témoignent

2. La VSA peut stigmatiser certaines personnes  

La vidéosurveillance algorithmique comporte des risques de stigmatisation de certains groupes de personnes et des risques de discriminations. Qui dit vidéosurveillance algorithmique dit algorithmes. Pour que les caméras détectent des situations « anormales » ou « suspectes », des algorithmes doivent être entraînés. Par des humains. Ce sont des personnes qui choisissent quelles données vont entraîner les algorithmes en déterminant préalablement ce qui est « normal » ou « anormal ». Ces données dites « d’apprentissage » peuvent comporter des biais discriminatoires. Une personne sans abri ou une personne qui joue de la musique dans la rue pourrait-elle un jour être considérée comme « suspecte » parce que son comportement ne correspondrait pas à la « norme » définie ? C’est le type de risque qu'implique la vidéosurveillance algorithmique.

Certaines personnes risquent de subir plus que d’autres les effets de cette technologie. Et il y a un risque que les situations identifiées comme « potentiellement suspectes » amplifient et automatisent les discriminations. 

Qui va définir ce qui est la norme ? Une personne en situation de handicap, avec une manière de se déplacer ou une gestuelle différente va-t-elle être détectée par l’algorithme comme une personne ayant un comportement anormal ? 

Katia Roux, spécialiste technologies et droits humains à Amnesty International France 

Interview de Katia Roux pour RFI "Grand invité international"

Sur le plateau de Radio France internationale (RFI), Katia Roux, notre experte en Technologies et droits humains, revient sur les dangers de la vidéosurveillance algorithmique : « Avec ces systèmes, ça marche par pallier. Avec la vidéosurveillance algorithmique, on vient de passer une marche, ce qui nous attend à la prochaine, ce sont des systèmes de reconnaissance faciale et d'émotions, déjà expérimentés en France.»

Interview complète à écouter ici.

3. La VSA ouvre la boîte de Pandore de la surveillance 

Légaliser la vidéosurveillance algorithmique c’est ouvrir la voie à des technologies encore plus intrusives et c'est notre plus grande inquiétude.

Pour rassurer, les autorités précisent que la vidéosurveillance algorithmique a été adoptée à titre expérimental jusqu’en mars 2025. Or, si nous sommes inquiets, c’est parce que cette loi est représentative de la tendance inquiétante des autorités à étendre leurs pouvoirs de surveillance dans le cadre de mesures d’urgence prises au nom de la sécurité. Il est rare que ces mesures dites « d’exception » soient levées rapidement. En lieu et place, les mesures de surveillance et de contrôle deviennent la norme.

Les Jeux olympiques ont déjà servi de terrain d’expérimentation pour doter des États de pouvoirs renforcés, qui sont ensuite maintenus lorsque la situation d’exception prend fin. Ces exemples suffisent à justifier nos craintes de voir l’utilisation de la vidéosurveillance algorithmique perdurer au-delà de 2025. Résultat : ouvrir la boîte de Pandore de la surveillance. 

En devenant le premier État membre de l’UE à le faire, la France ouvre la voie à l’utilisation et à la normalisation d’outils permettant une surveillance de masse.

Katia Roux, spécialiste technologies et droits humains à Amnesty International France

La prochaine étape : la reconnaissance faciale ? 

De la vidéosurveillance algorithmique à la reconnaissance faciale il n’y a qu’un pas. Techniquement, il ne s’agirait que d’une fonctionnalité à activer sur certains logiciels des caméras de surveillance algorithmiques.

Quelles différences entre les deux dispositifs ? La vidéosurveillance algorithmique détecte et signale des « comportements suspects ». La reconnaissance faciale permet d’identifier des personnes en direct, en scannant et en croisant leurs visages avec une base de données. 

Lire aussi : 9 questions pour comprendre la reconnaissance faciale

La France sous reconnaissance faciale, ça ressemblerait à ça. 👇

Loading...

Notre court-métrage « Dans leurs yeux : la France à l’heure de la reconnaissance faciale » imagine une France sous reconnaissance faciale. Lorsque les technologies de surveillance envahissent nos vies, que reste-t-il de nos libertés ? Un film entre fiction et réalité.

La reconnaissance faciale, technologie extrêmement intrusive et dangereuse pour les droits fondamentaux, a déjà été testée dans des villes en France où les expérimentations de surveillance se multiplient. C’est dans ce contexte que nous appelons à une loi interdisant la reconnaissance faciale à des fins d’identification dans l’espace public. Pour poser des garde-fous, avant de glisser vers une surveillance généralisée. 

La décision de la France d’autoriser à titre « expérimental » la surveillance assistée par intelligence artificielle pendant les Jeux olympiques de 2024 pourrait être une étape sans retour. Ces technologies de surveillance posent de vrais risques sur nos droits humains.   

Agir

Non à la reconnaissance faciale en France !

Agissez avant que la reconnaissance faciale ne devienne une réalité en France.

En signant notre pétition, votre signature va permettre d'appuyer le travail de plaidoyer effectué auprès des député·es pour qu'une loi interdisant l'utilisation de la reconnaissance faciale soit déposée à l'Assemblée nationale.