En France, les technologies de surveillance deviennent de plus en plus la réponse aux enjeux sécuritaires : reconnaissance faciale à l'entrée des lycées, aux abords des stades, analyse des comportements dans les gares… Retour sur ces expérimentations de vidéosurveillance algorithmique et de reconnaissance faciale qui nous inquiètent.
De nombreux systèmes de surveillance sont expérimentés en France. Déployés pour certains, abandonnés pour d’autres, ces projets démontrent tous un appétit grandissant des autorités et des acteurs en charge de la sécurité pour les technologies de surveillance telles que la reconnaissance faciale.
Quelles sont les expérimentations menées en France ? Dans quelles villes ? Comment sont-elles encadrées et quels sont les risques ? Tour d’horizon des expérimentations des technologies de surveillance en France.
1. Nice expérimente la reconnaissance faciale lors de son carnaval
En 2019, Nice a expérimenté la reconnaissance faciale lors de son carnaval avec le logiciel israélien Anyvision. Des visages scannés, en temps réel, sur la voie publique. C'est la première fois qu'une telle expérimentation est réalisée en France. Le dispositif permettait à la fois l’authentification des personnes (vérifier leur identité) et l’identification (identifier une personne dans une foule).
⚠️️ Expérimentation autorisée
❌ Implication tardive de La CNIL
❌ Le consentement ne peut pas être une base légale pour le déploiement de la reconnaissance faciale à des fins sécuritaires.
L’expérimentation reposait sur le consentement de 5000 volontaires. Or, la Commission nationale de l'informatique et des libertés (CNIL) a indiqué que cette expérimentation « ne saurait aller au-delà d’un simple test », rappelant que le consentement ne pouvait pas être une base légale pour le déploiement de la reconnaissance faciale à des fins sécuritaires. Par ailleurs, la CNIL regrette d’avoir été consultée trop tard et aurait également pointé des lacunes dans le rapport de la municipalité concernant l'expérimentation.
Parce que la reconnaissance faciale à des fins d’identification ne pourra jamais être compatible avec le respect des droits humains, nous demandons une loi pour l’interdire. Signez notre pétition.
2. Marseille et Nice ont voulu tester la reconnaissance faciale dans des lycées
En 2018, la région Provence-Alpes-Côte-d’Azur (PACA) a autorisé deux lycées de Nice et Marseille à tester la reconnaissance faciale. Le dispositif prévoyait d'installer des portiques à l’entrée des lycées avec un volet « contrôle d’accès biométrique » et un volet « suivi de trajectoire » des lycéens et visiteurs.
❌ Expérimentation non-autorisée
❌ Dispositif contraire au droit européen
L’expérimentation, jugée contraire au RGPD par la CNIL, a été annulée par le tribunal administratif de Marseille. La reconnaissance faciale n’a donc pas été testée sur des lycéens mais les présidents des régions PACA et Auvergne-Rhône-Alpes ont depuis exprimé leur souhait de pouvoir le faire pour garantir la sécurité.
Saisie par la région en 2019, la CNIL a rendu son avis. Elle a considéré que le dispositif violait notamment le principe de proportionnalité du RGPD, les finalités pouvant « être raisonnablement atteintes par d’autres moyens », moins intrusifs, tels que le contrôle par badge.
Le tribunal administratif de Marseille, saisi par plusieurs associations en 2020, a demandé l’annulation du dispositif pour violation du RGPD, qui interdit le traitement de données biométriques.
VOICI À QUOI POURRAIT RESSEMBLER UN QUOTIDIEN AVEC RECONNAISSANCE FACIALE
Vous avez du mal à vous figurer à quoi pourrait ressembler votre quotidien avec la reconnaissance faciale ? Notre court-métrage « Dans leurs yeux : la France à l’heure de la reconnaissance faciale » vous invite à le découvrir. Lorsque les technologies de surveillance envahissent nos vies, que reste-t-il de nos libertés ? Un film entre fiction et réalité.
Synopsis : Mai 2026, en France. Un lycéen, un homme et une femme sont confrontés à une nouvelle réalité : la reconnaissance faciale. Face à cet œil qui ne dort jamais, quel sera le prix à payer ?
3. La police française équipée d’un logiciel permettant la reconnaissance faciale
En novembre 2023, le média Disclose révèle que la police française se serait dotée du logiciel israélien Briefcam, qui contient une fonctionnalité de reconnaissance faciale. Celle-ci serait même activée par défaut sur le logiciel depuis 2018. Selon Disclose, le logiciel Briefcam équiperait la police municipale dans près de 200 communes. Pendant huit ans et en dehors de tout cadre légal, la police française aurait donc eu à disposition un outil permettant la reconnaissance faciale dans l’espace public. À la suite des révélations de Disclose, la CNIL a lancé une procédure de contrôle à l’encontre du ministère de l’Intérieur, qui lui-même a demandé une enquête indépendante et des conclusions publiques sous trois mois. Ce délai est largement dépassé, et les conclusions se font toujours attendre.
❌Pas de consultation préalable de la CNIL
❌Pas d’analyse d’impact relative à la protection des données
❌Atteinte aux droits fondamentaux si utilisation avérée de la reconnaissance faciale
Si les faits sont avérés, le logiciel Briefcam aura été utilisé en dehors de tout cadre légal. En mai 2023, la direction générale de la police nationale n’avait semble-t-il toujours pas réalisé d’analyse d’impact relative à la protection des données, pourtant obligatoire au regard du RGPD et de la directive « Police-Justice ». La CNIL n’aurait même pas été avertie. L’utilisation d’un logiciel aussi intrusif pour identifier des personnes dans l’espace public, porte atteinte au droit à la vie privée, limite le droit à la liberté d’expression et menace le principe de non-discrimination.
Parce que la reconnaissance faciale à des fins d’indentification ne pourra jamais être compatible avec le respect des droits humains, nous demandons une loi pour l’interdire. Signez notre pétition.
4. Le stade de Metz aurait expérimenté la reconnaissance faciale sur des supporters
Les outils de reconnaissance faciale attirent aussi les acteurs privés. En 2020, le club de football FC Metz aurait testé cette technologie lors d’un match de ligue 1 afin d’identifier les spectateurs interdits de stade, détecter les objets abandonnés et « lutter contre le terrorisme ». Les dispositifs de reconnaissance faciale ont été mis en place par l’entreprise Two-i. Le club a démenti, indiquant qu’il ne s’agissait que de « tests techniques à vide, réalisés sur des employés de la start-up ». Les supporters n’étaient pas au courant de l’expérimentation supposée. A leur insu, ils auraient été exposés à des outils de reconnaissance faciale. « Nous refusons de devenir des rats de laboratoire » a réagi l’Association nationale des supporters.
❌Avertissement de la CNIL au FC Metz
❌Dispositif contraire au droit européen
❌Violation du droit à la vie privée
Cette expérimentation supposée est hors cadre légal. La CNIL a adressé un avertissement au club de foot de Metz car le dispositif viole l’interdiction du traitement des données biométriques prévue par le règlement général sur la protection des données (RGPD). Aucune loi, décret ou arrêté ne permet le traitement de données biométriques par un club sportif à des fins de lutte contre le terrorisme.
Parce que la reconnaissance faciale à des fins d’identification ne pourra jamais être compatible avec le respect des droits humains, nous demandons une loi pour l’interdire. Signez notre pétition.
Lire aussi : De la VSA à la reconnaissance faciale, il n'y a qu'un pas
5. Des gares à Paris et Marseille analysent les comportements via la vidéosurveillance algorithmique
Depuis plusieurs mois, la vidéosurveillance algorithmique est expérimentée dans la gare du Nord et la gare de Lyon à Paris et, plus récemment, dans la gare de Marseille-Saint-Charles. Ce système de surveillance vise à détecter l’abandon de bagages et à suivre leur propriétaire. Bien qu’il ne s’agisse pas d’outils de reconnaissance faciale, les algorithmes analysent des comportements, des données personnelles comme la démarche ou la taille des personnes.
L’expérimentation a lieu à :
Gare du Nord à Paris, du 12 février au 30 août 2024 et concerne 100 caméras
Gare de Lyon à Paris, du 27 mars au 30 août 2024 et concerne 70 caméras
Gare Saint-Charles à Marseille, du 15 avril au 30 août 2024 et concerne 87 caméras
Lire aussi : JO 2024 : en quoi la vidéosurveillance algorithmique pose problème ?
⚠️ Expérimentation en cours
❌ Risque d’atteinte au droit à la vie privée
❌Risque d’atteinte au droit à la liberté d’expression
❌Risque d’atteinte au principe de non-discrimination
La Quadrature du Net a déposé une plainte devant la CNIL considérant les dispositifs de vidéosurveillance algorithmique dans les gares contraires au droit européen.
En légalisant la VSA à l’occasion des Jeux olympiques et paralympiques, la France ouvre la voie à des technologies encore plus intrusives comme la reconnaissance faciale… nous demandons une loi pour interdire cette technologie avant qu’elle ne devienne une réalité en France. Signez notre pétition.
6. Valenciennes s’équipe de caméras "intelligentes" offertes par Huawei
Depuis 2017, Valenciennes dispose d'un large réseau de caméras équipées de logiciels d'intelligence artificielle. C’est l’entreprise chinoise Huawei qui a offert à la ville ce dispositif, d’une valeur de 2 millions d'euros. Plusieurs outils sont mis à disposition comme un dispositif de lecture automatisée des plaques d’immatriculation, ou encore un logiciel de vidéosurveillance algorithmique permettant d’évaluer la densité d’une foule et de lancer des alertes.
⚠️ Dispositif actuellement déployé
❌Dispositif contraire au droit européen
La CNIL a alerté la ville sur l'usage illégal du dispositif. En février 2020, la CNIL a mené une enquête en procédant notamment à un contrôle sur place. Conclusion : elle a adressé un avertissement à Valenciennes considérant les dispositifs de vidéosurveillance algorithmique contraires au RGPD et à la transposition de la directive « Police-Justice ». La nécessité des traitements vis-à-vis des finalités n’a pas été établie.
En légalisant la VSA à l’occasion des Jeux olympiques et paralympiques, la France ouvre la voie à des technologies encore plus intrusives comme la reconnaissance faciale… nous demandons une loi pour interdire cette technologie avant qu’elle ne devienne une réalité en France. Signez notre pétition.
7. Cannes recourt aux caméras "intelligentes” pour détecter le port du masque
En 2020, Cannes a mis en place des caméras associées à des systèmes d'intelligence artificielle pour détecter le port du masque dans les transports en commun et trois marchés de la ville. C’est l’entreprise française Datakalab qui a fourni les outils.
❌Expérimentation stoppée à la suite de l’avertissement de la CNIL
❌Dispositif contraire au RGPD
Dans le dispositif souhaité, les passants pouvaient refuser d’être soumis aux analyses des caméras en faisant “non” de la tête. La CNIL a indiqué que cette modalité d’opposition n’était pas conforme aux dispositions du RGPD, car « peu praticable dans les faits », « difficilement généralisable », et « [faisant] porter une charge trop importante sur la personne » qui devait afficher publiquement son opposition au traitement. Elle a également souligné l’absence de base légale du dispositif.
Face à l’ampleur du déploiement des technologies de surveillance en France, une loi interdisant la reconnaissance faciale à des fins d’identification est nécessaire et urgente !
Katia Roux, chargée de plaidoyer technologies & droits humains à Amnesty International France
La liste de ces projets ou dispositifs de surveillance en France est non exhaustive. D’autres villes comme Toulouse, Vannes, Strasbourg seraient dotées de tels outils et d’autres projets encore inconnus sont peut-être en train d’être développés. Retrouvez ici une carte interactive du collectif Technopolice listant les expérimentations de technologies de surveillance en France.
L’intérêt des autorités françaises pour ces technologies de surveillance n’est plus à démontrer. Et il nous préoccupe. Pour prévenir un basculement vers une surveillance généralisée en France, nous demandons, dès maintenant, l’adoption d’une loi visant à interdire la reconnaissance faciale à des fins d’identification dans l’espace public. Seule une interdiction totale de la reconnaissance faciale, sans exception, permettra de garantir nos droits fondamentaux.
Dites non à la reconnaissance faciale en France !
Agissez avant que la reconnaissance faciale devienne une réalité en France en signant notre pétition.
Votre signature va permettre d'appuyer le travail de plaidoyer effectué auprès des député·es pour qu'une loi interdisant l'utilisation de la reconnaissance faciale soit déposée à l'Assemblée nationale.