La vidéosurveillance algorithmique arrive bientôt en France. Un dispositif inquiétant mais rendu légal par la loi JO 2024.
Si vous assistez à la Coupe du monde de rugby, profitez-en car c’est peut-être la dernière fois que vous regarderez un match sans être surveillé.es via intelligence artificielle. En vue des JO 2024, la France a légalisé la vidéosurveillance algorithmique. Une première au sein de l’Union européenne.
Votée en procédure accélérée en mai 2023, la loi relative aux Jeux Olympiques et Paralympiques de 2024 prévoit l’utilisation de « caméras augmentées » dans l’espace public à titre expérimental.
La nouveauté avec cette loi : des caméras vont être assistées par l’intelligence artificielle, ce sont donc des algorithmes qui vont identifier des situations dites « anormales ». Or, comment définir ce qui est la norme ? Comment s’assurer que l’algorithme ne va pas cibler des groupes déjà marginalisés ? Comment être sûr que des mesures dites d’ « exception » ne vont pas se pérenniser ? Une loi qui pose problème.
Lire aussi : En quoi la vidéosurveillance algorithmique de la loi JO2024 est contraire au droit international
Vos mouvements analysés par des algorithmes
Avec la loi JO 2024, marcher à contresens aux abords d’un stade parce que vous rejoignez vos amis pourrait désormais faire de vous une personne suspecte.
Ce qui aura analysé votre mouvement : un algorithme. Ce nouveau dispositif soulève des enjeux nouveaux et préoccupants en matière de respect de la vie privée et de liberté d’expression. Ces outils d’analyse d’images peuvent conduire à une collecte massive de données personnelles et permettre une surveillance automatisée et disproportionnée de l’espace public. Il s’agit d’un véritable tournant qui ouvre la voie à l’utilisation de technologies toujours plus intrusives.
Par ailleurs, se penser ou se savoir surveillés peut également amener les personnes à modifier leur comportements ou s’auto-censurer.
Des biais discriminatoires
Les algorithmes étant entrainés par des humains, ces technologies ne sont pas exemptes de biais discriminatoires, qui pourraient être amplifiés par l’automatisation de la surveillance. Détournées de leur usage initial, ces technologies risquent, à terme de cibler des groupes déjà marginalisés. Avec ces nouvelles technologies, les risques de discriminations sont réels.
Vers une France sous haute surveillance
Avec la loi JO 2024, la France devient le premier pays de l’Union européenne à légaliser la vidéosurveillance algorithmique. Evènement exceptionnel, mesures exceptionnelles, tente d’argumenter le gouvernement pour justifier la loi JO 2024 ; dispositif adopté à titre expérimental jusqu’en mars 2025 tente de rassurer le gouvernement. Or, si nous sommes inquiets, c’est parce que cette loi est représentative de la tendance inquiétante des autorités à étendre leurs pouvoirs de surveillance dans le cadre de mesures d’urgence prises au nom de la sécurité. Il est rare que ces mesures dites « d’exception » soient levées rapidement. En lieu et place, les mesures de surveillance et de contrôle deviennent la norme.
Les Jeux Olympiques ont déjà servi de terrain d’expérimentation pour doter les Etats de pouvoirs renforcés, ensuite maintenus lorsque la situation d’exception prend fin. Ces exemples suffisent à justifier nos craintes de voir l’utilisation de la vidéosurveillance algorithmique perdurer au-delà de 2025. Ce qui faut craindre, en France, l’établissement d’une surveillance généralisée.
La décision de la France d’autoriser à titre « expérimental » la surveillance assistée par intelligence artificielle pendant les Jeux olympiques de 2024 risque d’établir un précédent alarmant pour les droits humains. Garantir la sécurité ne peut se faire au détriment des droits et des libertés fondamentales.
La France ne doit pas devenir la championne de la surveillance de masse
Expérimentations de la reconnaissance faciale dans plusieurs villes, utilisation des drones pendant les manifestations et maintenant vidéosurveillance algorithmique... En France, la surveillance gagne du terrain.
Pour agir, signez notre pétition.