Aller au contenu
Agir
Faire un don
ou montant libre :
/mois
Grâce à la réduction d'impôts de 66%, votre don ne vous coûtera que : 5,1 €/mois
URGENCE PROCHE ORIENT

 Exigez avec nous la justice pour toutes les victimes et la protection sans condition des populations civiles

© Getty Images

Comment réglementer l'intelligence artificielle ?

L’IA s’impose comme un nouveau champ de bataille économique, social et politique. Les géants américains de la Tech développent bien souvent leurs activités en dehors de tout contrôle. Et parce que l’IA se déploie à une vitesse exponentielle, elle fait peser des menaces grandissantes sur nos droits fondamentaux. Face à cela, quelles législations sont déjà en œuvre ? Quelles sont leurs limites ? Pourquoi la réglementation s’impose-t-elle comme une urgence ?

L'AI Act : première législation sur l'IA

L'Artificial Intelligence Act (AI Act), porté par l’Union européenne (UE), est la première réglementation de l’intelligence artificielle. Elle a été adoptée dans sa version finale en 2024, à l’unanimité, par les États membres de l’UE. Une règlementation historique puisque c'est le premier texte au monde visant à encadrer l’utilisation et le développement de systèmes d’IA au regard des risques qu’ils font peser sur nos droits fondamentaux. 

✅ Ce qui va dans le bon sens

En se dotant de la première législation mondiale sur le sujet de l’IA, l’Union européenne s’inscrit dans la bonne voie. Bien que la mise en œuvre du texte ne soit encore pas complète, ses premières mesures sont déjà entrées en vigueur le 2 février 2025, les autres vont se déployer en plusieurs phases jusqu’en 2027.

Parmi les éléments positifs du texte :

🟢L’AI Act prévoit des évaluations de l’impact sur les droits fondamentaux.

🟢L’AI Act prévoit des recours en matière de plaintes et de réparations pour les personnes affectées. 

🟢L’AI Act interdit déjà des utilisations de l’IA comme les logiciels de « notation sociale », privés ou publics, comme ceux utilisés par la Chine.

🚫Ce qui ne va pas assez loin

Le règlement européen sur l’IA reste imparfait et le texte présente encore plusieurs failles, pour lesquelles la France s’est notamment mobilisée, ce qui in fine, affaiblit la portée du texte.

Bien que l’AI Act ait interdit les utilisations d’IA jugées « inacceptables », le texte permet des exceptions. Par exemple, les IA de « police prédictive » visant à « profiler » des personnes en estimant leur probabilité de commettre une infraction, ont été interdites par l’AI Act mais il y a des domaines où elle pourra être déployée.

Parmi les failles de l'AI Act, en voici certaines :

🔴La reconnaissance faciale partiellement interdite 

L’AI Act ouvre aussi la voie à la légalisation de certains usages spécifiques de la reconnaissance faciale en temps réel. C’est une première dans l’UE, et cela en dépit de nos alertes démontrant que le recours à ces systèmes dans l’espace public est une violation des droits et des libertés.

La France a activement milité pour que certaines pratiques comme la reconnaissance faciale en temps réel soient permises par l’AI Act, selon une enquête de Disclose.

Lire aussi : En France, les expérimentations de surveillance se multiplie

➡️Le signal envoyé est inquiétant et témoigne d’une volonté claire de certains États d’affaiblir la portée du texte.

🔴L'IA autorisée aux frontières pour surveiller les personnes exilées 

L’AI Act interdit la « reconnaissance des émotions » et la « catégorisation biométrique » sur les lieux de travail et dans les établissements scolaires. Or, leur utilisation par les forces de l’ordre et les autorités en charge du contrôle de l’immigration est autorisée. L’AI Act permet aux États de tester et d’utiliser des technologies de surveillance dangereuses aux frontières de l’UE. Aucune des interdictions énoncées dans l'AI Act ne s’applique réellement au contexte migratoire.

Lire aussi : 5 outils numériques utilisés aux frontières contre les personnes exilées

➡️Cette différence montre que l’UE est prête à tester des systèmes de surveillance abusifs sur les populations les plus marginalisées de la société. 

🔴Une réglementation applicable seulement au sein de l'UE 

L’AI Act s’applique uniquement au sein de l’UE. Or, les dangers de l’IA dépassent les frontières. Le texte ne protège donc pas suffisamment les droits et les libertés. Pourtant, les menaces et risques que l’IA fait peser sur les droits et l’environnement sont systémiques, globaux, et les profits vont essentiellement aux pays du Nord.

🔴Le secteur privé dicte ses règles 

L’AI Act classe les technologies de l’IA selon différents niveaux de risques :

Risque inacceptable

Risque élevé

Risque de transparence

Risque minimal ou nul

Or, les fournisseurs de systèmes à risque élevé pourront eux-mêmes décider si leur outil doit être considéré comme présentant, oui ou non, un risque élevé. Et ce, suite à un travail de pression intense mené par le secteur privé. Ce qui révèle une nouvelle faille de l’AI Act. 

Lire aussi : Intelligence artificielle, les 7 dangers dont on ne parle pas

C’est quoi le Digital Services Act ?

Avant l'AI Act, l'Union européenne a également adopté une autre réglementation historique, le Digital Services Act (DSA). Cette Loi sur les services numériques, adoptée en 2023, comprend de nouvelles règles qui obligent les plateformes des géants technologiques à évaluer et gérer les risques systémiques posés par leurs services, tels que l’incitation à la haine et la diffusion de fausses informations. Si les plateformes ne respectent pas le DSA, elles risquent jusqu’à 6 % d’amende de leur chiffre d’affaires mondial, voire l’interdiction de leurs activités sur le marché européen. 

Innovation vs réglementation : la fausse dichotomie

Le retour de Donald Trump à la présidence des États-Unis s’est accompagné d’annonces fracassantes des dirigeants américains de la Tech (X, Meta, Amazon, Apple…) qui l’ont rallié. Leur volonté est claire : dérèglementer les usages des nouvelles technologies pour favoriser l’innovation et le progrès. 

L’opposition entre innovation et réglementation est une fausse dichotomie que les entreprises technologiques colportent depuis des années pour se soustraire à leur obligation de rendre des comptes et à une réglementation contraignante.

Agnès Callamard, secrétaire générale d’Amnesty International 

Cette offensive portée par la nouvelle administration américaine et par les géants de la Silicon Valley intervient alors que le déploiement à grande vitesse de l’IA fait peser des menaces exponentielles sur nos droits fondamentaux, notamment en restreignant nos libertés ou en renforçant des discriminations existantes.

Lire aussi : Intelligence artificielle : robots tueurs de droits

Loin de freiner l'innovation, réguler c’est s’assurer que les grands principes de protection de droits ne seront pas piétinés. Réguler, c’est permettre à l’IA de correspondre à un projet de société fondé sur la justice, le respect des droits humains et de l’environnement. Le voici le véritable progrès.  

Lire aussi : « L’IA telle qu’elle est développée alimente un système d’exploitation global » notre appel signé par une centaine d’ONG 

Une réglementation audacieuse : l'urgence collective

Alors que certains usages de l’IA montrent déjà l'impact délétère qu’elle peut avoir sur nos libertés et droits fondamentaux, l’emballement des innovations et applications, associé aux attaques contre toute réglementation du secteur par des géants de la Tech, montre l’urgence de réguler le secteur.

La société OpenAI a rémunéré des Kenyans moins de deux dollars de l’heure pour labelliser des contenus toxiques, selon les informations du magazine Time, un travail particulièrement violent et éprouvant.

Réguler correctement l’IA passe aussi par une participation concrète des populations concernées.

Les systèmes d’IA sont majoritairement entraînés par des personnes travaillant dans des pays du Sud, exploitées et sous-payées.

Rappelons aussi que les géants du numérique allouent plus de moyens aux pays du Nord privilégient ainsi des langues et récits culturels déjà dominants. 

Si les États veulent vraiment adopter une approche ouverte, multilatérale et inclusive quant au développement, au déploiement et à la réglementation des technologies de l’IA, ils doivent amplifier les voix et les priorités des populations touchées et les placer au centre de leurs préoccupations.

Damini Satija, Directrice Amnesty Tech 

Quels sont nos trois objectifs ?

Pour que la technologie accorde une place centrale aux personnes et aux droits humains, nous nous sommes fixés chez Amnesty International trois objectifs principaux :

• Réorganiser Internet pour que les personnes et les droits humains occupent une place prépondérante, en veillant à ce que les géants technologiques soient soumis à une réglementation qui protège efficacement les droits fondamentaux, et à ce que les entreprises en général soient plus transparentes et plus responsables.

• Résister à une utilisation de la technologie qui vise à réduire au silence les militant·e·s, en empêchant la surveillance illégale, la censure et les coupures de l’accès à Internet.

• Réécrire le code de façon à protéger les droits humains, en faisant en sorte que la discrimination et les préjugés ne soient plus programmés dans les algorithmes qui prennent des décisions susceptibles de changer des vies. 

À l’ère du tout-numérique et de l’explosion de l’IA, qui impacte déjà nos vies et nos sociétés, le combat pour préserver nos droits fondamentaux et promouvoir les droits humains est essentielle. C’est le combat que nous mènerons.

Agir

Dites non à la reconnaissance faciale en France !

De nombreux systèmes de surveillance sont expérimentés en France. Agissez avant que la reconnaissance faciale devienne une réalité en France en signant notre pétition.