Les 10 et 11 février 2025, la France a accueilli le Sommet mondial sur l’Intelligence Artificielle (IA). Au programme : une vitrine sur l’avenir qui n’a pas exposé les dangers de l’IA. Bien que ces technologies offrent des avancées dans plusieurs domaines dont celui de la médecine, elles présentent aussi des menaces pour les droits humains. Avec plusieurs organisations de la société civile, nous listons ici les dangers de l’IA, absents du sommet.
En organisant à Paris le sommet mondial sur l’Intelligence artificielle (IA), Emmanuel Macron souhaitait que « la France ne passe pas à côté de cette révolution. » Sous couvert d’innovation, c’est la course à la productivité et au profit qui est en jeu. Au rythme foudroyant à laquelle l'IA se développe, les dirigeants ne semblent pas pressés de réfléchir aux enjeux humains, sociaux et environnementaux que posent ces nouvelles technologies. Pourtant, l’un des plus grands enjeux est là.
Développer l’IA pour continuer d’obtenir des avancées majeures dans des domaines comme la médecine oui, mais développer l’IA en mettant en péril des droits, non. Les droits humains et la justice environnementale doivent être placés au cœur de la régulation de l’intelligence artificielle.
Lire aussi : Comment réglementer l'intelligence artificielle ?
Et parce que les dangers de l’IA ne figureront pas au programme officiel du Sommet mondial, nous vous les rappelons ici.
1. L'IA perpétue le racisme
Pour fonctionner, l'IA s’appuie sur des bases de données qui intègre les préjugés et biais des personnes qui l'ont créé. L’IA perpétue donc les stéréotypes et accentue les discriminations déjà existantes.
➡️Aux États-Unis, la police utilise une IA pour prédire la récidive criminelle. C’est le fait qu’une personne accusée va potentiellement commettre un nouveau un délit. Cette IA cible deux fois plus les accusés Noirs que les accusés Blancs.
2. L’IA accentue le sexisme
L’intelligence artificielle s’impose comme un miroir de nos sociétés : elle reflète, aussi, ses biais et accentue les inégalités de genre.
➡️En Autriche, des algorithmes utilisés dans des outils d'accès à l'emploi ont écarté les femmes des secteurs informatique.
3. L'IA permet la cybercriminalité
Les montages perçus les plus crédibles générés par IA sont un réel danger pour les femmes et les enfants.
➡️Les deepfakes sont massivement utilisés dans le but de nuire aux femmes et de générer des contenus pédocriminels.
4. L'IA impacte la planète
➡️D’ici 2027, l'IA générative nécessitera une alimentation en électricité équivalente à celle de l’Argentine, cinq fois la France en superficie.
Les pays du Sud sont les premiers impactés par les ravages écologiques de l’IA : les data center y pullulent, l’extraction de minerais comme le cobalt (utilisé pour la fabrication des batteries) met en péril la santé des populations et entraîne la pollution des eaux et des terres.
Les émissions de CO2 des "géants de la Tech” ont augmenté de 30 à 50% en 2024 suite au développement fulgurant de l’intelligence artificielle.
5. L'IA désinforme
Beaucoup d’outils d’intelligence artificielle permettent et participent à la désinformation :
➡️Des « bots », ces robots qui imitent l'activité humaine sur les réseaux sociaux pour manipuler l’information, en spammant du contenu, en renforçant la notoriété de comptes ou en diffusant de fausses informations.
➡️Montage photo généré par l’IA. Lors de la campagne américaine, Donald Trump a relayé une photo générée par IA montrant Kamala Harris de dos en leader communiste face à une foule de partisans. Une image vue 82 millions de fois.
➡️Les deepfakes, ces fausses vidéos de célébrité qui prolifèrent sur les réseaux sociaux, outil notamment utilisé lors de campagnes présidentielles pour attribuer de faux propos aux candidats en lice.
À la vitesse laquelle se développe l’IA, il va devenir de plus en plus difficile de déceler le vrai du faux.
6. L’IA surveille
Les systèmes d’IA sont aussi utilisés à des fins de surveillance contre certaines populations. En témoigne les pratiques de la Chine, dotées d’outils dopées à l’IA pour surveiller la population ouïghoure. Et bien souvent, ces technologies sont développées par les pays occidentaux.
➡️L’IA est d’ailleurs déjà utilisée aux frontières européennes à des fins de surveillance contre les personnes exilées. Parmi les outils : des détecteurs de mensonge et d’émotions sont utilisés pour contrôler les frontières. Baptisé iBorderCtrl, le projet est financé par l’Union européenne et déjà testé dans 3 pays : Hongrie, Grèce et Lettonie.
7. L'IA peut tuer
L’IA, c’est aussi ça : des drones et autres armes sophistiquées capables de choisir leurs propres cibles et de les attaquer sans contrôle humain. Des robots-tueurs, décidant via leurs algorithmes de qui vit et de qui meurt, se développent et se vendent déjà sur le marché.
➡️À Gaza, l'armée israélienne a utilisé une IA appelée Lavender, censée cibler des terroristes mais qui ont provoqué la mort de milliers de civils gazaouis.
Nos rapports sur les risques de l’IA sur les droits
Risque 1 : la surveillance va se généraliser et être discriminatoire
Les États ont notamment de plus en plus recours aux technologies assisté par IA comme aide au maintien de l’ordre lors de manifestations et d’événements sportifs ou contre des populations marginalisées, en particulier des personnes migrantes ou réfugiées. Ces outils ont la capacité d’identifier, de suivre, de distinguer et de repérer des personnes, compromettant ainsi leurs droits à la vie privée, aux libertés d’expression et de réunion pacifique, à l’égalité et à la non-discrimination.
Lire aussi : Reconnaissance faciale : les expérimentations en France
Voir : La France à l'heure de la reconnaissance faciale
Risque 2 : les services publics vont s’automatiser
La dématérialisation de la protection sociale fait peser de multiples risques sur les droits humains et peut exacerber les inégalités. Nos derniers rapports ont démontré que les systèmes de protection sociale assistés par IA alimentent entraînent une discrimination des groupes marginalisés. En France, la Caisse nationale des allocations familiales utiliser un algorithme discriminatoire ciblant les personnes les plus précaires.
Lire aussi : En France, l'algorithme de la Caisse nationale des allocations familiales cible les plus précaires
Lire aussi : Danemark, Pays-Bas, Serbie : les dessous des algorithmes des services de protection sociale
Risque 3 : Les algorithmes vont promouvoir de plus en plus de contenus toxiques, haineux, faux
La dépendance de plus en plus forte que les réseaux sociaux exercent sur nos vies a permis aux entreprises de suivre tous nos faits et gestes, d’épier nos comportements pour leur profit.
Nos recherches mettent en lumière les atteintes dont sont notamment victimes les enfants et les jeunes qui utilisent TikTok. En cause : les algorithmes surpuissants de la plateforme qui amplifient certains contenus néfastes et plongent les jeunes dans des « spirales » de contenus toxiques, pouvant aller jusqu’à encourager les idées suicidaires.
Un système qui incitation à la violence, à la diffusion de contenus haineux et au harcèlement en ligne. Nous l’avons documenté dans le contexte du conflit à Gaza, contre les Rohingya au Myanmar et contre la communauté tigréenne en Éthiopie.
Lire aussi : TikTok : un modèle dangereux pour la santé mentale des jeunes et des enfants
Lire aussi : Facebook a contribué au nettoyage ethnique des Rohingyas
Risque 4 : Les robots-tueurs vont se développer
Des armes sont aujourd’hui capables, seules, sans intervention humaine, d'attaquer des cibles. Capables de décider de qui vit et de qui meurt. Une machine ne devrait pas pouvoir décider de la vie ou la mort d’une personne. Des négociations pour faire évoluer le droit international sur la question de l’autonomie des systèmes d’armes sont essentielles. Car c’est un ensemble de droit qui est menacé par ces armes autonomes.
Lire aussi : Armes autonomes : des normes contraignantes sont nécessaires d’urgence
Nos gouvernements ne cessent de parler de souveraineté de l’IA, mais les défis posés par ces systèmes transcendent les frontières. Loin d’être un sujet technologique, l’IA est l’affaire de toutes et tous. Tout le monde doit pouvoir choisir la direction de ses développements, quitte à les refuser s’ils ne correspondent pas à notre projet de société. Un cadre contraignant élaboré démocratiquement, dans une perspective de solidarité internationale et avec les communautés les plus impactées, qui place les droits humains et la justice environnementale au cœur de la régulation de l’IA, voilà le véritable progrès.
Dites non à la reconnaissance faciale en France !
De nombreux systèmes de surveillance sont expérimentés en France. Agissez avant que la reconnaissance faciale devienne une réalité en France en signant notre pétition.