Outils de pointe de reconnaissance faciale, logiciels espions extrêmement intrusifs, surpuissance des algorithmes sur les réseaux sociaux… les technologies ne cessent de se développer. Or, elles se déploient souvent au détriment des droits. Retour sur nos enquêtes clés qui dénoncent les menaces des technologies sur nos droits humains. Des enquêtes essentielles car elles contribuent à établir les faits et les responsabilités et à alerter sur la nécessité de réglementer l’usage de ces outils.
L’année 2023 a marqué un tournant en termes d’innovation technologique notamment avec l’arrivée de ChatGPT-4 et d’autres outils d’intelligence artificielle. Des outils qui nous ont précipité vers le futur en dehors de tout cadre juridique.
L'enjeu de la réglementation de ces technologies est d'autant plus important que 2024 est une année électorale majeure avec les élections européennes ou encore l'élection présidentielle américaine.
Les technologies peuvent porter gravement atteinte à nos droits fondamentaux. Des dangers que nous documentons et dénonçons. Il appartient aux États, comme aux entreprises du secteur, de prévenir de telles atteintes. Dans le cadre de la sortie de notre rapport annuel, retour sur quatre enquêtes phares de 2023 qui ont permis d'alerter sur les dangers des technologies et d'obtenir des avancées majeures dans la protection de nos droits.
Mher Hakobyan travaille chez Amnesty International depuis un an et demi en tant que conseiller pour le plaidoyer dans le domaine de la réglementation de l’intelligence artificielle. Il fait partie de notre équipe de chercheurs du programme Amnesty Tech. Il nous raconte son travail et son combat pour parvenir à réglementer un secteur en pleine expansion : l’intelligence artificielle.
En quoi consiste votre travail ?
Mon rôle consiste à indiquer aux personnes chargées des négociations quelles sont les positions d’Amnesty International et surtout, les convaincre que les droits humains doivent être la priorité absolue dans le texte de loi.
Quel a été l’événement le plus marquant de l’année dans votre travail ?
J’ai été missionné pour travailler essentiellement sur la loi sur l’intelligence artificielle de l’Union européenne dite AI Act. Cette loi est considérée comme le premier cadre réglementaire exhaustif au monde relatif à l’intelligence artificielle. J’ai donc œuvré pour que ce texte place le plus possible les droits humains au cœur.
Mais cela a fini avec une énorme déception parce que la version finale du texte de loi sur laquelle les États membres et l’UE se sont mis d’accord a été très fortement édulcorée et affaiblie en ce qui concerne la protection des droits humains. Cela est largement dû au fait que les États membres ont fait pression pour reléguer au second plan la protection cruciale des personnes au profit des entreprises technologiques et en laissant des pouvoirs quasiment illimités aux forces de l’ordre.
L’année a donc été assez compliquée mais cela a aussi été très motivant de travailler avec une formidable coalition de la société civile et avec autant de gens passionnés qui se battent pour un avenir meilleur en Europe et dans le reste du monde.
Vous qui avez été au plus près des négociations de la loi européenne sur l’intelligence artificielle, qu’est-ce qui vous a le plus surpris ?
Ce qui m’a le plus frappé et inquiété, c’est de voir certains individus représentant des États membres avancer que loi sur l’intelligence artificielle allait restreindre l’aptitude des services chargés de l’application des lois à lutter contre la criminalité. Certains avançaient que les garanties cruciales concernant les droits humains qui sont nécessaires dans la loi sur l’intelligence artificielle gêneraient le travail des forces de l’ordre.
Ce genre d’arguments est dangereux. Ils conduisent à affaiblir les protections pourtant essentielles des droits fondamentaux et à accorder des pouvoirs illimités aux autorités des services des forces de l’ordre, de la sécurité nationale et des migrations.
En tant qu’expert, quel est selon vous le plus grand défi à relever concernant l’intelligence artificielle ?
Je pense que le grand défi à relever dans les années à venir sera d’amener les autorités et les entreprises privées à rendre des comptes par rapport à leur utilisation, dans une large mesure en l’absence de transparence et de contrôle publics, des technologies d’intelligence artificielle.
Quelles sont vos attentes pour l’avenir ?
Mon espoir pour les années à venir, c’est de voir les gens nous apporter leur soutien pour les actions visant à ce que les entreprises et les autorités publiques rendent des comptes.
Quant aux pays hors UE, j’espère qu’ils ne feront pas les mêmes erreurs que l’UE concernant l’adoption de lois sur l’intelligence artificielle. J’espère qu’ils vont accorder la priorité aux droits et aux intérêts des personnes et qu’ils ne vont pas céder aux pressions du lobbying des entreprises et aussi à leur propre soif de pouvoir.
Les dangers de la reconnaissance faciale
Enquête 1 : l’utilisation de la reconnaissance faciale par Israël contre la population palestinienne
Notre enquête a révélé qu'en Israël, l’armée israélienne utilisait des technologies de reconnaissance faciale à Jérusalem-est et à Hébron pour renforcer son contrôle sur les Palestiniens. Le logiciel : « Red Wolf », un outil de pointe qui permet d’identifier un Palestinien en scannant simplement son visage. Il est utilisé aux points de contrôle militaire pour le passage des Palestiniens. Mais ce n’est pas tout. A Jérusalem-est, nos chercheurs ont révélé un réseau tentaculaire de surveillance plaçant les Palestiniens sous surveillance permanente.

Vue sur le Dôme du Rocher et la vieille ville de Jérusalem, à droite de l'image, une caméra de vidéo surveillance / © Emmanuele Contini via AFP
Quel impact a eu notre enquête ?
Notre enquête « Apartheid automatisé » a permis de révéler comment le système de surveillance déployé par les autorités israéliennes contribuait à maintenir le système d’apartheid. Cette enquête s'inscrit dans notre série de recherches « Ban The Scan » qui a pour objectif d'informer et d'alerter et sur les dangers que représentent les technologies de reconnaissance faciale sur nos droits humains. Elle amène donc également de nouveaux faits pour appuyer notre demande auprès des Nations unis quant à l’interdiction du développement, de la vente et de l’utilisation des technologies de reconnaissance faciale. Car les dérives sont bien trop importantes.
La reconnaissance faciale : une menace pour nos droits
La reconnaissance faciale utilisée pour identifier des personnes dans une foule est une forme de surveillance de masse et constitue, à ce titre, une violation du droit à la vie privée. La reconnaissance faciale est souvent utilisée pour cibler délibérément un groupe de personne. Les révélations de notre enquête sur l’utilisation de la reconnaissance faciale par l’armée israélienne a montré que la technologie était utilisée pour cibler délibérément la population palestinienne. Une technologie qui porte atteinte au droit à l’égalité et à la non-discrimination et menace les libertés fondamentales.
Les effets dévastateurs de Tiktok
Enquête 2 : les dangers des algorithmes de Tiktok sur la santé mentale des jeunes
Nos chercheurs et chercheuses ont analysé les algorithmes de Tiktok. Leur conclusion : en amplifiant certains contenus néfastes ils plongent les jeunes et les enfants dans des « spirales » de contenus toxiques, pouvant aller jusqu’à encourager les idées suicidaires. Tiktok, en visant à maximiser l’engagement et le temps passé sur la plateforme, porte atteinte aux droits des enfants. Notre enquête s’est fondée sur une analyse technique de la plateforme, sur l’étude du modèle économique de Tiktok, sur de nombreux témoignages de jeunes de 13 à 17 ans ainsi que sur l’expertise de psychologues.
Signez notre pétition pour que Tiktok soit plus sûr pour les jeunes

Quel impact a eu notre enquête ?
Notre enquête a eu un fort écho dans la presse qui a notamment permis de renforcer le travail de nos chargés de plaidoyer qui œuvrent à ce que ces plateformes soient davantage encadrées. Résultat : le 19 février 2024, la Commission européenne a ouvert une enquête sur Tiktok pour des manquements présumés en matière de protection des mineurs. La Commission va chercher à déterminer si Tiktok enfreint le règlement européen sur les services numériques (DSA). En plus d’informer et d’alerter, nos enquêtes sont aussi là pour faire avancer la régulation des grandes plateformes du numériques.
Le Sénat américain a auditionné les dirigeants des géants des réseaux sociaux comme Meta et Tiktok sur leur responsabilité et les dangers de ces plateformes pour les jeunes. Lors de son audition, Mark Zukerberg, dirigeant de Meta (groupe qui détient Facebook) a uniquement déclaré qu’il « était désolé » face aux familles d’enfants qui ont souffert de dépression voir qui se sont suicidés, notamment à cause des algorithmes.
La responsabilité de Meta dans les conflits
Enquête 3 : les algorithmes de Facebook ont contribué à de graves violations dans le conflit en Ethiopie
Notre enquête révèle que Meta - le groupe de Facebook - a contribué à de graves violations envers la population tigréenne. En cause : ses algorithmes qui amplifient les messages incendiaires, voire qui prônent la haine. A cause de la propagation de ces contenus sur le réseau social, des Tigréens et Tigréennes ont été pris pour cible lors du conflit armé qui fait rage dans le nord de l’Éthiopie. Meta a sa part de responsabilité.

Quel impact a eu notre enquête ?
Notre enquête a permis de démontrer la responsabilité et les obligations de Meta concernant les graves violations des droits humains. Cette enquête n’est pas la première que nous réalisons sur la responsabilité de Meta dans des conflits. En 2022, nous avons publié une enquête sur la responsabilité de Meta dans le nettoyage ethnique des Rohingyas au Myanmar. Cette enquête a notamment permis de soutenir la mobilisation de jeunes Rohingyas qui se battent pour obtenir des réparations de la part de Meta.
Lire aussi : Comment Amnesty accompagne Sawyeddollah, jeune réfugié Rohingya dans son combat contre Meta
Signez notre pétition pour soutenir Sawyeddollah dans son combat
Meta, Tiktok, Google : comment les géants technologiques impactent nos droits
L'un des problèmes majeurs de ces géants technologiques, c'est leur modèle d’activité basé sur l'engagement à tout prix. Ce modèle peut avoir des conséquences néfastes et dévastatrices sur nos droits humains, notamment sur les droits des enfants. Il s’agit d’un modèle intrinsèquement abusif visant à conserver l'attention du public afin de collecter toujours plus de données personnelles. De plus, les plateformes de réseaux sociaux peuvent servir de caisse de résonnance à la propagation de contenus haineux. Les entreprises doivent donc prendre leur responsabilité pour protéger les droits humains.
Les ravages de la surveillance ciblée
Enquête 4 : “Dans les mailles de Predator” ou comment un logiciel espion européen a été vendu à des pays autoritaires pour surveiller illégalement des personnalités ?
Nous avons apporté notre expertise technique à une enquête accablante de 15 médias européens, dont Mediapart, qui plonge dans les mailles d’un logiciel espion européen appelé Predator. Les révélations : un réseau d’entreprises, dont une française, aurait contourné la législation européenne pour vendre ses armes numériques à des États autoritaires. Le logiciel Predator aurait été vendu dans des pays qui l'auraient utilisé pour porter atteinte aux droits humains.
En parallèle à l’enquête des journalistes, nos experts ont mené de façon indépendante leurs propres recherches révélant comment des attaques contre des membre de la société civile ont été menées via le logiciel espion Predator sur les réseaux sociaux.

Quel impact a eu notre enquête ?
Au lendemain des révélations des « Predator Files », le Parlement européen a adopté, en novembre 2023, une résolution critiquant l’absence de mesures visant à limiter les atteintes commises par le secteur des logiciels espions. Cette résolution est venue s’ajouter à d’autres, notamment une déclaration de 11 États prononcée en mars 2023 qui reconnaît les menaces que représentent les logiciels espions sur le plan des droits humains. Cela montre que certains responsables politiques commencent à agir.
La surveillance ciblée : l'arme numérique
Les logiciels espions sont devenus de vraies armes numériques portant atteinte à nos droits fondamentaux. Une véritable culture de l’impunité s’est développée dans ce secteur opaque et hors contrôle.. Les Etats qui utilisent des logiciels espions le justifient souvent en invoquant un outil de "lutte contre le terrorisme". Or, parmi les personnes visées par les logiciels espions se trouvent de nombreux militants des droits humains, journalistes et opposants politiques. L’utilisation d’un logiciel espion pour cibler des membres de la société civile est illégal et porte atteinte à de nombreux droits humains, notamment le droit à la vie privée et les droits aux libertés d’expression, de réunion pacifique et d’association.
Les avancées technologiques ne peuvent se faire au détriment de nos droits fondamentaux. Nous continuerons d'alerter, d'enquêter, de faire campagne. Nous continuerons de nous mobiliser pour obtenir des réglementation protectrices de nos droits et amener les géants du numérique et les gouvernements à rendre des comptes. Car les technologies ne peuvent être déployées qu’avec de solides garanties en matière de droits humains.