Aller au contenu
Agir
Faire un don
ou montant libre :
/mois
Grâce à la réduction d'impôts de 66%, votre don ne vous coûtera que : 5,1 €/mois
Caméras de vidéosurveillance à New-York, ville qui a recours à la reconnaissance faciale / Kena Betancur via Getty Images

Caméras de vidéosurveillance à New-York, ville qui a recours à la reconnaissance faciale / Kena Betancur via Getty Images

Intelligence artificielle, reconnaissance faciale, Tiktok : les dangers des nouvelles technologies sur nos droits

Outils de pointe de reconnaissance faciale, logiciels espions extrêmement intrusifs, surpuissance des algorithmes sur les réseaux sociaux… les technologies ne cessent de se développer. Or, elles se déploient souvent au détriment des droits. Retour sur nos enquêtes clés qui dénoncent les menaces des technologies sur nos droits humains. Des enquêtes essentielles car elles contribuent à établir les faits et les responsabilités et à alerter sur la nécessité de réglementer l’usage de ces outils.

L’année 2023 a marqué un tournant en termes d’innovation technologique notamment avec l’arrivée de ChatGPT-4 et d’autres outils d’intelligence artificielle. Des outils qui nous ont précipité vers le futur en dehors de tout cadre juridique.

L'enjeu de la réglementation de ces technologies est d'autant plus important que 2024 est une année électorale majeure avec les élections européennes ou encore l'élection présidentielle américaine.

Les technologies peuvent porter gravement atteinte à nos droits fondamentaux. Des dangers que nous documentons et dénonçons. Il appartient aux États, comme aux entreprises du secteur, de prévenir de telles atteintes. Dans le cadre de la sortie de notre rapport annuel, retour sur quatre enquêtes phares de 2023 qui ont permis d'alerter sur les dangers des technologies et d'obtenir des avancées majeures dans la protection de nos droits.

Les dangers de la reconnaissance faciale

Enquête 1 : l’utilisation de la reconnaissance faciale par Israël contre la population palestinienne

Notre enquête a révélé qu'en Israël, l’armée israélienne utilisait des technologies de reconnaissance faciale à Jérusalem-est et à Hébron pour renforcer son contrôle sur les Palestiniens. Le logiciel : « Red Wolf », un outil de pointe qui permet d’identifier un Palestinien en scannant simplement son visage. Il est utilisé aux points de contrôle militaire pour le passage des Palestiniens. Mais ce n’est pas tout. A Jérusalem-est, nos chercheurs ont révélé un réseau tentaculaire de surveillance plaçant les Palestiniens sous surveillance permanente.

Lire notre enquête

Vue sur le Dôme du Rocher et la vieille ville de Jérusalem, à droite de l'image, une caméra de vidéo surveillance / © Emmanuele Contini via AFP

Quel impact a eu notre enquête ?

Notre enquête « Apartheid automatisé » a permis de révéler comment le système de surveillance déployé par les autorités israéliennes contribuait à maintenir le système d’apartheid. Cette enquête s'inscrit dans notre série de recherches « Ban The Scan » qui a pour objectif d'informer et d'alerter et sur les dangers que représentent les technologies de reconnaissance faciale sur nos droits humains. Elle amène donc également de nouveaux faits pour appuyer notre demande auprès des Nations unis quant à l’interdiction du développement, de la vente et de l’utilisation des technologies de reconnaissance faciale. Car les dérives sont bien trop importantes.  

La reconnaissance faciale : une menace pour nos droits 

La reconnaissance faciale utilisée pour identifier des personnes dans une foule est une forme de surveillance de masse et constitue, à ce titre, une violation du droit à la vie privée. La reconnaissance faciale est souvent utilisée pour cibler délibérément un groupe de personne. Les révélations de notre enquête sur l’utilisation de la reconnaissance faciale par l’armée israélienne a montré que la technologie était utilisée pour cibler délibérément la population palestinienne. Une technologie qui porte atteinte au droit à l’égalité et à la non-discrimination et menace les libertés fondamentales.

Dites non à la reconnaissance faciale en France !

Les effets dévastateurs de Tiktok

Enquête 2 : les dangers des algorithmes de Tiktok sur la santé mentale des jeunes

Nos chercheurs et chercheuses ont analysé les algorithmes de Tiktok. Leur conclusion : en amplifiant certains contenus néfastes ils plongent les jeunes et les enfants dans des « spirales » de contenus toxiques, pouvant aller jusqu’à encourager les idées suicidaires. Tiktok, en visant à maximiser l’engagement et le temps passé sur la plateforme, porte atteinte aux droits des enfants. Notre enquête s’est fondée sur une analyse technique de la plateforme, sur l’étude du modèle économique de Tiktok, sur  de nombreux témoignages de jeunes de 13 à 17 ans ainsi que sur l’expertise de psychologues.

Lire notre enquête

Signez notre pétition pour que Tiktok soit plus sûr pour les jeunes

Quel impact a eu notre enquête ?

Notre enquête a eu un fort écho dans la presse qui a notamment permis de renforcer le travail de nos chargés de plaidoyer qui œuvrent à ce que ces plateformes soient davantage encadrées. Résultat : le 19 février 2024, la Commission européenne a ouvert une enquête sur Tiktok pour des manquements présumés en matière de protection des mineurs. La Commission va chercher à déterminer si Tiktok enfreint le règlement européen sur les services numériques (DSA). En plus d’informer et d’alerter, nos enquêtes sont aussi là pour faire avancer la régulation des grandes plateformes du numériques.  

Le Sénat américain a auditionné les dirigeants des géants des réseaux sociaux comme Meta et Tiktok sur leur responsabilité et les dangers de ces plateformes pour les jeunes. Lors de son audition, Mark Zukerberg, dirigeant de Meta (groupe qui détient Facebook) a uniquement déclaré qu’il « était désolé » face aux familles d’enfants qui ont souffert de dépression voir qui se sont suicidés, notamment à cause des algorithmes.

La responsabilité de Meta dans les conflits 

Enquête 3 : les algorithmes de Facebook ont contribué à de graves violations dans le conflit en Ethiopie

Notre enquête révèle que Meta - le groupe de Facebook - a contribué à de graves violations envers la population tigréenne. En cause : ses algorithmes qui amplifient les messages incendiaires, voire qui prônent la haine. A cause de la propagation de ces contenus sur le réseau social, des Tigréens et Tigréennes ont été pris pour cible lors du conflit armé qui fait rage dans le nord de l’Éthiopie. Meta a sa part de responsabilité.

Lire notre enquête

Quel impact a eu notre enquête ?

Notre enquête a permis de démontrer la responsabilité et les obligations de Meta concernant les graves violations des droits humains. Cette enquête n’est pas la première que nous réalisons sur la responsabilité de Meta dans des conflits. En 2022, nous avons publié une enquête sur la responsabilité de Meta dans le nettoyage ethnique des Rohingyas au Myanmar. Cette enquête a notamment permis de soutenir la mobilisation de jeunes Rohingyas qui se battent pour obtenir des réparations de la part de Meta. 

Lire aussi : Comment Amnesty accompagne Sawyeddollah, jeune réfugié Rohingya dans son combat contre Meta

Signez notre pétition pour soutenir Sawyeddollah dans son combat

Meta, Tiktok, Google : comment les géants technologiques impactent nos droits

L'un des problèmes majeurs de ces géants technologiques, c'est leur modèle d’activité basé sur l'engagement à tout prix. Ce modèle peut avoir des conséquences néfastes et dévastatrices sur nos droits humains, notamment sur les droits des enfants. Il s’agit d’un modèle intrinsèquement abusif visant à conserver l'attention du public afin de collecter toujours plus de données personnelles. De plus, les plateformes de réseaux sociaux peuvent servir de caisse de résonnance à la propagation de contenus haineux. Les entreprises doivent donc prendre leur responsabilité pour protéger les droits humains.

Les ravages de la surveillance ciblée  

Enquête 4 : “Dans les mailles de Predator” ou comment un logiciel espion européen a été vendu à des pays autoritaires pour surveiller illégalement des personnalités ? 

Nous avons apporté notre expertise technique à une enquête accablante de 15 médias européens, dont Mediapart, qui plonge dans les mailles d’un logiciel espion européen appelé Predator. Les révélations : un réseau d’entreprises, dont une française, aurait contourné la législation européenne pour vendre ses armes numériques à des États autoritaires. Le logiciel Predator aurait été vendu dans des pays qui l'auraient utilisé pour porter atteinte aux droits humains. 

En parallèle à l’enquête des journalistes, nos experts ont mené de façon indépendante leurs propres recherches révélant comment des attaques contre des membre de la société civile ont été menées via le logiciel espion Predator sur les réseaux sociaux.

Lire notre enquête

Quel impact a eu notre enquête ?

Au lendemain des révélations des « Predator Files », le Parlement européen a adopté, en novembre 2023, une résolution critiquant l’absence de mesures visant à limiter les atteintes commises par le secteur des logiciels espions. Cette résolution est venue s’ajouter à d’autres, notamment une déclaration de 11 États prononcée en mars 2023 qui reconnaît les menaces que représentent les logiciels espions sur le plan des droits humains. Cela montre que certains responsables politiques commencent à agir.

La surveillance ciblée : l'arme numérique

Les logiciels espions sont devenus de vraies armes numériques portant atteinte à nos droits fondamentaux. Une véritable culture de l’impunité s’est développée dans ce secteur opaque et hors contrôle.. Les Etats qui utilisent des logiciels espions le justifient souvent en invoquant un outil de "lutte contre le terrorisme". Or, parmi les personnes visées par les logiciels espions se trouvent de nombreux militants des droits humains, journalistes et opposants politiques. L’utilisation d’un logiciel espion pour cibler des membres de la société civile est illégal et porte atteinte à de nombreux droits humains, notamment le droit à la vie privée et les droits aux libertés d’expression, de réunion pacifique et d’association.

Les avancées technologiques ne peuvent se faire au détriment de nos droits fondamentaux. Nous continuerons d'alerter, d'enquêter, de faire campagne. Nous continuerons de nous mobiliser pour obtenir des réglementation protectrices de nos droits et amener les géants du numérique et les gouvernements à rendre des comptes. Car les technologies ne peuvent être déployées qu’avec de solides garanties en matière de droits humains.