En 2021, Meareg Amare, un professeur tigréen est assassiné par un groupe d’hommes armés après la diffusion de messages hostiles sur Facebook. La plateforme a sa part de responsabilité. En cause : ses algorithmes qui amplifient les messages incendiaires, voire qui prônent la haine.
« Une condamnation à mort pour mon père. Comment Meta a contribué aux atteintes aux droits humains dans le nord de l’Éthiopie » : notre enquête révèle comment les algorithmes de Meta ont amplifié la diffusion de discours dangereux visant la population tigréenne et ainsi permis des abus à leur encontre. Les systèmes de modération des contenus de Facebook n’ont pas détecté les messages incitant à la violence et n’y ont pas réagi de manière appropriée. Laissant ces contenus se propager sur le réseau social, des Tigréen·ne·s ont été pris·es pour cible lors du conflit armé qui fait rage dans le nord de l’Éthiopie.
La diffusion massive de ces messages a donné lieu à des violences et à des discriminations à l’égard de la communauté tigréenne, jetant de l’huile sur le feu dans une situation déjà tumultueuse et marquée par d’importantes tensions ethniques.
Agnès Callamard, secrétaire générale d’Amnesty International
Si notre nouvelle enquête est accablante c’est aussi car ce n’est pas la première fois que Meta contribue à des violations des droits humains. En 2022 déjà, nous avions révélé que le géant américain avait contribué au nettoyage ethnique des Rohingya au Myanmar. À nouveau, nous dénonçons le modèle économique de Meta, basé sur l’engagement à tout prix, qui présente un véritable danger pour les droits humains, en particulier dans les zones de conflits.
Lire aussi : Neuf choses à savoir sur le conflit en Éthiopie
« Je savais que ce serait une condamnation à mort pour mon père »
Les défaillances de Meta sont telles qu’elles ont contribué à la commission de crimes. Le père d’Abrham, le professeur Meareg Amare, était un membre tigréen bien connu et très respecté de l’université de Bahir Dar. Il a été assassiné devant chez lui en novembre 2021 après que des messages le prenant pour cible ont été publiés sur Facebook.
Le 9 octobre 2021, une page Facebook anonyme appelée « BDU Staff », comptant plus de 50 000 abonnés, a publié sa photo, annonçant qu'il se « cachait » à l'université de Bahir Dar. Dans les commentaires, des personnes ont appelé à la violence contre lui. Le lendemain, un autre post a été publié dans le même groupe qui contenait cette fois la photo d’Amare et son adresse personnelle. Le message affirmait qu'il était un propriétaire corrompu et qu'il avait contribué aux incursions militaires du Front de libération du peuple du Tigré (TPLF) dans les zones voisines.
Je crois fermement que si Facebook avait supprimé simplement le contenu, s'il avait pris les rapports au sérieux, mon père serait en vie.
Abrham Meareg, fils du professeur Meareg Amare
Son fils, Abrham Meareg, affirme que ces messages hostiles publiés sur Facebook ont contribué à la mort de son père. Abrham avait pourtant signalé à plusieurs reprises à Facebook les messages de haine adressés à son père. Il n’a obtenu une réponse de Meta que le 11 novembre 2021, soit huit jours après la mort de son père.
Les failles de la modération de Meta en Éthiopie
En Éthiopie, 85 langues sont parlées. Et pourtant, Meta n’est capable de modérer que quatre d’entre elles. Cela témoigne de l'incapacité de l'entreprise à investir de manière adéquate dans la modération des contenus dans les pays ne parlant pas l'anglais.
Meta savait, Meta n’a rien fait
Un document interne de Meta datant de 2020 indique que « les stratégies d’atténuation actuelles ne sont pas suffisantes » pour empêcher la diffusion de contenus préjudiciables sur Facebook en Éthiopie.
Meta était donc consciente des faiblesses de ses mesures d’atténuation en Éthiopie et des risques que cela représentait dans un pays que l’entreprise elle-même considérait comme exposé à un risque élevé de violence.
Avant même le déclenchement du conflit dans le nord de l’Éthiopie, des organisations de la société civile avait sonné l’alerte en signalant à de nombreuses reprises que Meta risquait de contribuer à la violence dans le pays. Malgré ces alertes, Meta n’a rien fait.
*Gelila qui faisait partie du programme « Partenaire de confiance » de Meta – une initiative visant à fournir à des groupes de la société civile sélectionnés un canal dédié pour alerter Meta au sujet de tout contenu néfaste – a déclaré que l’absence de réaction de Facebook face aux alertes a aggravé la situation des droits humains dans le pays.
Ils réagissent avec une lenteur extrême. Ils ne sont pas sensibles à ce qu'on leur dit. Je pense que leurs normes sont très éloignées de ce qui se passe sur le terrain.
Gelila, membre du programme « Partenaire de confiance » de Meta
Le refus de Meta de retirer des contenus signalés ont amené de nombreuses personnes interrogées par Amnesty International à penser qu’il était inutile de signaler des contenus à l’entreprise.
Des messages qui prônent la haine encore en ligne
En juillet 2021, le Premier ministre éthiopien Abiy Ahmed avait publié un post sur Facebook qualifiant les forces tigréennes de "mauvaises herbes" et de "cancer". À l'heure où nous écrivons ces lignes, le message est toujours visible sur Facebook. Il a été partagé plus de 8 000 fois et a reçu des milliers de commentaires tels que : "Que l'ennemi soit détruit, que l'ennemi soit détruit. L'Éthiopie passera en premier".
Meta doit enfin proposer des solutions
Meta a la responsabilité de fournir un recours pour les violations des droits humains auxquelles elle a contribué, en Éthiopie et dans d’autres pays comme au Myanmar.
La quête de justice et de réparation permettra de s'assurer que des préjudices similaires ne se répètent pas ailleurs. Abrham Meare, le fils du professeur tigréen tué à la suite de messages hostiles postés sur Facebook, fait partie des personnes qui ont intenté un procès civil contre Meta en décembre 2022 concernant les effets dévastateurs de Facebook en Éthiopie.
L'action en justice – dont Amnesty International est partie prenante – soutient que Meta a encouragé des contenus qui ont conduit à des violences ethniques, des meurtres et d'autres crimes relevant du droit international en Éthiopie en utilisant un algorithme qui donne la priorité et recommande des contenus prônant la haine et incitant à la violence, à l'hostilité et à la discrimination.
Nos demandes à Meta
Reconnaître publiquement les contributions de Meta aux atteintes aux droits humains en Éthiopie et présenter des excuses aux personnes directement affectées par la propagation de l'appel à la haine sur la plateforme
S'engager à modifier fondamentalement le modèle commercial de Meta afin de s'assurer que ces préjudices ne se reproduiront plus à l'avenir.
Créer un fonds de restitution pour les victimes du conflit dans le nord de l'Éthiopie et pour les groupes d'autres régions touchées par des conflits dans le monde.
Le fait que Meta ait une nouvelle fois contribué à des atteintes aux droits humains est une preuve supplémentaire que son modèle économique, fondé sur la collecte de données, le profilage invasif et la publicité ciblée, alimente la diffusion de contenus préjudiciables. Nous le répétons une fois encore : le respect des droits humains doit être au cœur du modèle de développement de ce géant du numérique.