Aller au contenu
Agir
Faire un don
ou montant libre :
/mois
Grâce à la réduction d'impôts de 66%, votre don ne vous coûtera que : 5,1 €/mois
URGENCE PROCHE ORIENT

 Exigez avec nous la justice pour toutes les victimes et la protection sans condition des populations civiles

Espace journalistes

Contact presse

Pour toute demande d'interview ou recevoir nos communiqués de presse :

+33 1 53 38 66 00

+33 6 76 94 37 05 (soir & week-end)

[email protected]

Espace journalistes

Contact presse

Pour toute demande d'interview ou recevoir nos communiqués de presse :

+33 1 53 38 66 00

+33 6 76 94 37 05 (soir & week-end)

[email protected]

États-Unis. Un survivant rohingya demande au régulateur boursier américain d’enquêter sur le rôle potentiel de Meta dans les atrocités commises au Myanmar

Maung Sawyeddollah, survivant rohingya et militant des droits humains, a déposé une plainte en tant que lanceur d’alerte auprès de la Securities and Exchange Commission (Commission américaine des opérations de bourse, SEC), demandant à l’agence d’enquêter sur Meta pour violation présumée des lois sur les valeurs en raison des fausses déclarations de l’entreprise aux actionnaires au sujet de sa contribution importante aux actes que le gouvernement américain a classés comme génocide contre les Rohingyas au Myanmar en 2017.

Amnesty International, le Projet de justice Société ouverte et Victim Advocates International ont conjointement apporté leur soutien à cette requête.

La requête fournit des informations sur le rôle présumé de Meta dans les atrocités perpétrées contre les Rohingyas et met en évidence les fausses déclarations faites à la Commission américaine des opérations de bourse (SEC) et aux investisseurs publics. Nous espérons que la SEC prendra ces éléments en considération et enquêtera sur Meta concernant une éventuelle violation des lois fédérales sur les valeurs

Mandi Mudarikwa, responsable des actions en justice stratégiques à Amnesty International

La requête soumise à la SEC, une agence américaine indépendante chargée de veiller à ce que les actionnaires soient traités de manière équitable et honnête, explique en détail que des militant·e·s et des chercheurs·euses ont averti à plusieurs reprises Meta du risque que Facebook soit utilisé pour fomenter et inciter à la violence contre les Rohingyas au cours de la période précédant 2017. D’après ce document, Meta a malgré tout continué de passer sous silence des informations clés sur ce risque de violence réelle dans les déclarations adressées aux investisseurs publics.

Dans un rapport de 2022, Amnesty International concluait que Meta a contribué aux atrocités perpétrées au Myanmar contre les Rohingyas : les algorithmes utilisés par Facebook ont amplifié les contenus délétères et la modération de ce type de contenus s’est avérée inadéquate, en violation de ses propres Standards de la communauté, des règles qui définissent quels contenus sont autorisés sur la plateforme.

Ce rapport concluait que le modèle commercial de Meta reposait sur le profilage intrusif et la publicité ciblée, alimentant la diffusion de contenus néfastes, notamment les incitations à la violence. Les systèmes algorithmiques de Meta sont conçus pour maximiser l’engagement des utilisatrices et utilisateurs, en vue d’accroître ses revenus publicitaires. En conséquence, ces systèmes ont souvent pour effet de favoriser les contenus incendiaires, clivants et nuisibles.

« J’ai vu beaucoup de choses horribles sur Facebook et je pensais que les gens qui les publiaient étaient mauvais. Je n’ai pas réalisé à l’époque que c’était la faute de Facebook. Un jour, j’ai vu une publication qui m’a mis très mal à l’aise. J’ai tenté de le signaler à Facebook. J’ai dit qu’il s’agissait d’un discours de haine, mais on m’a répondu qu’il n’enfreignait pas les Standards de la communauté », a déclaré Maung Sawyeddollah, se souvenant de sa frustration face à ses vaines tentatives d’alerter Meta sur la prolifération de contenus nuisibles sur Facebook.

Alors que ces contenus violaient clairement les Standards de la communauté de Facebook, récemment modifiés dans le cadre d’un nouveau changement de politique, Meta n’a pas suffisamment fait respecter ces normes au Myanmar et n’a pas dûment supprimé les contenus hostiles aux Rohingyas dans les mois et les années qui ont précédé les atrocités commises en 2017 dans le nord de l’État d’Arakan. Le manque de modérateurs de contenu possédant les compétences linguistiques nécessaires, résultat des choix de l’entreprise en matière de budget et de personnel, a également contribué aux défaillances de Meta. Cela reflète l’incapacité générale de l’entreprise à investir de manière adéquate dans la modération du contenu dans de nombreux pays en Asie, en Afrique et en Amérique latine, en dépit de ce qu’elle affirme haut et fort.

« Au Myanmar, où Facebook était la principale plateforme de réseaux sociaux et une source d’informations, le déploiement inconsidéré des algorithmes nuisibles de Meta, sans garanties solides en place, a favorisé des campagnes en ligne anti-Rohingyas qui ont contribué aux violences dans la vraie vie », a déclaré Eva Buzo, directrice exécutive de Victim Advocates International.

La plainte déposée auprès de la SEC souligne le fait que Meta n’a pas tenu compte des multiples avertissements de la société civile entre 2013 et 2017 concernant le rôle potentiel de Facebook s’agissant d’attiser la violence. Pendant cette période, la société civile a maintes fois averti les employé·e·s de Meta que la plateforme contribuait à un « génocide » imminent, à l’instar du rôle que les radios ont joué dans le génocide au Rwanda.

Alors que les investisseurs avaient demandé un examen des implications de son activité en termes de droits humains, Meta n’a pas fait preuve d’une grande transparence à leur égard, loin s’en faut ; or, à cette époque, Meta avait bel et bien été avertie de l’escalade de la situation au Myanmar et du rôle de Facebook

James Goldston, directeur exécutif du Projet de justice Société ouverte

Malgré ces alertes, entre 2015 et 2017, Meta a assuré aux investisseurs que les algorithmes de Facebook n’entraînaient pas de polarisation, alors que l’entreprise avait été avertie du rôle de Facebook dans la prolifération de contenus hostiles aux Rohingyas au Myanmar. En outre, Meta n’a pas entièrement divulgué dans ses rapports financiers aux actionnaires les risques que comportaient ses activités au Myanmar. Au contraire, en 2015 et 2016, Meta s’est opposée aux propositions des actionnaires, à savoir évaluer l’impact sur les droits humains et mettre en place un comité interne chargé de superviser les politiques et les pratiques de l’entreprise concernant les questions publiques internationales, y compris les droits humains.

En 2018, les pressions de l’opinion publique ont contraint Meta à reconnaître partiellement et tardivement le rôle de Facebook dans les atrocités commises à l’encontre des Rohingyas. Cependant, entre novembre 2020 et novembre 2022, Meta s’est de nouveau montrée incapable d’endiguer la diffusion de contenus prônant la haine et la violence, cette fois-ci contre les Tigréen·ne·s en Éthiopie, contribuant en fin de compte à de graves violences dans le monde réel – même si l’entreprise l’a nié publiquement. Manifestement, Meta n’a pas retenu la leçon, ni pris de mesures significatives pour limiter son rôle dans les violences ethniques à travers le monde.

Les récents changements de politique de Meta aux États-Unis, qui suppriment la vérification indépendante des faits et pourraient bien être étendus à l’échelle internationale, risquent d’exacerber encore davantage la contribution de Meta à des atteintes aux droits humains et à des violences dans la vraie vie, aussi flagrantes que les crimes commis contre les Rohingyas.

The post États-Unis. Un survivant rohingya demande au régulateur boursier américain d’enquêter sur le rôle potentiel de Meta dans les atrocités commises au Myanmar appeared first on Amnesty International.

Espace journalistes

Contact presse

Pour toute demande d'interview ou recevoir nos communiqués de presse :

+33 1 53 38 66 00

+33 6 76 94 37 05 (soir & week-end)

[email protected]

Sur le même pays

États-Unis. Au cours de son second mandat, le président Donald Trump doit respecter les droits humains

Publié le : 20.01.25

En ce jour d’investiture du président des États-Unis, Amnesty International engage le président Donald Trump et son gouvernement à respecter les obligations en matière de droits humains dans toutes leurs...

États-Unis. Au cours de son second mandat, le président Donald Trump doit respecter les droits humains

Publié le : 20.01.25

En ce jour d’investiture du président des États-Unis, Amnesty International engage le président Donald Trump et son gouvernement à respecter les obligations en matière de droits humains dans toutes leurs...

États-Unis. Interdire TikTok ne remédiera pas aux préjudices causés par les géants technologiques

Publié le : 17.01.25

En réaction à la décision de la Cour suprême qui a validé la décision du gouvernement américain d’interdire TikTok pour des motifs liés à la sécurité nationale, en raison de liens présumés entre sa maison...

États-Unis. Interdire TikTok ne remédiera pas aux préjudices causés par les géants technologiques

Publié le : 17.01.25

En réaction à la décision de la Cour suprême qui a validé la décision du gouvernement américain d’interdire TikTok pour des motifs liés à la sécurité nationale, en raison de liens présumés entre sa maison...

États-Unis. Les interdictions et restrictions concernant l’avortement ont de vastes répercussions négatives et portent atteinte aux droits humains

Publié le : 05.08.24

Selon un nouveau rapport rendu public lundi 5 août par Amnesty International, en refusant et en restreignant l’accès à l’avortement de millions de personnes depuis l’annulation de l’arrêt Roe c. Wade en...