Aller au contenu
Agir
Faire un don
ou montant libre :
/mois
Grâce à la réduction d'impôts de 66%, votre don ne vous coûtera que : 5,1 €/mois
URGENCE PROCHE ORIENT

Exigez avec nous la protection sans condition des populations civiles

Liberté d'expression

France : l'algorithme de la Caisse nationale des allocations familiales cible les plus précaires

La Caisse nationale des allocations familiales (CNAF) utilise depuis 2010 un algorithme discriminatoire qui vise délibérément les allocataires les plus vulnérables : un scandale révélé en 2023 par La Quadrature du net, Le Monde et Lighthouse reports. Face à cette pratique discriminatoire, nous attaquons, avec 14 organisations, l’algorithme de la CNAF devant la justice.  

Plus une personne est précaire, plus elle va être ciblée par des contrôles. Présenté comme un outil de lutte contre la fraude, l'algorithme de la CNAF oriente les contrôles vers les personnes les plus défavorisées selon une enquête de la Quadrature du net. L'association révèle le caractère discriminatoire de l'algorithme.

En assimilant précarité et soupçon de fraude, cet algorithme participe d'une politique de stigmatisation et de maltraitance institutionnelle des personnes les plus défavorisées. Ce mercredi 16 octobre, nous et 14 autres organisations déposons un recours devant le Conseil d'État. Ce recours en justice contre un algorithme de ciblage d'un organisme ayant mission de service public est une première.

Les dérives de l’algorithme de la CNAF

Pour identifier les personnes devant être contrôlées , la CNAF utilise un algorithme de notation de ses allocataires. Un « score de risque », allant de 0 à 1, est attribué à chacun. Le fonctionnement est simple : plus le score est proche de 1, plus la probabilité que les allocataires se fassent contrôler est élevé.

Vous avez un faible revenu ? Votre « score de risque » augmente. Vous êtes au chômage ? Votre « score de risque » augmente. Vous avez une allocation adulte handicapé ? Votre « score de risque » augmente. Conséquences : les personnes déjà en difficulté se retrouvent surcontrôlées par rapport au reste de la population.

Liste de critères « à risque » utilisés par l’algorithme 

❌Disposer de faibles revenus 

❌Être au chômage  

❌Habiter dans un quartier « défavorisé » 

❌Percevoir l’allocation adulte handicapé

Lire aussi : Face à l'ampleur des technologies de surveillance en France

Voir : La France à l'heure de la reconnaissance faciale

« Une politique d’acharnement contre les plus pauvres »

C’est La Quadrature du Net qui a révélé les méthodes utilisées par la CNAF. L’association de défense des libertés numériques a réussi à obtenir le code source de l’algorithme et à l’analyser. Il n’avait jamais été révélé auparavant. L’algorithme serait bien programmé pour cibler, de façon discriminatoire ses allocataires les plus précaires. « Cet algorithme est la traduction d'une politique d'acharnement contre les plus pauvres.» dénonce Bastien Le Querrec, juriste à La Quadrature du Net.

Parce que vous êtes précaire, vous serez suspecte aux yeux de l'algorithme, et donc contrôlé. C'est une double peine.

Bastien Le Querrec, juriste à La Quadrature du Net

Les contrôles sont des moments particulièrement difficiles à vivre, générateurs d'une forte charge administrative et d'une grande anxiété. Ils s'accompagnent régulièrement de suspensions du versement des prestations. Dans les situations les plus graves, des allocataires se retrouvent totalement privés de ressources. Quant aux voies de recours, elles ne sont pas toujours compréhensibles ni accessibles. 

Nous attaquons l’algorithme devant la justice

Notre coalition de 15 organisations, dirigée par La Quadrature, vise à construire un front collectif pour faire interdire ces pratiques et alerter sur la violence des politiques dites de « lutte contre la fraude sociale ».

L'utilisation de tels algorithmes de notation se généralise au sein des organismes sociaux. En témoigne nos rapports sur la Serbie et les Pays-Bas. 

Lire aussi : Les algorithmes des systèmes de protection sociale accentuent les discriminations

Agnès Callamard, secrétaire générale d’Amnesty International alerte sur la situation en France qui risque de suivre le pas d’autres pays comme les Pays-Bas : « Nous avons vu ce qui s’est passé aux Pays-Bas en 2021, où le fisc a utilisé un algorithme discriminatoire de notation des risques pour détecter la fraude aux allocations familiales. Des milliers de familles ont été plongées dans la dette et la pauvreté. Une situation similaire risque de se produire en France, et ce risque doit être atténué de toute urgence puisque des préjudices sont déjà survenus. » 

Notre recours devant le Conseil d'État porte :  

Sur l'étendue de la surveillance : l'algorithme analyse chaque mois les données personnelles de plus de 32 millions de personnes vivant dans un foyer bénéficiant d’une prestation sociale de la CAF et calcule plus de 13 millions de scores  

Sur la discrimination opérée par cet algorithme envers des allocataires déjà fragilisés dans leurs parcours de vie 

En portant ce cas devant le Conseil d’Etat, nous alertons sur les conséquences néfastes de l’automatisation du secteur de la protection sociale. Notre demande est claire : l'arrêt de l’utilisation de l’algorithme de notation utilisé par la CNAF.

Les organisations membres de la coalition

La Quadrature du Net (LQDN)

L'Association d’Accès aux Droits des Jeunes et d’Accompagnement vers la Majorité (AADJAM)

Aequitaz

Amnesty International France

L'Association nationale des assistant·e·s de service social (ANAS)

APF France handicap

Collectif Changer de Cap Contact presse

Fondation Abbé Pierre

GISTI  

Le Mouton numérique

La Ligue des droits de l’Homme (LDH)

Le Mouvement national des chômeurs et précaires (MNCP)

Le Mouvement Français pour un Revenu de base (MRFB)

CNDH Romeurope  

Le Syndicat des avocats de France (SAF)