La prolifération des « robots tueurs » constitue une menace pour le droit international humanitaire et la protection des civils. Nous assistons à une plus grande autonomisation des champs de bataille, l'intelligence artificielle se retrouvant déjà en Ukraine ou à Gaza. En amont de l’Assemblée générale des Nations Unies, nous rappelons, avec d'autres ONGs, le besoin urgent que ces armes soient encadrés par un traité international.
Cette Tribune a été publiée dans Libération le 25 octobre 2024
Le 8 octobre, le prix Nobel de physique était décerné aux professeurs Geoffrey Hinton et John Hopfield, en reconnaissance pour leurs contributions dans le domaine de l’intelligence artificielle. Début novembre, les 193 Etats membres de l’Assemblée générale des Nations unies, réunis à New York, seront appelés à voter sur une résolution concernant les systèmes d’armes autonomes, également appelés «robots tueurs». Bon nombre de ces systèmes d’armes reposent sur l’intelligence artificielle, et le professeur Geoffrey Hinton tire la sonnette d’alarme sur leurs dangers depuis plus de dix ans.
Les armes autonomes sont des systèmes qui, une fois activés, ont la capacité de sélectionner une cible et d’engager une force létale seulement grâce à l’analyse de capteurs, sans intervention humaine. Ces systèmes d’armes soulèvent des questions fondamentales d’ordre éthique, humanitaire, juridique, opérationnel, moral et sécuritaire. La perspective de leur utilisation et leur prolifération est alarmante et constitue une menace sérieuse pour le droit international humanitaire et la protection des civils. Confier à une machine le pouvoir de vie ou de mort sur un être humain franchit une ligne rouge morale inacceptable.
Il est plus qu’incertain que les armes autonomes soient à même de respecter le droit de la guerre, en particulier, lorsqu’il s’agit de distinguer les combattants des non-combattants, ou de déterminer si les dommages civils anticipés d’une attaque sont proportionnels à l’avantage militaire escompté, une décision au cas par cas qui requiert un jugement humain. Les civils risquent d’en payer le prix fort. De plus, en cas de violation du droit international, il sera juridiquement difficile, voire injuste, de tenir les opérateurs humains pénalement responsables d’actions entreprises par des systèmes d’armes autonomes qu’ils ne pouvaient ni prévoir, ni contrôler.
C’est pour éviter d’avoir à faire face à ces dangers que Hinton, Hopfield et des milliers d’autres experts en IA, scientifiques et organisations de la société civile, dont les nôtres, appellent à une action préventive pour interdire et réglementer les systèmes d’armes autonomes. Et il y a urgence.
Les conflits actuels illustrent de manière dramatique la façon dont les guerres se numérisent et s’accélèrent : à Gaza, l’armée israélienne utilise les systèmes de ciblage assistés par l’IA «Gospel» et «Lavender». Au Burkina Faso et en Ethiopie, nous observons le recours aux drones armés de bombes et d’autres munitions guidées par laser. En Ukraine, au Haut-Karabakh et en Libye, ce sont les munitions rôdeuses qui sont utilisées. Ces investissements militaires dans l’autonomie et d’autres technologies émergentes entraînent l’humanité sur une pente glissante.
Dans le passé, les Etats ont su agir de concert pour interdire les armes chimiques et biologiques, les lasers aveuglants, les mines antipersonnel et les armes à sous-munitions. Ces traités de désarmement humanitaire ont stigmatisé toute utilisation de ces armes par tout acteur, en toutes circonstances. Même les Etats non signataires de ces traités ont fini par s’aligner, en mettant fin à leur utilisation ou en la réduisant drastiquement, sauvant d’innombrables vies civiles.
Depuis 2013, les défis posés par les armes autonomes ont été longuement débattus, d’abord par la Commission des droits de l’homme de l’ONU (remplacée depuis par le Conseil des droits de l’homme), puis dans le cadre de la Convention sur certaines armes classiques (CCAC) à Genève. La France, qui avait identifié les dangers émergents, a joué un rôle important dans la conduite de ces discussions. Aujourd’hui, une minorité d’Etats, dont la Russie et l’Inde, bloquent les propositions visant à négocier une nouvelle législation internationale sur les systèmes d’armes autonomes au sein de la CCAC. Le processus décisionnel par consensus permet, en effet, à un seul pays d’y empêcher tout accord.
Pour sortir de cette impasse, l’Autriche et d’autres pays proposent des discussions à l’Assemblée générale de l’ONU, à New York, un forum qui inclut davantage d’Etats que la Convention sur certaines armes classiques. Ce cadre permettra également de traiter les questions plus larges relatives aux droits humains, à la prolifération, à la sécurité et à d’autres enjeux soulevés par les armes autonomes, en plus du respect du droit de la guerre. Les progrès réalisés dans ce cadre seront beaucoup moins susceptibles d’être bloqués par une poignée d’Etats opposés à toute réglementation.
L’Assemblée générale offre donc aux Etats l’opportunité de faire avancer les négociations en vue d’un traité international qui répondrait aux nombreuses préoccupations soulevées par les systèmes d’armes autonomes. Face aux dangers pointés par les scientifiques, les juristes et les organisations de défense des droits humains, et face à l’urgence de contenir l’automatisation de la violence dans les guerres et au-delà, nous appelons la France à se tenir aux côtés de ceux qui agissent pour une meilleure protection des civils. Le gouvernement devrait soutenir pleinement les efforts visant à aborder la question des systèmes d’armes autonomes via l’Assemblée générale de l’ONU, en vue de l’adoption rapide d’un traité.
Signataires
Sylvie Brigot, directrice Amnesty International France
Patrice Bouveret, directeur de l’Observatoire des armements
Bénédicte Jeannerod, directrice France Human Rights Watch