Réguler les robots-tueurs, plutôt que les interdire

L’article qui suit présente un nouveau système d’armes fondé sur des robots qui risque d’être prochainement utilisé. À la différence des drones qui sont manœuvrés à distance mais comportent une part importante de discernement humain, il s’agit de machines programmées pour défendre, attaquer, ou tuer de manière autonome. Les auteurs, philosophes, préfèrent prévenir de leur prochaine diffusion et obtenir des Nations Unies leur régulation. Une campagne internationale propose plutôt leur interdiction1. Multitudes a choisi d’informer ses lecteurs en publiant ce texte qui remet en question bien des idées communes, même si la revue ne partage pas l’optimisme des auteurs quant à la régulation internationale.

Les systèmes d’armes létales autonomes (LAWS en anglais) sont déjà là. Le développement technologique les verra se répandre largement dans un futur proche. C’est une affaire d’années et pas de dizaines d’années. Quand la Convention des Nations Unies sur « Certaines armes conventionnelles » s’est réunie du 10 au 14 novembre 2014, on attendait une préparation bien faite pour une décision sur une orientation politique générale sur les LAWS dits aussi robots-tueurs. Mais il y a une large opposition contre eux et il se développe une campagne toujours plus importante pour les faire interdire.

Notre argumentation est différente. Les LAWS peuvent fortement réduire la souffrance et la mort propre à la guerre. Plutôt que les interdire, il faudrait les réguler pour les rendre conformes au droit humanitaire international et s’assurer que ce résultat positif est atteint.

Cette technologie est déjà utilisée et se développe vite

L’avant-garde caractéristique de cette technologie est formée par les drones armés de missiles. Actuellement, un pilote fait voler le système à distance ; un analyste désigne la cible que l’information a fournie ; et un commandement militaire, missionné légalement, donne la décision d’attaquer. Les programmes de recherche-développement en cours essaient d’automatiser ces processus pour des systèmes déployables sur terre, sur mer, sous la mer ou dans les airs. À l’issue de ces programmes le mouvement du système, la désignation de la cible et la décision finale de tuer pourraient être décidées de manière autonome2.

Certains LAWS sont déjà en service. Le Phalanx, système d’armes embarqué utilisé pour défendre les bateaux, peut de manière autonome identifier et attaquer des missiles en approche, des fusées, des tirs d’artillerie, des moyens de transports aériens et de surface, selon les critères qui lui ont été donnés par l’opérateur humain.

Principes fondamentaux pour éclaircir les eaux troubles de la morale

L’argument de base en faveur des LAWS est simple : nous sommes capables de dépenser des trésors pour épargner le sang. Moins de vies perdues à la guerre est une chose valable. Est également valable une meilleure documentation numérique militaire et donc une meilleure punition des crimes de guerre. De même qu’il est d’une négligence coupable d’envoyer l’infanterie sans armure et sans casque, de même – toutes choses égales par ailleurs – c’est une négligence de ne pas développer les LAWS.

La question morale la plus significative tient à l’attribution de la responsabilité des morts par LAWS. Quand les choses se passent mal et que des civils sont tués, qui faut-il blâmer ? Nous proposons que la responsabilité des effets des LAWS soit attribuée exactement de la même manière que pour tout système technologique. Prenons l’exemple des médicaments. Ceux-ci ont en général des effets prévisibles mais avec un risque d’effets secondaires négatifs. Aussi les drogues font-elles d’abord l’objet d’un test et obtiennent ensuite seulement une prescription pour leur usage. Quand elles sont utilisées conformément à la prescription, ni les médecins ni les entreprises pharmaceutiques ne sont responsables des effets secondaires (bien qu’il demeure une obligation de prévenir pour un défaut de fabrication, ou d’emballage, ou d’usage). Par contre, l’administration qui donne sa licence au médicament, par exemple la Food and Drug Administration, a la responsabilité d’assurer tous les bienfaits qui en résultent.

Appliquez cela aux LAWS. La même division des responsabilités intervient entre les ingénieurs, les utilisateurs militaires et le gouvernement. Les conséquences en sont les suivantes :

1. Il y a un besoin urgent d’un régime de régulation pour contrôler les LAWS, à la fois légalement et en termes de standards techniques. C’est une responsabilité morale des gouvernements et des organisations internationales.

2. Le déploiement des LAWS est acceptable si et seulement si ce système réduit les risques encourus aussi bien par les combattants que par les civils. La réduction du risque est l’avantage le plus important qui justifie leur développement. Il n’est pas envisageable de réduire les risques encourus par les soldats en augmentant ceux courus par les civils.

3. Les LAWS sont des armes de guerre, et doivent donc se plier aux régulations de la loi internationale humanitaires (LIH) des Conventions de Genève. Ils doivent en particulier se soumettre au principe de distinction, c’est-à-dire être capables de faire la différence entre combattants et non-combattants. Ils doivent aussi appliquer le principe de proportionnalité, c’est-à-dire faire en sorte que les dommages aux civils soient proportionnés à l’objectif militaire.

Les régimes légaux en vigueur peuvent fournir les mécanismes de régulation appropriés

Réguler les LAWS va poser des problèmes pratiques. Cela parce que leur capacité de distinguer les cibles légitimes des illégitimes, et d’attaquer de manière proportionnée, n’est pas dans l’intérêt direct d’une nation en guerre. Pour une nation particulière, le déploiement des LAWS réduit le risque pour ses propres soldats ; forte est la tentation de le faire en exportant le risque sur les populations civiles étrangères. Tant que des cibles légitimes sont attaquées, l’effet militaire tactique est toujours atteint sans égard pour le nombre de non-combattants également attaqués par les LAWS. Tirer sur tout ce qui bouge est la logique extrême, mais des paramètres d’attaque moins déments comportent encore des risques d’atteintes aux civils.

Dans cette optique, les LAWS qui réduisent les risques pour les civils sont un bien public international : tout le monde a raison de préférer que chacun utilise seulement les technologies qui obéissent à l’exigence d’épargner les civils, mais les nations n’ont pas d’intérêt individuel à assurer qu’ils la respectent.

Nous proposons que le même régime légal qui définit la responsabilité individuelle pour les criminels de guerre s’applique aussi aux LAWS. Les législations sur les crimes de guerre ont toutes la même structure d’incitation au bien public international. Surtout, la victimisation des non-combattants pour réduire les risques courus par ses propres soldats est un crime de guerre. Les standards agréés internationalement pour la conduite de la guerre, notamment les Conventions de Genève, sont incorporés dans les législations nationales. Les institutions judiciaires nationales sont donc les premières responsables de l’observation de ces standards. Quand des États sont incapables d’appliquer ces standards ou ne le veulent pas, le Tribunal Pénal International est l’institution de recours.

Les LAWS sont différents des autres armes, en ce que les crimes de guerre peuvent être commis non seulement par ceux qui les utilisent, mais par ceux qui les fabriquent. Un industriel qui diffuse un système qui ne répond pas aux standards de la distinction et de la proportionnalité est aussi coupable d’un crime de guerre. Par conséquent, les standards techniques de performances doivent être établis et appliqués par le système des brevets publics. Dans cette optique, il y a des parallèles instructifs à faire avec les institutions nationales et internationales qui gouvernent d’autres technologies importantes, comme par exemple l’Organisation internationale de l’aviation civile.

Cinq recommandations pour la régulation des LAWS

1. Créer une agence internationale définissant les standards techniques pour la régulation des LAWS. La confiance dans le respect par les LAWS des principes de distinction et de proportionnalité relève pour partie d’un jugement moral et politique. Celui-ci s’exprime ensuite en spécifications techniques. Une agence internationale de définition et contrôle des normes est nécessaire pour établir et actualiser ces spécifications au fur et à mesure que la technologie évolue. En particulier, elle doit assurer un haut niveau de réussite des LAWS selon qu’ils attaquent des cibles légitimes ou illégitimes, et en limitant les attaques contre les premières aux cas où il est proportionné et nécessaire de le faire.

2. Établir des normes techniques nationales et des institutions de brevetage des LAWS. Les instances nationales et supranationales de régulation sont requises d’enregistrer les entreprises, de les contrôler, d’établir des spécifications techniques domestiques correspondant aux standards internationaux, et de délivrer les brevets. Le fardeau institutionnel est ici moins lourd qu’il n’y paraît. Il est vraisemblable que cela soit réalisé en tant que fonction supplémentaire de ces institutions qui auront de toute façon à être mises en place pour les robots autonomes civils – par exemple les voitures autonomes, les engins de recherche et de sauvetage, les services de distribution du courrier par drones (cf. Palmerini et al… pour le cas de l’Union européenne). La même idée s’applique au besoin général d’une agence internationale des normes en matière de technologie robotique.

3. Étendre les instruments légaux de condamnation des crimes guerre à l’usage illégitime des LAWS. Un certain nombre d’agences de normalisation nationales et internationales produisent le régime légal requis pour forcer au respect de ces normes. Nous proposons que le recours aux instruments légaux existant contre les crimes de guerre soit étendu pour inclure l’usage illégitime des LAWS. L’usage illégitime inclut : la diffusion de LAWS n’obéissant pas aux normes techniques ; l’usage de ces LAWS n’obéissant pas aux normes d’emploi, que cet usage soit volontairement pervers ou coupable par négligence.

4. Permettre l’usage des LAWS seulement quand la performance est supérieure à celle dont sont capables les humains. Les civils doivent être exposés à moins de risques quand les LAWS poursuivent des cibles militaires que lorsque ce sont des humains qui poursuivent les mêmes objectifs. Si ce n’est pas le cas, c’est une redistribution inéquitable du risque, exploitant la vulnérabilité des civils. Aussi les LAWS doivent-ils arriver à des taux d’observance des principes de la loi humanitaire internationale de distinction et de proportionnalité meilleurs que les humains pour pouvoir être déployés. Contrairement à la croyance générale, il est tout à fait plausible que certains LAWS atteignent cette norme dans un futur proche. Par exemple, les tanks sont utiles seulement pour des buts militaires, et ils donnent des signatures en termes de chaleur très distinctes et reconnaissables qui peuvent être utilisées pour définir une cible.

5. Permettre l’usage des LAWS pour tuer seulement quand il y a une raison militaire supérieure. Les systèmes d’armes activés à distance produisent la même réduction du risque pour les soldats d’une armée que les systèmes autonomes. Par définition, les systèmes opérés à distance obéissent à la loi humanitaire internationale au même degré que les humains. Aussi l’incertitude sur le non-suivi de la loi humanitaire internationale, inhérent au cas des LAWS, devrait être permise seulement quand il y a une raison militaire supérieure pour automatiser le combat.

Il y a trois raisons de ce type :

1. Quand la vitesse de reconnaissance par un ordinateur est supérieure à celle d’un humain, et que la situation de combat l’exige, les systèmes automatiques jouissent d’un avantage tactique sur les adversaires humains ou opérés à distance ;

2. Quand le nombre des systèmes automatiques est tellement élevé que les humains peuvent difficilement les contrôler, comme dans les situations d’« essaim » [il s’agit de petits engins placés tout autour d’un navire pour le défendre NdT] ;

3. Quand l’environnement est tel que les liens de communication entre le système et l’opérateur ne peuvent pas être garantis, l’automatisation rend les opérations militaires possibles.

Calendrier de mise en œuvre

La Convention des Nations Unies sur certaines armes conventionnelles qui s’est tenue à Genève en novembre 2014 n’a pas réussi à prendre une décision de politique générale quant aux LAWS. Cette décision est reportée à 2015. Pour le camp qui veut les interdire tout de suite, il est nécessaire de stopper le processus, plutôt que d’essayer et d’avoir à remettre le génie dans la bouteille lorsqu’il s’en sera échappé. Pour le camp de la régulation, dans lequel se rangent les auteurs, il y a un fort impératif moral à s’assurer que la régulation précède la tragédie, et n’intervienne pas seulement en réponse à celle-ci (Heyns 2013). La période d’ici 2020 constitue une période suffisante pour mettre les structures de régulations essentielles en place.

Traduit de l’anglais par Anne Querrien

Références bibliographiques

Birmingham Policy Commission, 2014, « The security impact of drones, Challenges and opportunities for the UK », www.birmingham.ac.uk/research/impact/policy-commissions/remote-warfare

Christof Heyns, 2013, « Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions », UN General Assembly, Human Rights Council, 23 (3), A/HRC/23/47

Erica Palmerini et alii, 2014, Guidelines on regulating robotics (www.robolaw.eu)
Peter Singer, 2009, Wired for War. The Robotics Revolution and Conflict in the 21st Century, Penguin, New York

US Department of Defense, 2013, « Unmanned systems integrated road map FY2013-2038 », www.defense.gov/pubs/DOD-USRM-2013.pdf

 

1 Les arguments présentés ici sont développés en détail dans Müller et Simpson, «Autonomous Killer Robots are Probably Good News », in Ezio Di Nucci et Filippo Santoni de Sio (eds), Drones and responsibility : legal, philosophical and socio-technical perspectives on the use of remotely controlled weapons, Ashgate, Londres, 2014.

2 Pour un aperçu de ces recherches programmées jusqu’en 2038, voir US Department of Defense 2013, et aussi Singer 2009 et Birmingham Policy Commission 2014.

Müller Vincent C.

Vincent C. Müller est professeur de philosophie à Anatolia College/ACT. Il a publié de nombreux articles sur la philosophie de la computation, la philosophie de l’intelligence artificielle, la philosophie du langage, l’éthique appliquée, etc. Il a fait paraître huit livres, principalement sur la théorie des systèmes cognitifs et l’intelligence artificielles, et prépare une monographie sur les problèmes fondamentaux de l’intelligence artificielle. Il a coordonné le réseau européen sur les systèmes cognitifs, la robotique et l’interaction qui avait près de 1000 membres de 2009 à 2014 (www. eucognition.org).

Simpson Thomas

Thomas Simpson est professeur associé de philosophie et de politique publique à la Blavatnik School of Government de l’Université d’Oxford, et chercheur senior invité au Wadham College. Il était auparavant à Cambridge, chercheur invité au Sidney Sussex College, ville où il a fait ses études. Entre ses périodes d’études, il a servi pendant cinq ans comme officier dans la Marine Royale. Ses recherches portent sur la notion de confiance tant dans ses dimensions théoriques que ses implications pratiques. Il travaille aussi sur l’éthique de la guerre.