Tuesday, December 18, 2018
0
  • No products in the cart.
Politics

Tuer ou ne pas tuer : le dilemme moral ignoré par les robots tueurs

Views

Dépourvus de conscience, les robots tueurs pourraient, demain, ne pas être jugés pour leurs actes. Shutterstock

« Si des humains peuvent parfois se montrer inhumains, pourquoi des non-humains ne pourraient-ils pas se faire plus humains qu’eux, c’est-à-dire mieux se conformer aux principes normatifs définissant le fait de se conduire “humainement” ? » (Grégoire Chamayou)

Les robots létaux autonomes suscitent une forte inquiétude auprès du grand public. Cette dernière est alimentée par des mouvements qui militent pour l’interdiction de tels systèmes d’armements. Récemment, le Future of Life Institute a ainsi diffusé un petit film, très inquiétant, où l’on voit des mini drones équipés de systèmes de reconnaissance faciale se poser sur des têtes humaines afin d’y faire exploser leur charge creuse. Heureusement, il ne s’agit là que d’une fiction.

[youtube https://www.youtube.com/watch?v=HipTO_7mUOw?wmode=transparent&start=3&w=440&h=260]

Le robot tueur est par essence beaucoup plus qu’une arme, puisqu’il est apte à choisir et décider de lui même de tirer sur une cible ennemie. Étant dépourvus de conscience, les robots tueurs ne peuvent être tenus pour responsables de leurs actes. Ils ne peuvent donc être jugés, ils doivent répondre à d’autres modes de régulation. L’autonomie des robots tueurs permet non seulement de transformer la conduite des opérations militaires, mais également le paradigme même de la guerre. Les conséquences sociales, voire morales de l’usage des robots tueurs sont donc loin d’être négligeables.

Ces questions doivent être mises en perspective dans le cadre d’un processus global d’automatisation de la guerre. Nous allons nous intéresser ici à un aspect crucial de l’arrivée des robots létaux autonomes : leur capacité à décider de leur propre chef de tirer et donc tuer des combattants ennemis.

La guerre : une activité très humaine

La guerre est essentiellement une activité régie par des règles et des conventions humaines résultant de normes culturelles et religieuses. Mais elle a également sa propre logique qui défie les conventions. Pour le grand théoricien militaire Clausewitz, elle est « un acte de violence […] qui théoriquement n’a pas de limite ». Ce que les propos d’Eisenhower tendraient à confirmer :

« En ayant recours à la force, on ne savait pas où on allait […] Plus on s’enfonçait profondément dans le conflit, moins il y avait de limites […] sauf celles de la force elle-même. »

Pour résumer, l’on pourrait affirmer comme le général Sherman durant la Guerre de Sécession, avant de faire évacuer puis brûler la ville d’Atlanta, que « la guerre est l’enfer ».

Néanmoins, ces tendances sont contenues, et de façon paradoxale, par les militaires eux-mêmes qui, selon le philosophe Michael Walzer, sont désireux de distinguer « la tâche à laquelle ils consacrent leur vie d’une boucherie pure et simple » par le respect des conventions de la guerre.

Les conventions de la guerre

Les conventions de Genève couvrent deux aspects : le jus ad bellum, droit de déclencher et faire la guerre, et le jus in bello, droit dans la guerre, qui nous concerne particulièrement.

Ce dernier part d’un axiome fondateur : la distinction entre les combattants et les civils. Les premiers ont le droit de tuer en vertu du fait qu’ils peuvent eux-mêmes être tués ; les seconds doivent en être préservés. De cette distinction fondamentale découle quatre grands principes :

  • humanité ;

  • nécessité militaire ;

  • proportionnalité ;

  • discrimination.

Deux principes nous intéressent particulièrement. Le premier, le principe de proportionnalité prescrit que s’il est admissible que des civils soient tués afin de détruire des objectifs ennemis d’importance, cela doit être fait dans une juste mesure.

Selon le journaliste Andrew Cockburn, l’armée américaine considérerait aujourd’hui en Afghanistan qu’un ratio de 30 civils tués pour chaque chef taliban abattu serait acceptable.

Le second, le principe de discrimination stipule qu’il faut veiller à clairement différencier les civils des combattants militaires.

[youtube https://www.youtube.com/watch?v=PpZOko43920?wmode=transparent&start=0&w=440&h=260]

Le respect de ces deux principes dépend fortement de l’intensité du conflit en cours. Ainsi au Vietnam, les commandants, déstabilisés par un ennemi fuyant, ordonnaient systématiquement le bombardement des villages d’où quelques coups de feu étaient tirés.

L’opposition aux robots tueurs

Elle se joue principalement sur les deux critères vus précédemment. En ce qui concerne le facteur de discrimination, l’on ne peut nier qu’il représente un point faible de ces machines : comment différencier, en effet, un soldat qui se rend d’un soldat en armes, ou d’un soldat blessé ?

Si, actuellement, les techniques de reconnaissance de forme sont aptes à distinguer des uniformes, elles font néanmoins, comme l’affirme le roboticien Noel Sharkey, des confusions grossières. Par contre, il est très difficile pour un robot d’identifier un soldat blessé, voire un soldat déposant les armes.

À cela s’ajoute le critère de proportionnalité : une machine peut-elle décider d’elle-même combien de civils pourraient être tués afin de détruire sa cible ?

Pour renforcer ces deux grands arguments, les opposants aux robots tueurs posent un principe d’humanité. Ils partent du principe que les humains ne sont pas rationnels puisqu’ils ont des émotions et se fient à leur intuition. Dans leur majorité, ils manifestent une certaine répulsion à l’idée de tuer leur prochain. C’est ainsi que des études effectuées après la Seconde Guerre mondiale ont montré qu’en moyenne seuls 18,75 % des soldats américains placés en situation d’engagement avaient usé de leur arme.

[youtube https://www.youtube.com/watch?v=UhqyCRtr1xY?wmode=transparent&start=0&w=440&h=260]

Cette très vive opposition embarrasse les militaires et explique leurs hésitations quant à l’usage de ces armes. Mais nombreux sont ceux qui, au sein de l’institution, pensent que des puissances comme la Chine ou la Russie n’auront certainement pas ces appréhensions morales et n’hésiteront pas à développer à l’avenir ce type d’armements.

L’arrivée des robots tueurs serait donc inéluctable et mériterait d’être anticipée.

Qui est responsable ?

En vertu de ce principe Ronald C. Arkin, un roboticien, propose de concevoir des machines agissant de façon plus éthique que ces sujets imparfaits que sont les combattants humains. Il considère que « confrontés à l’horreur du champ de bataille », les soldats voient leur capacité de jugement brouillée par les émotions et le stress du combat. Ils auraient donc tendance à commettre des atrocités. Les robots létaux autonomes seraient donc la solution permettant de garantir le respect des lois de la guerre.

Pour Grégoire Chamayou, le problème se situe à un autre niveau. Jusqu’à présent l’arme qui est une chose et le combattant qui est une personne, donc juridiquement responsable, ont toujours été séparés. Le robot létal autonome est lui un ensemble dans lequel l’arme et le combattant sont confondus : agent et instruments sont liés écartant toute possibilité de responsabilité juridique. Comment juger une machine ? Il voit ainsi une chose qui se met à faire usage d’elle-même.

La possibilité d’accorder le droit de tuer à des machines ne serait pas sans conséquence. Si l’on prend en compte qu’à la guerre, le droit de tuer est habituellement réservé aux combattants en vertu du fait qu’ils peuvent eux-mêmes être tués, considérer qu’ils peuvent être éliminés par une machine « équivaudrait à mettre l’homicide sur le même plan que la destruction d’une pure chose matérielle ».

Cette question n’est pas que militaire. Elle aura forcément des répercussions dans l’usage d’autres systèmes automatiques tels que les voitures autonomes. On le voit déjà avec les répercussions d’accidents mortels ayant impliqué ce type de véhicules : qui est responsable ?


L’auteur publie le 18 octobre « Robots tueurs. La guerre déshumanisée, les robots et drones autonomes visent zéro mort ».

The Conversation

Eric Martel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son poste universitaire.

Written by Eric Martel, Docteur en Sciences de Gestion/Chercheur associé au LIRSA, Conservatoire national des arts et métiers (CNAM)

Disclaimer

The opinions expressed in the article are solely those of the author and do not necessarily reflect those of Iranians Global Network.