Pourquoi il faut doter les robots militaires d’un code éthique

Les dispositifs de combat sans pilote et les armes robotisées vont entraîner des changements majeurs dans la manière dont les guerres seront menées à l’avenir. Sur le champ de bataille, les conflits ne se résumeront plus à une lutte d’homme à homme. Les belligérants auront toujours plus recours à des méthodes et des moyens de combat automatisés. La nature de la guerre tout comme l’étendue des pertes et des dommages subis durant les conflits ­seront très différentes le jour où les hostilités seront conduites sans aucune intervention humaine directe. Ces innovations technologiques dans le domaine des armements exigent la mise en place d’une réglementation dans les plus brefs délais.

Les Etats ne cessent d’investir dans la robotique militaire. Les robots peuvent être désormais employés pour soutenir des opérations sur le terrain, pour recueillir des renseignements ou, encore, pour entreprendre des missions de surveillance et de reconnaissance. Certains sont munis d’armes létales et peuvent donc servir à tuer l’ennemi. Autonomes ou semi-autonomes, ils sont contrôlés à distance par une simple télécommande. Il n’existe pas encore de définition universellement acceptée de ce genre de dispositifs de guerre, ni de traité qui en interdit ou en régule l’utilisation.

Une des questions centrales du débat est celle de savoir dans quelle mesure ces nouveaux moyens et méthodes militaires automatisés peuvent respecter les principes cardinaux du droit international humanitaire, tels que le principe de distinction et le principe de proportionnalité. Comment un robot va-t-il distinguer un soldat d’un civil ou un soldat qui veut se rendre d’un combattant actif? Un dispositif guidé par une intelligence artificielle aura-t-il la capacité d’apprécier le rapport entre l’avantage militaire résultant d’une attaque et le risque de dommage collatéral parmi la population civile? Qui sera tenu pour responsable dans le cas où un robot commet une violation, voire un crime de guerre? Le fabricant, le programmateur, le développeur du logiciel? L’officier qui a autorisé l’opération? Ou bien celui qui l’a menée, s’il y a eu intervention humaine, comme par exemple l’individu qui, à distance, pilote un drone?

La majorité des scientifiques admettent que le type d’évaluations devant être effectuées sur le champ de bataille, afin de respecter les règles du droit humanitaire, présuppose des facultés de raisonnement que seul un être ­humain rationnel possède. Il est extrêmement complexe, sinon impossible, pour un programmateur informatique, de prévoir tous les scénarios possibles, au vu des nombreuses exceptions à l’application des règles et du caractère imprévisible des situations de combat. C’est une des raisons qui sous-tendent le souhait de maintenir un être humain dans «la boucle»: la décision d’utiliser une arme létale, et donc de tuer un ennemi, devrait toujours être prise par un être humain. Il apparaît par conséquent crucial d’établir une chaîne de commandement qui définisse clairement les responsabilités de chacun et permette de punir le(s) coupable(s), en cas de violations des règles.

La dépersonnalisation de la violence et la déshumanisation de la guerre constituent un autre problème majeur de l’emploi de ces dispositifs militaires. Un pilote téléguidant un drone depuis un petit bureau quelque part au Nevada est déconnecté des réalités de la guerre. D’une certaine manière, il a l’impression – et peu importe l’entraînement spécifique qu’il a reçu – de s’adonner à une activité virtuelle. Les conflits armés sembleront de ce fait de plus en plus lointains aux yeux de l’opinion publique, jusqu’à devenir quasiment surréalistes. Le sang et les images de soldats blessés ou morts disparaîtront peu à peu des médias, ce qui rendra les hostilités plus acceptables et plus «propres» pour le public. Il sera ainsi d’autant plus facile de déclencher et de justifier une guerre.

Certes, le recours à ces dispositifs présente aussi des avantages. Par exemple, ils réduisent les coûts, tant au niveau des pertes en vies humaines que sur le plan économique, le développement et la production de ces systèmes devenant moins onéreux avec les avancées de la recherche. La plupart de ces dispositifs automatisés sont capables de détecter les moindres détails, ce qui permet de distinguer les objectifs militaires avec plus d’exactitude et d’améliorer la précision des attaques. En outre, les robots ne sont pas mus par des émotions; ils ne ressentent ni la peur, ni la compassion ou la pitié. Ils ne sont pas sujets au stress, à la fatigue ou à tout autre syndrome susceptible d’altérer leur jugement.

Parallèlement, les robots accentuent le clivage entre les pays avancés et les pays pauvres, qui ne disposent pas des ressources financières et technologiques nécessaires pour les développer. La probabilité de voir éclater des conflits asymétriques est alors exacerbée. Le recours à des actes de terrorisme, seule stratégie à disposition de la partie «faible», est aussi de plus en plus probable. De plus, l’usage de drones et autres aéronefs sans pilote peut engendrer la colère et la frustration des populations affectées, comme en témoignent les sentiments anti-américains au Pakistan. Finalement, ces armes pourraient se retrouver aux mains de terroristes ou d’autres acteurs mal intentionnés.

Une réponse normative rapide aux progrès des technologies militaires semble donc s’imposer. Je reste très sceptique sur la possibilité de réguler la question de manière traditionnelle, par exemple via un traité interétatique. Il serait mieux d’adopter une série de principes directeurs ou un code de conduite sur le développement et l’utilisation de ces nouveaux systèmes d’armement. Ce processus se doit d’impliquer non seulement les Etats, mais aussi la pluralité des acteurs concernés, dont les scientifiques, l’industrie militaire et les organisations gouvernementales et non gouvernementales. Ces principes pourraient également aborder la problématique des enjeux éthiques inhérents au développement de ces nouvelles technologies militaires. Dans un monde qui subit des transformations rapides et profondes, le droit doit faire preuve de flexibilité et de créativité pour faire face aux nouveaux défis qui se présentent à lui.

Andrea Bianchi, professeur à l’IHEID

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *