Droit des robots (III): un débat entre réalité et science-fiction

Chercheuse au Massachussets Institute of Technology (MIT) et spécialiste de l’impact sociétal des technologies robotiques, Kate Darling s’est intéressée de près à l’influence de l’anthropomorphisme sur les relations homme-robots, notamment après avoir observé que des soldats américains étaient prêt à risquer leur propre vie pour sauver celles de robots démineurs. C’est donc partant de ce risque imitatif, et non pour le prétendu bien des robots, qu’elle suggère d’interdire les mauvais traitements envers les machines, puisque ceux-ci pourraient ensuite être reproduits contre des humains.

Excitation inutile

Gardons-nous ainsi d’exciter inutilement l’imaginaire de la population en tissant des fils invisibles et abusifs entre la fiction et le développement réel de la robotique: si les algorithmes d’apprentissage du programme d’IA Watson d’IBM ou des voitures autonomes appartiennent sans nul doute à une génération renouvelée de méthodes numériques, dont on ne saurait que saluer les prouesses, ils ne restent toutefois que l’expression de purs modèles statistiques dont l’objectif est l’optimisation d’une réponse (un geste, une parole, une activité) dans un contexte assez délimité.

C’est probablement là ou pêche le raisonnement d'Alain Bensoussan [avocat spécialisé dans la technologie, ndlr]: le fait que des algorithmes dépassent, dans leurs résultats, certaines capacités humaines, ne suffit indéniablement pas à conférer au robot le souffle de vie qui rendrait l’autonomie de celui-ci autrement plus compliquée à appréhender et qui nécessiterait de lui appliquer un régime analogue à celui des êtres humains.

Pas de droit spécifique de la machine à calculer

Comme le relève sur Internet un commentateur anonyme plutôt avisé, «on s’émeut rarement de la rapidité d’une calculatrice, de la capacité de nettoyage d’une machine à laver ou de la vitesse d’un vélo par rapport aux capacités respectives d’un humain» et «cela ne justifie pas qu’il faille établir un droit spécifique de la machine à calculer, de la machine à laver ou de la bicyclette».

Bien sûr, les images évoquées sont quelque peu simplificatrices puisque ces objets ne possèdent pas l’autonomie comportementale que l’on prête à certains robots. Reste qu’un tel constat suffit à recadrer drastiquement le débat: la question n’est pas de savoir s’il convient de donner des droits aux robots ou d’interdire aux humains d’avoir des relations sexuelles avec eux (je ne vois pas trop, contrairement à Me Alain Bensoussan, ce qui permettrait à un fabricant d’interdire à un utilisateur hardi de copuler avec sa machine et quelle en serait la sanction éventuelle, hormis une possible exclusion de garantie) mais bien de mettre sur pied un système pragmatique de droit de la responsabilité pour les dommages causés en tout ou en partie par les robots.

Ecraser des enfants ou sacrifier le conducteur

Quand ma voiture, équipée d’un dispositif anti-collision intelligent, devra arbitrer entre une collision – possiblement fatale pour le conducteur que je suis – avec un poids lourd et un évitement d’urgence ayant pour conséquence de faucher trois enfants, se poseront les vrais problèmes: qui, du fabricant de la voiture, du concepteur du logiciel ou du conducteur sera responsable et, cas échéant, dans quelles proportions?

Quel fabricant de voiture osera, sur l’autel de la communication avec ses clients, privilégier les trois enfants et donc sacrifier son client de conducteur en cas de collision alternative inéluctable? Et qui achètera une voiture dont le système intelligent pourrait lui valoir, sans décision de sa part, une procédure pour homicide par négligence? Les vraies questions juridiques ne sont pas anecdotiques, tant s’en faut.

Partie pas gagnée

S’il n’est pas inenvisageable de mettre en place, à terme, un régime juridique analogue à celui appliqué à la responsabilité du détenteur d’un animal et figurant à l’article 56 du Code civil suisse (cette possible solution est d’ailleurs évoquée dans le livre vert d’EuRobotics en 2012), voire un système ad hoc fondé sur les spécificités du robot s’agissant de la responsabilité pour des actes ou omissions commis au détriment de personnes humaines ou de biens matériels, l’exemple précité montre que la partie n’est pas gagnée d’avance.

Le passage de l’automate (le distributeur de bonbons de notre enfance) au robot réactif (l’aspirateur automatique) puis au robot cognitif nécessite en effet d’être pris en compte par le droit puisque cela a pour effet de complexifier drastiquement la chaîne de responsabilité, laquelle est désormais multiple puisqu’elle implique un très grand nombre d’intervenants: propriétaire, utilisateur, concepteur de l’objet, concepteur du logiciel d’intelligence artificielle, etc.

Un imaginaire qui doit rester cantonné à la science-fiction

Dans le cas des logiciels libres, la situation se complexifie encore puisqu’il est alors véritablement question d’une création collective du logiciel. Rajoutez à cela la problématique aiguë des données personnelles – cas échéant sensibles – collectées et traitées par le robot et dont il est entendu qu’elles seront stockées de façon décentralisée au moyen de l’informatique en nuage (cloud computing) et vous percevrez la complexité absolue du monde qui nous attend.

Mais il faut raison garder: sans notion du bien et du mal ni réels sentiments ressentis, n’oublions pas que le robot ne sera jamais qu’une machine, aussi perfectionnée soit-elle. Ne lui prêtons pas un souffle de vie qu’elle ne possède pas: ce serait rendre un bien méchant service à la robotique que de lui offrir cet écrin obscurantiste puisque l’établissement de son régime de responsabilité ne nécessite pas de nourrir un imaginaire qui doit rester cantonné à la science-fiction.

Nicolas Capt, avocat.


Droit des robots :: Les robots ont-ils des droits? Le débat s’intensifie (I) :: Controverse sur la personnalité juridique des robots (II) :: Un débat entre réalité et science-fiction (III) ::

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *