Le robot doit rester un outil comme un autre

Erica, un robot créé par les laboratoires Hiroshi Ishiguro, est présentée au public. Madrid, octobre 2018. © GABRIEL BOUYS/AFP
Erica, un robot créé par les laboratoires Hiroshi Ishiguro, est présentée au public. Madrid, octobre 2018. © GABRIEL BOUYS/AFP

Les robots sont partout présentés comme les meilleurs amis de l’homme. Des amis avec lesquels il sera bientôt possible d’interagir comme avec un bon camarade, en leur parlant et en guettant sur leur visage les signes d’une bonne compréhension. Des amis en outre toujours disponibles, attentifs à nos besoins, attentionnés et gratifiants.

Les avantages de ces machines capables de simuler une relation humaine sont considérables, notamment dans l’éducation et la santé, mais leurs dangers ne le sont pas moins. Lorsqu’elles seront dotées d’«émotions artificielles» et d’«humour machine», il deviendra très difficile de garder à l’esprit qu’elles n’ont aucune conscience de ce qu’elles font, et encore moins de ce qu’elles sont.

Ce funeste penchant a été identifié dès les années 1960 par Weizenbaum, il s’appelle la «dissonance cognitive». Il consiste à savoir une chose – par exemple qu’une machine n’a pas d’émotions –, mais à ne pas pouvoir s’empêcher de se comporter comme si elle en avait, voire de le croire. De nouvelles formes d’animisme pourraient se développer, prêtant aux machines des capacités qu'elles sont encore bien loin de posséder. De façon générale, quatre risques nous guettent, qui sont l’un des champs de recherche de la cyberpsychologie et de l’Institut pour l’étude des relations homme-robots.

Les quatre risques

Le premier de ces risques serait que l’apparente «autonomie» de ces machines nous fasse oublier qu’il y a un programmeur derrière chacune d’entre elles. La confiance que nous leur porterons nous incitera à leur confier toujours plus d’informations qui seront gérées par des entreprises dont le seul but est souvent le profit des actionnaires. Les mots de «manipulation» et de «contrôle», associés dans les années 1930 à l’idée d’une transformation des individus par un changement maîtrisé de leur environnement social, désignent maintenant la possibilité d’intervenir de façon ciblée dans la sphère la plus intime de chacun.

C’est ce qu’a montré le scandale de Cambridge Analytica, dans lequel des dizaines de millions d’Américains ont reçu des publicités politiques rigoureusement adaptées à leurs centres d’intérêt et à leur personnalité afin de les faire voter pour le candidat Donald Trump. Le Règlement général de protection des données (RGPD) mis en place en Europe est destiné à nous protéger contre ce danger.

Le second risque est d’appauvrir notre monde intérieur sans même nous en rendre compte. Ces machines auront des mimiques simplifiées, et elles nous inciteront à faire de même. Et en interagissant avec nous en fonction de nos choix passés, elles nous enfermeront dans des «bulles», un peu comme le font déjà Amazon ou Google, mais en plus grave. Un troisième risque sera de croire qu’un robot pourrait vraiment avoir des émotions, et donc souffrir. Cela pourrait amener son utilisateur à risquer sa propre vie pour lui éviter des dommages, alors qu’une pièce de robot peut facilement être changée.

Quant au quatrième risque, c’est celui de préférer des robots prévisibles à des humains imprévisibles. Autrement dit, nous rendre moins tolérants au caractère imprévisible de l’humain, voire créer des formes de «robot dépendance». Au pire, nous finirions par percevoir le robot comme une image souhaitable de l’humain, et d’attendre des hommes les mêmes attitudes: disponibilité, prévisibilité, fiabilité, auxquelles il faut ajouter la formidable capacité qu’auront les robots à nous gratifier sans cesse.

Quelles mesures de protection?

Posons d’abord comme principe que les robots ne doivent remplacer les humains que pour des tâches dans lesquelles il n’y a pas d’intervention auprès d’autres humains, notamment celles qui sont dangereuses, sales et répétitives. Mais dès qu’il y a une relation, le robot doit être un outil comme un autre: il doit accompagner et aider le professionnel, pour lui permettre de faire mieux avec lui ce qu’il faisait auparavant sans lui.

Des mesures spécifiques s’imposent également. Le législateur doit veiller à protéger la vie privée et le respect du libre choix, et à favoriser les reconversions professionnelles. Des mesures technologiques doivent rappeler les limites de la machine et favoriser la possibilité de l’éteindre. Enfin, il faut bien évidemment éduquer, dès le plus jeune âge, en introduisant des cours de programmation et de montage et démontage de robots dès l’école primaire. Tout cela dans un seul but: protéger l’homme des dangers qu’il se ferait courir à lui-même du fait d’une mauvaise appréciation de ce que sont les robots.

Serge Tisseron est psychiatre, membre de l’Académie des technologies. Son dernier ouvrage: Petit traité de cyberpsychologie pour ne pas prendre les robots pour des messies et l’IA pour une lanterne, Ed. Le Pommier, 2018.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *