Cómo amaría Kant a un robot

No tengo dudas: los seres humanos podremos enamorarnos de los robots, pero esto no nos dice nada de las máquinas, sino de nosotros mismos y nuestra inmensa capacidad de amar. Ahora bien, ¿debemos amar a un humanoide? La industria de los robots sexuales los perfecciona cada día, tratando de que no sólo sirvan como objetos de deseo, sino como sujetos con los que interactuar y socializarse, es decir, capaces de tener algo parecido a una relación.

Cómo amaría Kant a un robotLas novelas de ciencia-ficción se han caracterizado por abordar nuestros grandes temores respecto al futuro, pero si por algo resulta inquietante la serie Black Mirror es porque sus tramas no se desarrollan en un lejano planeta ni en un siglo venidero, sino a la vuelta de la esquina. Nos resultan tan ajenas como familiares. En el capítulo Be right back, de la segunda temporada (atención: spoiler) una joven mujer pierde a su pareja y trata de sustituirlo con un androide cuya personalidad se diseña a partir de la huella electrónica y en redes sociales del marido muerto. Desde la pregunta de cómo afrontar la muerte de un ser querido hasta cómo manejaremos los vínculos emocionales con los robots, el episodio deja infinidad de preguntas sobre la mesa.

Tan cercana a nosotros es ya esa situación que afloró en el reciente debate celebrado en el Parlamento Europeo sobre la inteligencia artificial. Por desgracia, la iniciativa comenzó por buscar un nombre para esas máquinas inteligentes que nos acompañan ya. Por alguna extraña razón se descartó «robot», y se sugirió nada menos que «personas electrónicas». Sin embargo, el adjetivo «electrónica» nos habla sólo de una cualidad; lo sustancial, como su propio nombre indica, se encuentra en el sustantivo. Hablar de «personas electrónicas» nos conduce a una peligrosa analogía, porque en esencia los robots son muy distintos de los humanos. Es como si decidiéramos llamar a los perros «personas caninas». Le estaríamos reconociendo su lado perruno, pero identificaríamos al mismo tiempo su naturaleza como semejante a la nuestra.

Los robots no son nuestros semejantes, por más que se parezcan cada vez más a nosotros. Ser persona significa tener libertad, intención, voluntad, conciencia y un montón de cosas más. Tener libertad significa no estar programado. Cuando Sartre escribió que la tragedia de la vida humana es que estamos condenados a la libertad, quería decir que no estamos programados. El libre albedrío, nuestra autonomía, nos constituye como seres humanos y al mismo tiempo nos hace responsables de nuestros actos. Con todas nuestras limitaciones sociales, culturales y cognitivas, somos libres para decidir cómo nos enfrentamos a la vida y para tomar nuestras decisiones éticas. Cuando la cigüeña emigra no elige emigrar, simplemente está programada para ello: el instinto hace las veces de software animal. El instinto no elige, obedece. Por eso todos recordamos los magníficos versos de Alberti: «Se equivocó la paloma, se equivocaba; creyó que el norte era el sur», etc. Su fuerza literaria estriba en que la mera idea de que el instinto animal se equivoque, -se desprograme, por así decirlo- significa un vuelco brutal en las leyes del comportamiento animal: las palomas, sencillamente, no se equivocan. A los robots les ocurre algo similar, de ahí que no puedan ser juzgados como responsables de sus actos. A lo sumo, y en los casos más desarrollados de inteligencia artificial, lo que harán será procesar información, combinar variables, aplicar algoritmos… E incluso aunque lleguen a elegir entre distintas opciones, todo estará acorde a una programación realizada por seres humanos o, en el futuro, por otras máquinas.

La voluntad y la intención están estrechamente relacionadas con esto. Un coche sin conductor puede poner en juego sus algoritmos para pegar un frenazo que hiera a los pasajeros o, por el contrario, atropellar a un peatón para evitar el riesgo a los ocupantes del vehículo. Lo que no podremos nunca será acusarle de tener intención, de atropellar a un peatón adrede. No veo cómo los familiares de alguien que falleciera a causa del cálculo de un algoritmo podrían sentirse resarcidos si se pusiera entre rejas a la máquina y no a su fabricante o a la compañía comercializadora.

Qué decir de la conciencia. ¿Qué sabe un robot de sí mismo? ¿Qué sabe de sus actos? ¿Qué capacidad tiene de emitir un juicio moral sobre las implicaciones de sus cálculos? Imaginemos un robot programado para labores de cuidado de enfermos, con la indicación -en apariencia razonable- de salvar el mayor número de personas posibles siempre. Ahora planteémosle un dilema clásico de la filosofía moral. En una sala de Urgencias de un hospital, una doctora tiene ante sí a un hombre joven y sano con el fémur roto. Además se encuentran allí otros cinco pacientes: dos con fallo renal mortal, otro con el corazón parado, un cuarto con el hígado triturado y el último sin poder respirar. Si al robot le preguntaran sobre la posibilidad de matar al chico del fémur roto para donar sus órganos y salvar esas cinco vidas, haría un cálculo sencillo: muere uno, viven cinco. Sin embargo, eso es moralmente inaceptable. En numerosos experimentos llevados a cabo sobre este dilema, y al margen del contexto cultural, social, de edad, la mayoría abrumadora de los participantes calificaron la opción de matar a uno para salvar a cinco de moralmente errónea, incluso aunque no pudieran explicar por qué. Por si resulta necesario razonarlo, lo hizo Kant: «Trata a las personas como fines en sí mismas, y nunca como medios».

Los humanoides podrán tener una enorme utilidad, e incluso salvar vidas. Pero si les atribuimos algo parecido a una mente o un alma, no sembraremos confusión sobre ellos, sino sobre nosotros. El imperativo categórico de Kant habla justamente de la conciencia: esa cualidad del ser humano que le hace reconocerse en sus atributos esenciales. Su máxima, sensu contrario, nos puede servir también de guía para relacionarnos con las máquinas: trata a los androides siempre como medios y nunca como fines. La resolución del Parlamento Europeo alerta de los riesgos de desarrollar vínculos emocionales con los robots, sobre todo para gente vulnerable, como niños y ancianos entre otros. No perder de vista el carácter instrumental de los robots ayudaría a prevenir muchos desórdenes emocionales y mentales en nuestro trato con ellos. En el citado episodio de Black Mirror (atención: nuevo spoiler), sólo hay un hecho tranquilizador: la protagonista rechaza el clon de su marido muerto por ser demasiado perfecto. No cuela, sabe que no es su Ash. Nos dice que la esencia de la condición humana es la imperfección. Y nos dice que el amor vive alimentado por esas imperfecciones mutuas.

Irene Lozano es escritora.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *