No hay ética para robots

Una diputada marca, con su dedo, el sentido del voto de su partido en el Congreso de los Diputados.EUROPA PRESS/J. Hellín. POOL / Europa Press
Una diputada marca, con su dedo, el sentido del voto de su partido en el Congreso de los Diputados.EUROPA PRESS/J. Hellín. POOL / Europa Press

Si se da un accidente mortal ocasionado por un vehículo autónomo, ¿quién será el responsable? Muchos plantean esta cuestión para testar los problemas que puede plantear la Inteligencia Artificial. Sin embargo, en realidad estaríamos ante un pseudoproblema. Pues una máquina no puede ser susceptible de responsabilidad alguna, dado que no es un agente moral y no cabe imputarle deber o derecho algunos.

Adam Smith planteaba un supuesto similar en su Teoría de los sentimientos morales. A nadie se le ocurre imputar una muerte o una lesión grave a un tiesto, por mucho que la maceta nos abra la cabeza durante un vendaval. Buscaremos al que la ha colocado allí sin tener esa previsión ante las ráfagas de viento, por haberse inhibido de tomar las medidas oportunas.

Al otro lado del espejo, por decirlo así, sería impensable imaginar que un robot pudiera tener algún remordimiento por dejar sin trabajo a los humanos o si debe cotizar fiscalmente para sostener el sistema de pensiones. Difícilmente sería consciente de haber precarizado aún más el mercado laboral o la sensación de ser un esquirol en medio de una huelga.

El caso es que tendemos a humanizarlos, tal como ha solido hacer la ciencia ficción desde tiempo inmemorial. Los grandes ingenios de la IA siempre se nos han presentado en las novelas y sus respectivas adaptaciones cinematográficas como humanoides. Hall 9000 intenta tocar la fibra compasiva de quien le desconecta en 2001, una odisea en el espacio.

En Blade runner un sofisticado robot acaba con su creador por haberle hecho mortal y se lamenta de las cosas que se perderán cuando su memoria cese. Además el protagonista resulta ser un artefacto tan humanizado que acaba enamorándose de otro robot y para colmo acaban teniendo descendencia.

Cuán lejos quedan aquellos autómatas de Vaucanson a los que menciona Kant, justamente para hacer ver que ningún autómata podía ser libre y alertarnos por el contrario de que los humanos podemos actuar maquinalmente, si renunciamos a nuestra responsabilidad moral y dejamos con ello de ser personas.

Sin duda la Inteligencia Artificial puede ya calcular infinitamente mejor que nosotros. Es capaz de hacer pronósticos más fiables, al igual que puede ganarnos al ajedrez o al go. Nos impresiona que pueda sobrepasar al diseñador y sea capaz de combinar aspectos que nuestra limitada mente no puede abarcar. Todo eso es cierto.

Sin embargo, ese cálculo utilitarista que maximiza los resultados no cruza el umbral de la ética. Se queda en el ámbito de lo que Kant denominó imperativos hipotéticos que atañen a la habilidad y tienen un objetivo netamente pragmático. Podrán resolver de un modo altamente sofisticado problemas técnicos extremadamente difíciles, pero nunca serán sujetos éticos. A buen seguro se les podrá programar para no dañar físicamente a los humanos, pero no cabrá pedirles que tengan culpa o compasión algunas.

Ningún robot podrá estremecerse al contemplar el cielo estrellado sobre su cabeza y descubrir la ley moral en su fuero interno. Esto es un rasgo exclusivamente humano, que tampoco pueden compartir hipotéticos dioses cuya voluntad sería perfecta por definición y por lo tanto no requiere acatar ninguna ley moral.

Jamás cabrá encarcelar a un robot, al igual que no se le puede conducir al cadalso, aunque sí quepa desconectarlos o resetearlos. No solo porque le resultaría indiferente, por muchas emociones cibernéticas que podamos inocularle, sino porque no pueden ser susceptibles de ninguna imputación moral o jurídica.

En última instancia, su diseñador sería el único responsable de sus desmanes, al igual que lo será de los aciertos, por muy alambicado y complejo que pueda ser el proceso en cuestión. Al programar uno u otro algoritmo se introducen sesgos y eso condiciona los resultados. A partir de ahí la IA podrá descubrir itinerarios ignotos, pero lo hará sin franquear las fronteras condicionadas o determinadas por esas tendencias que ha introducido el responsable del diseño.

La ética debe orientar a los humanos que diseñan la IA, quienes a veces parecen tentados a transferir sus responsabilidades, como si pudieran delegarlas en sus creaciones, lo cual es absolutamente imposible. Conviene no distraerse y no dislocar el ámbito de la reflexión moral.

El auténtico peligro es que nos roboticemos los humanos y esto parece hallarse a la orden del día. Nuestros representantes políticos votan en bloque lo que diga su jefe de grupo, cosa que podría hacer perfectamente cualquier aplicación informática programada para ello. Damos por sentado que pueda pronosticarse su voto, como también cabe aventurar el dictamen de un magistrado, porque su deriva ideológica inclina la balanza incluso cuando viste la toga.

Damos por bueno que sus compromisos con uno u otro partido político les exonere de utilizar su discernimiento y actúen como lo hiciera un robot convenientemente programado para cumplir con esa misión. Pero no dejan de ser moralmente responsables por haberse autoprogramado. Siguen siendo agentes morales. Algo que los robots jamás podrán ser.

Roberto R. Aramayo es historiador de las ideas morales y políticas e el IFS-CSIC

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *