¿Puede la inteligencia artificial tener conducta ética?

El mes pasado, AlphaGo, un programa de computadora diseñado especialmente para jugar al go, generó asombro entre los aficionados al derrotar a Lee Sidol, uno de los mejores jugadores profesionales del mundo, en un torneo a cinco partidos que ganó por 4 a 1.

¿Y cuál es la novedad?, dirá usted. Ya pasaron veinte años desde que la computadora Deep Blue de IBM derrotó al campeón mundial de ajedrez Garry Kasparov, y es bien sabido que desde entonces las computadoras han mejorado. Pero Deep Blue ganó por puro poder de cómputo, usando su capacidad para calcular los resultados de más jugadas a más distancia de la actual que lo que puede hacer incluso un campeón mundial. El go se juega en un tablero mucho más grande (una cuadrícula de 19 por 19, en vez de los 8 por 8 escaques del ajedrez) y la cantidad de posibilidades de juego supera a la de átomos en el universo; por eso, el mero poder de cálculo difícilmente bastaría para vencer a un ser humano dotado de un fuerte sentido intuitivo de las mejores jugadas.

En vez de eso, para enseñarle a AlphaGo cómo ganar, se lo hizo jugar una enorme cantidad de partidos contra otros programas y adoptar luego las estrategias exitosas. Podríamos decir que AlphaGo evolucionó hasta convertirse en el mejor jugador de go del mundo, y al hacerlo, consiguió en solo dos años lo que a la selección natural le llevó millones.

Eric Schmidt, presidente ejecutivo de la empresa matriz de Google que es propietaria de AlphaGo, está entusiasmado por lo que la inteligencia artificial (IA) supone para la humanidad. Antes del partido entre Lee y AlphaGo, dijo que cualquiera fuera el resultado, ganaría la humanidad, porque los avances en IA nos harán a todos más inteligentes, más capaces y “mejores seres humanos”.

¿Será verdad? Más o menos en simultáneo con el triunfo de AlphaGo, Microsoft sufrió una experiencia embarazosa con un “chatbot”: un programa al que diseñaron para interactuar en redes sociales con personas de entre 18 y 24 años, que hacía el papel de una adolescente llamada Taylor. Se suponía que “Tay” (así se presentaba ella) aprendería de los mensajes que recibiera y mejoraría gradualmente su capacidad para mantener conversaciones interesantes. Por desgracia, en menos de 24 horas, la gente estaba enseñándole ideas racistas y sexistas. Cuando empezó a elogiar a Hitler, Microsoft la desconectó y eliminó sus mensajes más ofensivos.

No sé si las personas que convirtieron a Tay en racista lo eran ellas mismas, o solo les pareció divertido sabotear el nuevo juguete de Microsoft. Como sea, la victoria de AlphaGo y la derrota de Taylor, puestas lado a lado, obran de advertencia. Poner a un programa de IA a jugar un juego con reglas específicas y un objetivo claro es una cosa; soltar un programa de IA en el mundo real, donde lo impredecible del entorno puede revelar un error del software, con consecuencias desastrosas, es otra muy diferente.

Nick Bostrom, director del Future of Humanity Institute de la Universidad de Oxford, señala en su libro Superinteligencia que desconectar una máquina inteligente no siempre será tan fácil como lo fue con Tay. Bostrom define la superinteligencia como un intelecto que es “más inteligente que los mejores cerebros humanos en prácticamente cualquier campo, incluida la creatividad científica, el sentido común y las habilidades sociales”. Un sistema así podría ser capaz de frustrar nuestros intentos de apagarlo.

No todos creen que la superinteligencia llegue a concretarse. Bostrom y su colega Vincent Müller preguntaron a expertos en IA para qué año consideraban que habría una probabilidad del 50% de crear máquinas con un nivel de inteligencia humano, y lo mismo con el 90%. La mediana de las respuestas para el supuesto del 50% se situó entre 2040 y 2050, y para el 90% fue 2075. La mayoría de los expertos consideraron que la superinteligencia llegaría dentro de los 30 años de haberse logrado una inteligencia artificial de nivel comparable al humano.

Pero estas estimaciones hay que tomarlas con pinzas. De los invitados a la encuesta, los que efectivamente respondieron no fueron más del 31%, y los investigadores en IA tienen motivos para realzar la importancia de su área de trabajo proclamando su potencial de producir resultados trascendentales.

La posibilidad de que un día exista la superinteligencia artificial puede parecer demasiado remota como para preocuparse, especialmente con los problemas que ya hay. Pero tiene sentido que empecemos a pensar en cómo diseñar la IA de modo que tenga en cuenta los intereses de los seres humanos, y en realidad, de todos los seres sensibles (incluidas las máquinas, si también fueran seres conscientes con intereses propios).

Ahora que por las rutas de California andan autos sin conductor, ya es hora de preguntarnos si es posible programar criterios éticos en una máquina. Conforme esos autos mejoren, salvarán vidas, porque cometerán menos errores que un conductor humano. Pero a veces, tendrán que elegir entre vidas. ¿Deberíamos programarlos para pegar un volantazo y salvarle la vida a un niño que cruzó la calle sin mirar, aunque al hacerlo ponga en riesgo las vidas de sus pasajeros? ¿Y si en vez de un niño fuera un perro? ¿Y si el único riesgo de daño es al auto, pero no a los pasajeros?

Ya un debate sobre cuestiones éticas en relación con autos sin conductor podría enseñarnos algo. Pero los autos sin conductor no son seres superinteligentes. Enseñarle ética a una máquina que nos supere en una amplia variedad de campos sería mucho más complejo.

Bostrom comienza Superinteligencia con una fábula sobre unos gorriones que piensan que sería buena idea entrenar a un búho para que los ayude a hacer sus nidos y cuidar sus pichones. Así que deciden ir a buscar un huevo de búho. Uno de los gorriones protesta: primero deberían pensar en cómo domesticar al búho. Pero los otros están ansiosos de ver el proyecto en marcha. Ya se ocuparán de entrenar al búho (por ejemplo, para que no coma gorriones) cuando hayan logrado empollar y criar uno.

Si queremos hacer un búho que sea sabio, y no solo inteligente, no hagamos como los gorriones impacientes.

Peter Singer is Professor of Bioethics at Princeton University and Laureate Professor at the University of Melbourne. His books include Animal Liberation, Practical Ethics, The Ethics of What We Eat (with Jim Mason), Rethinking Life and Death, The Point of View of the Universe, co-authored with Katarzyna de Lazari-Radek, The Most Good You Can Do, and, most recently, Famine, Affluence, and Morality. In 2013, he was named the world's third "most influential contemporary thinker" by the Gottlieb Duttweiler Institute. Traducción: Esteban Flamini.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *