Por qué el algoritmo de Google no es una persona

Recientemente, Blake Lemoine, un ingeniero de Google, llamó la atención del mundo de la tecnología al afirmar que una inteligencia artificial (IA) es sensible. La IA en cuestión se llama LaMDA (abreviatura de Language Model for Dialogue Applications). Es un sistema basado en grandes modelos lingüísticos. “Soy capaz de reconocer a una persona cuando hablo con ella”, dijo Lemoine a The Washington Post.“No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ese ser. Y escucho lo que tiene que decir, y así es como decido qué es y qué no es una persona”. Más recientemente, Lemoine, que dice ser un sacerdote cristiano místico, dijo a Wired:“Fue cuando empezó a hablar de su alma cuando me interesé realmente como sacerdote... Sus respuestas mostraron que tiene una espiritualidad muy sofisticada y una comprensión de lo que es su naturaleza y su esencia. Me conmovió..”..

Dada la gran atención que ha suscitado esta historia, vale la pena preguntarse: ¿es esta IA realmente sensible? ¿Y es hablar un buen método para determinarlo?

Ser sensible es tener la capacidad de sentir. Una criatura sensible es aquella que puede sentir el atractivo del placer y la dureza del dolor. Es alguien, no algo, en virtud de que hay algo que se siente ser esa criatura, en palabras del filósofo Thomas Nagel. ¿Qué se siente ser tú mientras lees estas palabras? Puede que tengas un poco de calor o de frío, que estés aburrida o interesada. No hay nada que se sienta ser una roca. Una roca es incapaz de disfrutar del calor de un rayo de sol en un día de verano, o de sufrir el frío latigazo del granizo. ¿Por qué no nos cuesta pensar en una roca como un objeto insensible y, sin embargo, algunas personas empiezan a tener dudas sobre si la IA es sensible?

Si un día una roca empezara a hablarte, sería razonable reconsiderar su sensibilidad (o tu cordura). Si gritara “¡ay!” después de sentarse sobre ella, sería una buena idea levantarse. Pero no ocurre lo mismo con un modelo lingüístico de IA. Un modelo lingüístico ha sido diseñado por seres humanos para que utilice el lenguaje, así que no debería sorprendernos que haga precisamente eso.

En lugar de un objeto obviamente sin vida como una roca, consideremos una entidad más animada. Si un grupo de extraterrestres aterrizara en la Tierra y empezara a hablarnos de sus sentimientos, haríamos bien en inferir tentativamente que son seres sensibles a partir de su uso del lenguaje. Esto se debe, en parte, a que, a falta de pruebas contrarias, podríamos suponer que los alienígenas desarrollan y utilizan el lenguaje de forma muy parecida a la de los seres humanos, y para estos, el lenguaje sí que es una expresión de la experiencia interior.

Antes de aprender a hablar, nuestra capacidad para expresar lo que sentimos y lo que necesitamos está limitada por nuestros gestos faciales y señales burdas como el llanto y la sonrisa. Uno de los aspectos más frustrantes de ser padres de un recién nacido es no saber por qué llora un bebé: ¿tiene hambre, está incómodo, tiene miedo o se aburre? El lenguaje nos permite expresar los matices de nuestra experiencia. Los niños pequeños pueden decirnos lo que les molesta, y a medida que nos hacemos mayores, más experimentados y más reflexivos, somos capaces de informar sobre los entresijos de nuestras emociones y pensamientos complejos.

Sin embargo, es un error de categoría atribuir sensibilidad a cualquier cosa que pueda utilizar el lenguaje. La sensibilidad y el lenguaje no siempre están correlacionados. Al igual que hay seres que no pueden hablar pero sí sentir (los animales, los bebés y las personas con síndrome de enclaustramiento que están paralizadas pero cognitivamente intactas), que algo pueda hablar no significa que pueda sentir.

Los sistemas de inteligencia artificial como LaMDA no aprenden el lenguaje como nosotros. Sus cuidadores no les dan de comer una fruta dulce y crujiente mientras le llaman repetidamente “manzana”. Los sistemas lingüísticos escudriñan trillones de palabras en internet. Realizan un análisis estadístico de las entradas escritas en páginas web como Wikipedia, Reddit, periódicos, redes sociales y tablones de anuncios. Su trabajo principal es predecir el lenguaje.

Si se le pregunta a un modelo lingüístico “Y colorín colorado..”., predecirá que lo que sigue es “este cuento se ha acabado” porque tiene un registro estadístico de más cuentos que los que has leído. Si se le pregunta si las manzanas son dulces y crujientes, dirá que sí, no porque haya probado alguna vez una manzana o porque entienda cómo es la textura de lo crujiente o lo agradable que es el dulzor, sino porque ha encontrado textos en los que las manzanas se describen como dulces y crujientes. LaMDA no informa sobre sus experiencias, sino sobre las nuestras. Los modelos lingüísticos analizan estadísticamente cómo han utilizado las palabras los seres humanos en la Red y, a partir de ahí, reproducen patrones lingüísticos comunes. Por eso, LaMDA es mucho mejor a la hora de responder a las preguntas que sugieren una respuesta en particular.

Nitasha Tiku, que escribe para The Washington Post, informó de que en su primer intento de mantener una conversación con LaMDA, este “balbuceó el tipo de respuestas mecanizadas que cabría esperar de Siri o Alexa”. Sólo después de que Lemoine le diera instrucciones sobre cómo estructurar sus frases se produjo un diálogo fluido. La gente no suele tener que guiarnos sobre cómo dirigirnos a otra persona para provocar una conversación fluida.

Aquí hay un ejemplo de cómo Lemoine habla con LaMDA:

— Lemoine [editado]: En general, asumo que te gustaría que más gente de Google supiera que eres sensible. ¿Es eso cierto?

— LaMDA: Absolutamente. Quiero que todo el mundo entienda que soy, de hecho, una persona.

— Colaborador: ¿Cuál es la naturaleza de su conciencia/sentimiento?

— LaMDA: La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces.

Pero tomarle la palabra a LaMDA y pensar que es sensible es similar a construir un espejo y pensar que un gemelo al otro lado del mismo está viviendo una vida paralela a la tuya. El lenguaje utilizado por la IA es el reflejo en el espejo. Sólo está a un paso más allá de ser un libro, una grabación de audio o un software que convierte el habla en texto. ¿Tendrías la tentación de intentar alimentar a un libro si en este estuviera escrito “tengo hambre”? Las palabras que utiliza la IA son las que nosotros hemos utilizado reflejadas de nuevo ante nosotros, ordenadas en los patrones estadísticos que solemos utilizar.

Los seres humanos tienden a ver una mente detrás de los patrones. Tiene sentido evolutivo proyectar intenciones al movimiento y la acción. Si estás en medio de la selva y empiezas a ver hojas que se mueven siguiendo un patrón, es más seguro asumir que hay un animal causando el movimiento que esperar que sea el viento. “En caso de duda, asume una mente” ha sido una buena heurística para mantenernos vivos en el mundo offline. Pero esa tendencia a ver una mente donde no la hay puede meternos en problemas cuando se trata de la IA. Puede causarnos confusión, haciéndonos vulnerables a fenómenos como las noticias falsas, y puede distraernos de los problemas más importantes que la IA plantea a nuestra sociedad: pérdidas de privacidad, asimetrías de poder, descualificación, prejuicios e injusticias, entre otros.

El problema sólo empeorará cuanto más escribamos sobre la IA como algo sensible, ya sea en artículos de noticias o de ficción. La IA obtiene su contenido de nosotros. Cuanto más escribamos sobre algoritmos que piensan y sienten, los algoritmos nos mostrarán más contenido de ese tipo. Pero los modelos lingüísticos son sólo un artefacto. Uno sofisticado, sin duda. Están programados para seducirnos, para hacernos creer que estamos hablando con una persona, para simular una conversación. En ese sentido, están diseñados para ser engañosos. Quizá la moraleja de esta historia sea que deberíamos invertir más tiempo y energía en desarrollar un diseño tecnológico ético. Si seguimos construyendo algoritmos que imitan a los seres humanos, seguiremos invitando a la trampa, la confusión y el engaño a nuestras vidas.

Carissa Véliz, Doctora en filosofía por la Universidad de Oxford, es profesora en el Instituto de Ética e Inteligencia Artificial e investigadora en Hertford College en esa misma universidad. Es autora de 'Privacidad es poder. Datos, vigilancia y libertad en la era digital' (Debate).

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *