Ni es inteligente ni es artificial: esa etiqueta es una herencia de la Guerra Fría

Exposición que combina inteligencia artificial y arte, en Estambul en junio de 2021.Mehmet Murat Onel (Anadolu Agency/ Getty Images) (Anadolu Agency via Getty Images)
Exposición que combina inteligencia artificial y arte, en Estambul en junio de 2021.Mehmet Murat Onel (Anadolu Agency/ Getty Images) (Anadolu Agency via Getty Images)

Elon Musk y Steve Wozniak, el cofundador de Apple, acaban de firmar una carta en la que piden una moratoria de seis meses en el entrenamiento de sistemas de inteligencia artificial (IA). El propósito es dar tiempo a que la sociedad se adapte a lo que los firmantes llaman “un verano de la IA”, que, en su opinión, acabará beneficiando a la humanidad, siempre que se pongan las salvaguardas adecuadas. Unas barreras que, entre otras cosas, deben incluir protocolos de seguridad rigurosamente vigilados.

Es un objetivo loable, pero hay algo aún mejor que conviene hacer en estos seis meses: retirar del debate público la manida etiqueta de “inteligencia artificial”. Hay que relegar este término al mismo montón de cenizas de la historia que “telón de acero”, “teoría del dominó” y el “momento Sputnik”.

La IA siempre ha sido un proyecto de los militares, la industria y las universidades de élite y sigue siéndolo, aunque ahora se haya democratizado su acceso. Como término, “inteligencia artificial” sobrevivió al final de la Guerra Fría gracias a su atractivo para los entusiastas de la ciencia ficción y los inversores. Pero podemos permitirnos herir sus sentimientos. ¿Por qué vamos a seguir reviviendo los traumas de la Guerra Fría, cuando este término es un corsé tan grande para nuestra imaginación?

En realidad, lo que hoy llamamos “inteligencia artificial” no es ni artificial ni inteligente. Los primeros sistemas de IA estaban muy dominados por reglas y programas, de modo que, por lo menos, la palabra “artificial” estaba justificada. Pero los sistemas actuales, como el ChatGPT que tanto gusta a todo s, no se basan en reglas abstractas, sino en el trabajo de seres humanos reales: artistas, músicos, programadores y escritores, de cuya obra creativa y profesional se apropian esos sistemas con la excusa de querer salvar la civilización. En todo caso, es una “inteligencia no artificial”.

En cuanto a “inteligencia”, el interés primordial de la Guerra Fría, que financió gran parte de los primeros trabajos en IA, influyó enormemente en el sentido que le damos. Es el tipo de inteligencia que sería útil en una batalla. Por ejemplo, lo mejor de la IA actual es su capacidad de buscar patrones. No es extraño, puesto que uno de los primeros usos militares de las redes neuronales —la tecnología en la que se basa ChatGPT— fue la detección de barcos en fotografías aéreas.

Sin embargo, muchos críticos han señalado que la inteligencia no consiste solo en buscar patrones o seguir reglas. También es importante la capacidad de generalizar. La obra de Marcel Duchamp Fuente, de 1917, es un buen ejemplo. Antes de Duchamp, un urinario no era más que un urinario. Pero Duchamp cambió la perspectiva y lo convirtió en una obra de arte. En ese momento, estaba generalizando sobre el arte.

Cuando generalizamos, la emoción anula las clasificaciones arraigadas y aparentemente “racionales” de las ideas y los objetos cotidianos. Deja en suspenso las operaciones habituales, casi maquínicas, de búsqueda de patrones. No es algo que convenga hacer en medio de una guerra.

La inteligencia humana no es unidimensional. Se apoya en lo que el psicoanalista chileno Ignacio Matte Blanco denominó bilógica: una fusión entre la lógica estática y atemporal del razonamiento formal y la lógica contextual y muy dinámica de la emoción. La primera busca las diferencias; la segunda las borra a toda velocidad. Nuestra mente sabe que el urinario está relacionado con el retrete; nuestro corazón, no. La bilógica explica cómo reorganizamos las cosas prosaicas de maneras nuevas y esclarecedoras. Todos lo hacemos, no solo Marcel Duchamp.

La IA no podrá hacerlo porque las máquinas no pueden tener un sentido (no un mero conocimiento) del pasado, el presente y el futuro. Sin ese sentido, no hay emoción, lo que elimina uno de los componentes de la bilógica. Como consecuencia, las máquinas siguen atrapadas en la lógica formal singular. Así que a eso queda reducida la parte de “inteligencia”.

ChatGPT tiene su utilidad. Es un motor predictivo que también puede servir de enciclopedia. Cuando se le pregunta qué tienen en común un botellero, una pala de nieve y un urinario, responde acertadamente que son objetos cotidianos que Duchamp convirtió en arte.

Pero cuando se le preguntó qué objetos actuales convertiría Duchamp en arte, respondió que los smartphones, los patinetes electrónicos y las mascarillas. Aquí no se vislumbra nada de bilógica ni, reconozcámoslo, de “inteligencia”. Es una máquina estadística que funciona bien pero es aburrida. Tiene su utilidad, por supuesto. Pero entonces el verdadero debate deberíamos tenerlo sobre hasta qué punto dependemos del pensamiento estadístico, en vez de sobre las ventajas de la “inteligencia artificial” frente a la “inteligencia humana” ni sobre el hombre frente a la máquina.

El peligro de seguir manejando un término tan inexacto y obsoleto como “inteligencia artificial” es que corremos el riesgo de convencernos de que el mundo funciona con arreglo a una lógica singular: la del racionalismo profundamente cognitivo y sin sentimientos. En Silicon Valley ya hay muchos que así lo creen y se están dedicando a reconstruir el mundo inspirados por esa convicción.

Pero el motivo por el que las herramientas como ChatGPT son capaces de hacer algo mínimamente creativo es que sus patrones de entrenamiento los han creado unos seres humanos reales, con sus emociones complejas, sus angustias y todo lo demás. Y, en muchos casos, no es el mercado —y mucho menos el capital riesgo de Silicon Valley— el que ha pagado por ello. Si queremos que esa creatividad siga existiendo, debemos financiar la producción de arte, ficción e historia, no solo los centros de datos y el aprendizaje automático.

En la actualidad, no parece que las cosas se encaminen en esa dirección. El máximo peligro de no retirar términos como “inteligencia artificial” es que impida ver el trabajo creativo de la inteligencia y, al mismo tiempo, haga que el mundo sea más predecible y estúpido. Este término, con su carácter apolítico y progresivo, hace más difícil descubrir los motivos de Silicon Valley y sus inversores; y, a la hora de la verdad, sus motivos no siempre coinciden con los de la gente.

Por eso, en lugar de pasarnos seis meses examinando los algoritmos mientras esperamos el “verano de la IA”, más nos valdría releer El sueño de una noche de verano, de Shakespeare. Así contribuiremos mucho más a hacer del mundo un lugar más inteligente.

Evgeny Morozov, doctor de Historia de la Ciencia por la Universidad de Harvard, es escritor y especialista en temas tecnológicos. Fundador y editor de The Syllabus, es autor de ‘La locura del solucionismo tecnológico’ (Clave Intelectual, 2015). Traducción de María Luisa Rodríguez Tapia.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *