Una pausa cuestionable en la inteligencia artificial

La inteligencia artificial (IA) vive tiempos convulsos. En los últimos meses, hemos sido testigos de avances sin precedentes en las técnicas de inteligencia artificial generativa que permiten de manera muy sencilla crear, casi instantáneamente, textos, música, imágenes, voz, vídeos o código con un nivel de competencia similar o incluso superior al de los humanos. El hecho de que, por primera vez en nuestra historia, lo que leemos, vemos o escuchamos no haya sido creado por un humano plantea profundos dilemas sociales y éticos que sin duda debemos abordar.

Hace poco más de un mes, el Future of Life Institute publicó una carta apoyada por miles de personas —incluyendo figuras destacadas como el historiador y filósofo Yuval Noah Harari, el experto en IA y ganador del Premio Turing Joshua Bengio o el empresario Elon Musk— en la que se propone una “pausa de la inteligencia artificial”, interrumpiendo durante al menos seis meses el desarrollo de sistemas de inteligencia artificial que sean más poderosos que GPT-4 (la última versión pública de ChatGPT) y se pide el desarrollo de protocolos de seguridad rigurosos y un sistema de gobernanza de la IA sólido para garantizar que los efectos de estos sistemas sean positivos y manejables.

Sin duda, es prioritario y necesario desplegar sistemas de gobernanza y regulación que garanticen que el impacto social de la inteligencia artificial sea positivo. Sin embargo, las motivaciones de la institución que promueve la carta, así como el foco en evitar un riesgo existencial para la humanidad debido a la IA, son altamente controvertidos y cuestionables. No es sorprendente que tras su publicación, la carta haya suscitado tantos defensores como detractores, hasta la publicación, unos días después, de una contundente respuesta a la misma por parte de las autoras de uno de los artículos citados por la carta. ¿Qué hay detrás de este debate? ¿Nos enfrentamos realmente a una amenaza existencial a causa del desarrollo de la inteligencia artificial? ¿Nos encontramos en la antesala del fin de la humanidad?

Para poder entender esta carta y sus propuestas es preciso conocer las teorías del movimiento —religión para algunos— largoplacista y el llamado altruismo efectivo que han promovido su publicación.

Más allá de la indefinición de la carta (qué significa “sistemas más poderosos que GPT-4″ cuando desconocemos el poder de GPT-4 al ser un sistema totalmente opaco) y de su simplificación de la complejidad del reto (es imposible que en seis meses se desarrollen modelos de gobernanza de la IA cuando en Europa llevamos dos años trabajando en la regulación europea, el AI Act), la carta omite poner el foco en los riesgos y consecuencias negativas reales del desarrollo y despliegue masivo de la inteligencia artificial en la sociedad. Por el contrario, se centra en los potenciales “riesgos existenciales” que plantea la inteligencia artificial y que supuestamente impedirían el progreso de la humanidad. Progreso que, según el largoplacismo, consiste en la creación de trillones de poshumanos digitales, viviendo en una gran simulación computacional y colonizando el espacio gracias a una omnipresente y todopoderosa inteligencia artificial amiga.

Esta visión es evidentemente controvertida y no necesariamente compartida por la sociedad en su conjunto. También es una visión peligrosa, porque justifica ignorar los grandes retos de los humanos de carne y hueso de hoy en día, en tanto que dichos retos no representen un riesgo existencial. Justifica, por ejemplo, no invertir recursos en mitigar la desigualdad o la pobreza en el mundo de hoy si no son un riesgo existencial para el desarrollo de la poshumanidad. En el contexto de la inteligencia artificial, desvía la atención de los retos inminentes y riesgos reales que la IA nos plantea y se centra en el riesgo que conllevaría una hipotética inteligencia artificial sobrehumana y desbocada.

Retos como la violación de la privacidad y el uso de cantidades masivas de datos sin consentimiento expreso y potencialmente infringiendo los derechos de propiedad intelectual de los creadores de dichos datos; la explotación de los trabajadores que anotan, entrenan y corrigen sistemas de IA, muchos de ellos en países en desarrollo con sueldos ínfimos; los sesgos y la discriminación algorítmicos que no solo perpetúan sino incluso exacerban estereotipos, patrones de discriminación y sistemas de opresión; la falta de transparencia tanto en los modelos como en sus usos; la ingente huella de carbono de las grandes redes neuronales que conforman estos sistemas de IA; la manipulación subliminal del comportamiento humano por parte de algoritmos de IA; la falta de veracidad de los sistemas de IA generativa que inventan todo tipo de contenidos (imágenes, textos, audios, videos...) sin correspondencia con el mundo real; la fragilidad de estos grandes modelos que pueden equivocarse y ser engañados; o la concentración de poder en las manos de un oligopolio de empresas y sus multimillonarios dueños o inversores. Todas estas cuestiones de tal importancia que deberían ser nuestra prioridad, brillan por su ausencia.

Es evidente que las peligrosas teorías largoplacistas han penetrado no solo en los círculos de influencia del sector tecnológico, sino también en instituciones gubernamentales. Teorías que propugnan la necesaria adaptación de la humanidad a un desarrollo tecnológico decidido por un grupo privilegiado, en lugar de promover el desarrollo de tecnología que se adapte a las personas y sus necesidades (y no al revés); tecnología que nos ayude a afrontar los inmensos retos del siglo XXI; tecnología, en suma, que represente un progreso, entendido el progreso como una mejora de la calidad de vida de las personas (de todas, no solo de algunas), del resto de seres vivos y de nuestro planeta.

La “carrera por la inteligencia artificial” no es una carrera que hemos decidido y consensuado colectivamente. Los inmensos experimentos sociales que se derivan del despliegue masivo de algoritmos de inteligencia artificial en nuestras sociedades sin ningún tipo de regulación y control no forman parte de un futuro inevitable y un falso determinismo tecnológico, sino que son fruto de las decisiones de las empresas responsables de dichos sistemas —movidas por ambiciosos intereses económicos y aspiraciones de poder— y de la incapacidad de las sociedades y sus instituciones para reaccionar a tiempo y regular acordemente.

Es momento de actuar como sociedad, definiendo colectivamente los horizontes éticos y políticos de la IA, porque estamos hablando de ciencia y tecnología, pero también de derechos, de economía, de democracia, de igualdad, de inclusión, de ciudadanía, de paz y de poder.

Gandhi dijo que “el poder para cuestionar es la base del progreso humano”. Es tiempo no solo de cuestionar, sino especialmente de encontrar respuestas para las profundas preguntas que plantea la inteligencia artificial. No hay sociedad más vulnerable y fácilmente manipulable que una sociedad ignorante. Por ello, es tiempo de educar, de aprender y de no dejarnos caer en el sensacionalismo apocalíptico. Es tiempo de ser dueños de nuestro destino, de regular la IA con inteligencia y de enfocarnos en detener las prácticas abusivas y el daño social causado por las empresas detrás de los avances de la inteligencia artificial, que en la última década han acumulado poder sin precedentes y han contribuido a la desigualdad social. Es tiempo de invertir en inteligencia artificial que contribuya al progreso, sin dejar a nadie atrás y sin destruir el planeta en el proceso. No dejemos que sean otros —humanos o algoritmos— los que decidan nuestro futuro.

Nuria Oliver es doctora en Inteligencia Artificial por el MIT, cofundadora y vicepresidenta de ellis.eu.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *