El sigiloso avance hacia la distopía

El sigiloso avance hacia la distopía

Mientras los inversores derraman miles de millones de dólares sobre las empresas emergentes relacionadas con la inteligencia artificial, la locura de la IA generativa comienza a parecerse a una burbuja especulativa similar a la manía holandesa por los tulipanes en la década de 1630 y a la burbuja de los mares del sur de principios del siglo XVIII. Y, de manera muy similar a la de esos episodios, la bonanza de la IA parece encaminarse hacia la inevitable ruina. En lugar de crear nuevos activos, amenaza con dejar tras de sí solo montañas de deuda.

La idea de que los modelos grandes de lenguaje —como el GPT-4, presentado recientemente por OpenAI— serán capaces de producir contenidos virtualmente indistinguibles de los que generan los humanos alienta el bombo publicitario actual de la IA. Los inversores apuestan a que los sistemas avanzados de IA generativa crearán fácilmente textos, música, imágenes y videos de todos los estilos imaginables a partir de pedidos sencillos de los usuarios.

En medio del creciente entusiasmo por la IA generativa, sin embargo, crece la preocupación por su potencial impacto sobre el mercado laboral. Un informe reciente de Goldman Sachs sobre los efectos económicos «potencialmente grandes» de la IA estima que hasta 300 millones de puestos de trabajo corren el riesgo de ser automatizados (entre ellos, muchos que requieren trabajadores calificados y de cuello blanco).

Ciertamente, muchas de las promesas y peligros vinculados con la IA permanecen en el horizonte: aún no logramos desarrollar máquinas con el nivel de autoconciencia y capacidad para tomar decisiones informadas que se alineen con la forma en que la mayor parte de la gente entiende la inteligencia; por eso muchos tecnólogos proponen incorporar «normas morales» a los sistemas de IA antes de que superen a los humanos en sus capacidades.

Pero el verdadero peligro no es que la IA generativa se torne autónoma, como muchos líderes tecnológicos quieren hacernos creer, sino que se utilice para socavar la autonomía humana. Los sistemas de IA —tanto los «específicos» como los diseñados para «propósitos generales»— capaces de realizar tareas de manera más eficiente que los humanos representan una notable oportunidad para los gobiernos y las corporaciones que procuran ejercer un mayor control sobre el comportamiento humano.

Como señala Shoshana Zuboff en su libro publicado en 2019, La era del capitalismo de la vigilancia, la evolución de las tecnologías digitales podría llevar al surgimiento de «un nuevo orden económico que se apropie de la experiencia humana como materia prima gratuita para prácticas comerciales ocultas de extracción, predicción y venta». La relación cada vez más simbiótica entre la vigilancia gubernamental y el sector privado, observa, es en parte consecuencia de un aparato de seguridad nacional «impulsado por los ataques del 9 de septiembre» y el intento de nutrir a las tecnologías emergentes y apropiarse de ellas para lograr un «conocimiento total» del comportamiento y la vida personal de la gente.

Palantir, la empresa de análisis de datos fundada por el inversor milmillonario Peter Thiel, es un claro ejemplo. Se dice que Thiel, un destacado donante al partido republicano, persuadió al gobierno del expresidente estadounidense Donald Trump para que le otorgara a Palantir contratos lucrativos para desarrollar sistemas de IA personalizados para uso militar. A cambio, Palantir brinda servicios de inteligencia al gobierno estadounidense y a otras agencias espías en todo el mundo.

En «Un viaje a Laputa» la tercera parte de Los viajes de Gulliver, de Jonathan Swift, el capitán Gulliver llega a una isla flotante habitada por científicos y filósofos que diseñaron ingeniosos métodos para detectar conspiraciones. Uno de ellos implica inspeccionar «la dieta de todas las personas sospechosas», al igual que examinar «sus excrementos», incluidos «su color, olor, sabor, consistencia y la crudeza o madurez de su digestión». Aunque el aparato de vigilancia estatal moderno se centra en inspeccionar mensajes de correo electrónico en vez de funciones corporales, su objetivo es similar: descubrir tramas y conspiraciones contra el «orden público» y la «seguridad nacional» penetrando en las profundidades de las mentes de la gente.

Pero el grado en que los gobiernos pueden espiar a sus ciudadanos no solo depende de las tecnologías disponibles, sino también de la división de poderes que ofrece el sistema político. Por eso China, cuyo sistema regulatorio se centra completamente en mantener la estabilidad política y el respeto de los «valores socialistas», logró establecer el sistema de vigilancia electrónica estatal más omnipresente del mundo. Eso también ayuda a explicar por qué China ansía posicionarse como líder mundial en la regulación de la IA generativa.

El enfoque regulatorio de la Unión Europea, por el contrario, se centra en los derechos humanos fundamentales como la dignidad personal, la privacidad, la no discriminación y la libertad de expresión. Sus marcos regulatorios enfatizan la privacidad, la protección de los consumidores, la seguridad de los productos y la moderación de contenidos. Mientras que Estados Unidos depende de la competencia para salvaguardar los intereses de los consumidores, la Ley de IA de la UE, prevista para fines de este año, prohíbe explícitamente el uso de datos generados por los usuarios para su «clasificación social».

El enfoque regulatorio occidental de la IA «centrado en los humanos», que enfatiza la protección de las personas, contrasta fuertemente con el modelo autoritario chino, pero el riesgo de que ambos converjan en última instancia es claro y patente. Esta amenaza que se avecina recibe su impulso del conflicto inherente entre el compromiso occidental con los derechos individuales y sus imperativos de seguridad nacional, que suelen recibir prioridad sobre las libertades civiles en las épocas de mayor tensión política. La versión actual de la Ley de IA, por ejemplo, otorga poder a la Comisión Europea para prohibir prácticas como la policía predictiva, pero con diversas excepciones para la seguridad nacional, la defensa y el uso militar.

En medio de la feroz competencia por la supremacía tecnológica, la capacidad de los gobiernos para desarrollar e implementar tecnologías inclusivas no solo constituye una amenaza para las empresas y los regímenes políticos, sino para países enteros. Esta dinámica maligna plantea un fuerte contraste con las predicciones optimistas de que la IA dará lugar a «una amplia gama de beneficios económicos y sociales en todo el espectro de industrias y actividades sociales».

Desafortunadamente, la erosión gradual de los poderes compensatorios y de los límites constitucionales a las acciones gubernamentales en las democracias liberales occidentales otorgan ventaja a los regímenes autoritarios. Como observó proféticamente George Orwell, una situación de guerra perpetua, o incluso la ilusión de su existencia, genera un entorno ideal para el surgimiento de la distopía tecnológica.

Robert Skidelsky, a member of the British House of Lords and Professor Emeritus of Political Economy at Warwick University, was a non-executive director of the private Russian oil company PJSC Russneft from 2016 to 2021. The author of a three-volume biography of John Maynard Keynes, he began his political career in the Labour party, became the Conservative Party’s spokesman for Treasury affairs in the House of Lords, and was eventually forced out of the Conservative Party for his opposition to NATO’s intervention in Kosovo in 1999. Traducción al español por Ant-Translation.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *