Cómo impedir el apocalipsis de la IA

Los recientes progresos en el campo de la inteligencia artificial han sido absolutamente impresionantes. La IA está transformando prácticamente todos los sectores de la sociedad, desde el transporte hasta la medicina y la defensa. De manera que vale la pena considerar qué pasará cuando se vuelva aún más avanzada de lo que ya es.

La visión apocalíptica es que las máquinas impulsadas por IA serán más listas que la humanidad, se apoderarán del mundo y nos matarán a todos. Este escenario muchas veces aparece en la ciencia ficción y es bastante fácil de descartar, considerando que los seres humanos siguen ejerciendo un control firme. Pero muchos expertos en IA se toman la perspectiva apocalíptica en serio, y tienen razón de hacerlo. El resto de la sociedad debería imitarlos.

Para entender lo que está en juego, consideremos la distinción entre "IA estrecha" e "inteligencia artificial general" (IAG). La IA estrecha puede funcionar sólo en un dominio o en pocos dominios a la vez, de modo que, si bien puede superar a los seres humanos en determinadas tareas, sigue estando bajo control humano.

La IAG, por el contrario, puede razonar en un amplio rango de dominios y, por ende, podría replicar muchas capacidades intelectuales humanas, reteniendo a la vez todas las ventajas de las computadoras, como la recuperación de memoria perfecta. Con un hardware informático sofisticado, la IAG podría superar la cognición humana. En verdad, es difícil concebir un techo para lo avanzada que podría llegar a ser la IAG.

Tal y como están las cosas, la mayor parte de la IA es estrecha. Por cierto, hasta los sistemas actuales más avanzados sólo tienen cantidades limitadas de generalidad. Por ejemplo, si bien el sistema AlphaZero de Google DeepMind pudo imponerse en Go, ajedrez y shogi -lo que lo torna más general que la mayoría de los otros sistemas de IA, que se pueden aplicar solamente a una única actividad específica-, aun así ha demostrado capacidad sólo dentro de los confines limitados de ciertos juegos de mesa sumamente estructurados.

Mucha gente entendida descarta la perspectiva de una IAG avanzada. Algunos, como Selmer Bringsjord del Instituto Politécnico Rensselaer y Drew McDermott de la Universidad de Yale, sostienen que es imposible que la IA supere a la humanidad. Otros, como Margaret A. Boden de la Universidad de Sussex y Oren Etzioni del Instituto Allen para la Inteligencia Artificial, sostienen que la IA a nivel humano puede ser posible en el futuro lejano, pero que es demasiado pronto como para empezar a ocuparse de eso ahora.

Estos escépticos no son figuras marginales, como los cascarrabias que intentan poner en duda la ciencia del cambio climático. Son académicos distinguidos en ciencia informática y campos relacionados, y sus opiniones deben ser tenidas en cuenta.

Sin embargo, otros académicos distinguidos -entre ellos David J. Chalmers de la Universidad de Nueva York, Allan Dafoe de la Universidad de Yale y Stuart Russell de la Universidad de California, Berkeley, Nick Bostrom de la Universidad de Oxford y Roman Yampolskiy de la Universidad de Louisville- efectivamente temen que la IAG pueda plantear una amenaza seria o inclusive existencial a la humanidad. Con expertos a ambos lados del debate, el resto de nosotros deberíamos mantener la mente abierta.

Es más, la IAG es el foco de una investigación y desarrollo de importancia. Recientemente realicé una encuesta de proyectos de I&D de IAG, e identifiqué 45 en 30 países en seis continentes. Muchas iniciativas activas parten de corporaciones importantes como Baidu, Facebook, Google, Microsoft y Tencent, y de universidades de élite como Carnegie Mellon, Harvard y Stanford, así como de la Academia China de Ciencias. No sería sensato suponer que ninguno de estos proyectos tendrá éxito.

Otra manera de pensar en la potencial amenaza de la IAG es compararla con otros riesgos catastróficos. En los años 1990, el Congreso de Estados Unidos consideró apropiado que la NASA rastreara asteroides grandes que pudieran chocar contra la Tierra, aunque las probabilidades de que eso suceda son de aproximadamente una en 5.000 por siglo. Con la IAG, las probabilidades de una catástrofe en el próximo siglo podrían ser de una en 100, o inclusive de una en diez, a juzgar por el ritmo de la I&D y la magnitud de la preocupación de los expertos.

El interrogante entonces es qué hacer al respecto. Por empezar, necesitamos garantizar que la I&D se realice de manera responsable, segura y ética. Esto exigirá un diálogo más profundo entre quienes trabajan en el campo de la IA y los legisladores, los científicos sociales y los ciudadanos preocupados. Quienes trabajan en el campo conocen la tecnología y serán ellos quienes la diseñen de acuerdo a estándares acordados; pero no deben decidir por sí solos cuáles serán esos estándares. Muchas personas que están desarrollando aplicaciones de IA no están acostumbradas a pensar en las implicancias sociales de su trabajo. Para que eso cambie, deben estar expuestos a perspectivas externas.

Los responsables de las políticas también tendrán que lidiar con las dimensiones internacionales de la IAG. Actualmente, el grueso de la I&D sobre IAG se lleva a cabo en Estados Unidos, Europa y China, pero gran parte del código es abierto, lo que significa que, potencialmente, el trabajo se puede realizar desde cualquier parte. En consecuencia, establecer estándares y reglas básicas es, en definitiva, una tarea para la comunidad internacional en su totalidad, aunque los centros de I&D deberían tomar la delantera.

De cara al futuro, algunos esfuerzos por abordar los riesgos planteados por la IAG pueden sumarse a las iniciativas políticas que se implementaron para la IA estrecha, como el nuevo Cónclave de IA bipartidario lanzado por John Delaney, congresista demócrata por Maryland. Existes muchas oportunidades de sinergia entre quienes trabajan en los riesgos de la IA a corto plazo y quienes piensan en el largo plazo.

Sin embargo, más allá de si la IA estrecha y la IAG se consideran juntas o por separado, lo que más importa es que emprendamos una acción constructiva ahora para minimizar el riesgo de una catástrofe en el futuro. No es una tarea que podamos aspirar a completar a último momento.

Seth Baum is the executive director of the Global Catastrophic Risk Institute (GCRI), a think tank focused on extreme global risks. He is also affiliated with the Blue Marble Space Institute of Science and the University of Cambridge Centre for the Study of Existential Risk.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *