No hay por qué temerle a la inteligencia artificial

La prótesis de un brazo exhibida en una exposición de ciencia y tecnología cambia la percepción de la humanidad. Credit Then Chih Wey/Xinhua, vía Getty Images
La prótesis de un brazo exhibida en una exposición de ciencia y tecnología cambia la percepción de la humanidad. Credit Then Chih Wey/Xinhua, vía Getty Images

Junto con la emoción y las expectativas acerca de nuestra creciente dependencia de la inteligencia artificial (IA), hay un temor relacionado con la forma en que funciona la tecnología. Un artículo reciente publicado en la revista MIT Technology Review titulado The Dark Secret at the Heart of AI advirtió: “Nadie sabe realmente cómo funcionan los algoritmos más avanzados para hacer lo que hacen. Eso puede ser un problema”. Debido a esta incertidumbre e incapacidad de rendir cuentas, un reporte hecho por el Instituto AI Now recomendó recientemente a las agencias públicas responsables de la justicia penal, los servicios médicos, la asistencia social y la educación no utilicen dicha tecnología.

Este tipo de inquietudes demuestra por qué el espacio invisible entre la parte donde se ingresa la información y la parte de donde salen las respuestas recibe el nombre de caja negra; al parecer se trata de una referencia a las resistentes grabadoras de datos (que de hecho son naranjas y no negras) que las aeronaves obligatoriamente deben tener y que a menudo se analizan luego de un accidente. En el contexto de la inteligencia artificial, el término en su acepción más amplia sugiere una imagen relacionada con estar en la “oscuridad” respecto a la manera en que funciona la tecnología: introducimos la información, los modelos y la arquitectura, y luego las computadoras nos ofrecen respuestas mientras siguen aprendiendo por su cuenta, de una manera que nos parece imposible y ciertamente demasiado complicada de comprender.

Hay una preocupación particular en lo que respecta al ámbito de los servicios médicos, en donde se utiliza la inteligencia artificial para clasificar qué tipo de lesión cutánea es cancerosa, para poder diagnosticar el cáncer en una etapa muy temprana con una prueba de sangre, para predecir enfermedades cardiacas, para determinar los componentes en los humanos y los animales que podrían extender la expectativa de vida y para muchas otras cosas. Sin embargo, estos temores relacionados con las implicaciones de la caja negra están equivocados. La IA no es menos transparente que la forma en que han trabajado los médicos desde siempre y en muchos casos representa un avance, pues aumenta los servicios que ofrecen los hospitales a los pacientes y al sistema de salud en su totalidad. La caja negra en la IA no es un problema nuevo derivado de la nueva tecnología: la inteligencia humana es, y siempre ha sido, una caja negra.

Tomemos como ejemplo a una médica humana que hace un diagnóstico. Después, el paciente podría preguntarle cómo llegó a ese diagnóstico y ella probablemente le compartirá alguna información de la que echó mano para llegar a su conclusión. Pero ¿podría realmente explicarle cómo y por qué tomó esa decisión? o ¿cuál fue la información específica a la que recurrió y de qué estudios la extrajo? Y ¿qué observaciones de su capacitación o de sus mentores influyeron en ella? ¿qué conocimiento tácito dedujo a partir de su propia experiencia y de las experiencias de sus colegas? y ¿cómo todos estos aspectos combinados dieron como resultado ese entendimiento? En efecto, es probable que ofrezca unos cuantos indicadores de lo que la hizo mirar en esa dirección, pero también podría haber un poco de suposición, de seguir sus corazonadas. Además, incluso si no fuera el caso, seguiríamos sin saber si hubo otros factores involucrados de los que la doctora ni siquiera estaba plenamente consciente.

Si el mismo diagnóstico se hubiese hecho con IA, podríamos echar mano de toda la información disponible acerca de ese paciente en particular, así como de información anónima añadida a lo largo del tiempo y de innumerables pacientes de otros lugares, para tomar la decisión más sólida posible con base en evidencias. Se trataría de un diagnóstico con una conexión directa a la información y no a la intuición humana con base en información limitada y síntesis derivadas de experiencias anecdóticas con una cantidad relativamente reducida de pacientes locales.

A diario tomamos decisiones en áreas que no comprendemos a cabalidad (y a menudo lo hacemos con mucho éxito), desde las predicciones del impacto económico de las políticas hasta el pronóstico del clima o la forma en que intentamos entender o estudiar muchos de los aspectos de la ciencia de manera inicial. Simplificamos las cosas demasiado o aceptamos que son demasiado complejas para desglosarlas de forma lineal, ni qué decir de explicarlas por completo. Es justo como la caja negra de la IA: la inteligencia humana puede razonar y ofrecer argumentos para justificar determinada conclusión, pero no puede explicar los complejos fundamentos que sustentan la forma en la que llegamos a ella.

Piensa en lo que ocurre cuando una pareja se divorcia debido a una causa declarada (por ejemplo, una infidelidad) cuando en realidad hay un universo invisible de causas, fuerzas y sucesos entrecruzados que contribuyeron a ese resultado. ¿Por qué eligieron separarse cuando otra pareja en la misma situación eligió no hacerlo? Ni siquiera quienes conforman esa relación pueden explicarlo del todo. Es una caja negra.

La ironía es que si se compara con la inteligencia humana, la IA es en realidad la más transparente de las inteligencias. A diferencia de la mente humana, la IA, puede, y debe, ser cuestionada e interpretada. Al igual que la capacidad de auditar y refinar modelos y exponer las brechas de conocimiento en las redes neurales profundas y en las herramientas de depuración que se construirán inevitablemente, y de revisar la capacidad potencial de incrementar la inteligencia humana mediante interfaces entre cerebros y computadoras, hay muchas tecnologías que podrían ayudar a interpretar la inteligencia artificial de una forma en la que no podemos interpretar el cerebro humano. En el proceso, incluso podríamos aprender más acerca de cómo funciona la inteligencia humana.

Quizá la verdadera fuente de preocupación de los críticos no resida en que no podemos “ver” el razonamiento de la IA, sino en que a medida que esta se vuelve más poderosa, la mente humana se convierte en un factor limitante. En el futuro necesitaremos la IA para entender la IA. Tanto en los servicios médicos como en otros sectores, esto significa que pronto veremos la creación de una categoría de humanos profesionales que no tienen que tomar decisiones de un momento a otro, sino administrar un equipo de trabajadores de IA, tal como hacen los pilotos de aviones comerciales que recurren al piloto automático para aterrizar en condiciones climatológicas adversas. Los médicos ya no dirigirán el diagnóstico primario, sino que se asegurarán de que el diagnóstico sea relevante y significativo para un paciente, y monitorearán cuándo y cómo ofrecer mayor información y una explicación más detallada. Es muy probable que el futuro consultorio del médico incluya asistentes computacionales, tanto para el médico como para el paciente, así como datos provenientes de mucho más allá de los muros del consultorio.

Cuando eso suceda, será evidente que la llamada caja negra de la inteligencia artificial es más una especie de característica que un error, pues hay más posibilidad de capturar y explicar qué es lo que sucede ahí que lo que sucede en la mente humana.

Nada de esto elimina o ignora la necesidad de supervisar a la IA. Simplemente, en lugar de preocuparnos por la caja negra, deberíamos enfocarnos en la oportunidad y abordar de una mejor manera un futuro en el que la IA no solo extenderá la inteligencia humana y la intuición, sino que también podría aclarar y redefinir lo que en principio significa ser humano.

Vijay Pande es socio general de Andreessen Horowitz, una firma de capital de riesgo que invierte en empresas que trabajan en los ámbitos que combinan la biología y las ciencias informáticas, incluyendo compañías relacionadas con la IA. Es exdirector del programa de biofísica de la Universidad de Stanford.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *