Una inteligencia artificial responsable

El ser humano está perdiendo el control sobre las tecnologías de la información y las comunicaciones que ha creado y la Inteligencia Artificial (IA) no es una excepción. Para no perder este control debemos orientar los avances de la IA al diseño transparente de sistemas tecnológicos que sean compatibles con nuestros valores morales, sociales y culturales tales como la seguridad, la sostenibilidad, la democracia, la participación, la seguridad, la transparencia, la rendición de cuentas y el surgimiento de ciertas propiedades y funciones… y las instituciones deben apoyar estos principios. El diseño de los sistemas de IA se debe centrar en la eficiencia, la usabilidad, la flexibilidad, la resiliencia, la justicia, la dignidad, la felicidad, el bienestar, la seguridad, la salud, la empatía, la amistad, la solidaridad y la paz.

La IA está en nuestra vida más de lo que creemos; hacemos uso de ella prácticamente a diario y, muchas veces, casi sin ser conscientes de ello: cuando entramos en un aparcamiento y se reconoce la matrícula de nuestro vehículo; cuando utilizamos nuestro móvil para encontrar la mejor ruta para llegar a un destino; al llamar por teléfono y una máquina interactúa con nosotros para resolver nuestro problema; cuando hablamos con nuestro asistente virtual, cuando las plataformas de contenidos nos hacen recomendaciones que se ajustan a nuestras preferencias, cuando utilizamos traductores automáticos de lenguajes, cuando nuestro móvil reconoce nuestra huella digital o nuestra cara, y así podríamos seguir enumerando muchas más actividades cotidianas donde interviene la IA.

La IA es una de las tecnologías más importantes del siglo XXI. Al igual que la máquina de vapor o la electricidad en su momento produjeron grandes cambios en la sociedad, la IA está transformando el mundo. Las ventajas que se pueden obtener de la aplicación de esta tecnología son muy prometedoras, ayudando a mejorar los diagnósticos de imágenes médicas, permitir a los médicos desarrollar nuevas terapias para enfermedades; reducir el consumo de energía optimizando los recursos y así podríamos enumerar muchos de los retos que la IA puede abordar.

Pero no es oro todo lo que reluce. Son evidentes los beneficios que la sociedad puede obtener de los avances de la IA, pero también hay sombras. Los trabajadores temen perder su trabajo a causa de la automatización, los consumidores se preguntan quién es el responsable si un sistema basado en la IA tome una decisión equivocada, las pequeñas empresas no saben cómo aplicar la IA a su negocio, las nuevas empresas de IA no encuentran los recursos y el talento que necesitan en Europa, y la competencia internacional es más feroz que nunca.

Desafíos éticos

A medida que la Inteligencia Artificial se hace más sofisticada, comenzará a tomar decisiones –o ayudará a tomarlas- que tienen un mayor impacto en las vidas de las personas. Esto plantea desafíos éticos a medida que las personas se vayan adaptando al papel más amplio y prominente de la toma de decisiones automatizada en la sociedad.

Pensemos en este caso: un vehículo de conducción autónoma al que, en un instante determinado, se le atraviesa un perro en su trayectoria y decide tomar la decisión de dar un giro brusco para no atropellarlo; como consecuencia de ello golpea a otro vehículo lo que da lugar a que se produzcan heridos graves, tanto entre los ocupantes del vehículo autónomo como entre los del vehículo golpeado. ¿Quién es el responsable de este accidente? ¿El perro? ¿El dueño del perro? ¿El constructor del automóvil? ¿Los constructores de los dispositivos de sensorización y actuación del automóvil? ¿Los técnicos que han desarrollado el software que permite al automóvil tomar la decisión? ¿El propietario del automóvil que ha personalizado el sistema de toma de decisiones para adaptarlo a sus preferencias? ¿La administración que ha autorizado la circulación del vehículo? A medida que aumente el uso de la IA, será más difícil determinar la responsabilidad de las decisiones. Si se cometen errores que causan daño, ¿quién debe asumir la responsabilidad?

Para poder determinar la responsabilidad en la toma de decisiones de los sistemas de IA se requiere transparencia. Los sistemas de IA deben explicar sus acciones a los seres humanos para demostrar por qué se tomó una decisión. La implantación de los sistemas de IA da lugar a numerosas cuestiones sociales, económicas, políticas, tecnológicas, legales, éticas y filosóficas. ¿Deberían los sistemas de IA ser tratados como entes éticos? ¿Pueden las máquinas tomar decisiones morales? ¿Cuáles son las consecuencias legales y éticas de las tecnologías de IA? ¿Cuáles son las consecuencias de que las administraciones públicas, las empresas y otras organizaciones tengan acceso a los datos y a las predicciones sobre el comportamiento de los ciudadanos? ¿Cómo pueden los valores morales, sociales y legales ser parte del proceso de diseño de los sistemas de IA?

Para hacer frente a estos retos y aprovechar al máximo las oportunidades que ofrece la IA surge la Inteligencia Artificial Responsable, una IA de confianza basada en valores éticos y sociales con un enfoque centrado en el ser humano. Un principio clave es la «ética en el diseño», en virtud de la cual se aplicarán principios éticos y jurídicos, con los datos utilizados desde el inicio del proceso de diseño. Al definir los requisitos de los sistemas de IA, también es importante tener en cuenta las interacciones con los seres humanos. Otro principio clave es la «seguridad desde el diseño», según el cual la ciberseguridad, la protección de las víctimas y la facilitación de la aplicación de la ley deben tenerse en cuenta desde el principio del proceso de diseño.

Para que la IA pueda cumplir sus expectativas, se requiere previsibilidad y confianza. El tratamiento previsible de las complejas cuestiones que plantea la IA, como la rendición de cuentas y los usos permitidos de los datos, fomentará su inversión y uso; el progreso de la IA requiere que los consumidores confíen en la tecnología y en la equidad, en cómo se ven afectados por ella y cómo se utilizan sus datos; un tratamiento predecible y transparente facilita esta confianza.

Necesitamos un marco jurídico sólido para abordar estas cuestiones, que son demasiado complejas o cambian con demasiada rapidez, para que la legislación las aborde adecuadamente. Pero el proceso político y legal por sí solo no será suficiente. Para que la confianza florezca, un código ético para los científicos de la IA es igualmente importante.

La IA Responsable no trata sólo de crear reglas para gobernar las máquinas inteligentes, que también, la misma tecnología debe permitir la regulación automática de sus aplicaciones: hay que regular los datos que se crean y comparten, hay que dar soluciones en una sociedad basada en datos. Las tecnologías digitales y la ciencia de los datos se utilizan ahora para dar forma a nuestras sociedades, para constituir el tejido mismo de nuestra sociedad, a menudo obviando la toma de decisiones democrática y los hechos científicos.

Podemos destacar siete retos a los que la Inteligencia Artificial Responsable debe dar respuesta: Responsabilidad por los errores(debe quedar claro dónde radica la responsabilidad cuando los sistemas cometen errores y han de rendir cuentas), Transparencia en la toma de decisiones (los sistemas de IA deben explicar sus acciones a los seres humanos), Trabajo (los sistemas de IA reemplazan a las personas en muchos trabajos tradicionales; debemos repensar el significado del trabajo), Evitar el sesgo (deben promoverse valores fundamentales como la igualdad, la diversidad y la ausencia de discriminación como consecuencia de la aplicación de la tecnología), Valores éticos fundamentales (¿cuáles serán los valores éticos fundamentales de la IA?), Protección de datos y propiedad intelectual (la propiedad intelectual debe reconocerse y sopesarse en relación con la necesidad de utilizar los datos para fomentar la innovación), Ciberseguridad (protección contra la piratería informática a medida que los sistemas de IA asumen un papel más destacado en la sociedad).

El comportamiento de las personas está regulado por numerosas leyes, sin embargo, los algoritmos están sujetos a muy pocas regulaciones. Esto es inapropiado y peligroso, ya que los sistemas de IA interfieren cada vez más en nuestras vidas, a menudo sin nuestro conocimiento. Esto debería estar controlado, aun tratándose de un servicio gratuito.

Una nueva y prometedora etapa está llegando y la Inteligencia Artificial Responsable nos puede ayudar a recibirla.

Vicent Botti es catedrático del Instituto Valenciano de Investigación en Inteligencia Artificial (VRAIN). Universitat Politècnica de València

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *