Un marco ético para el uso de la inteligencia artificial

Sobre la base de sus 75 años de historia, la Unesco tiene la responsabilidad y la capacidad de ayudar a resolver los desafíos de este siglo. La revolución digital es uno de ellos. Desde el inicio de mi mandato en 2018, nos llevó a poner en marcha un ambicioso proyecto: dar al mundo un marco ético para el uso de la inteligencia artificial (IA). Muchos pensaron que no sería posible. Tres años después, gracias a la movilización de cientos de expertos de todo el mundo y a intensas negociaciones internacionales, los 193 Estados miembros de la Unesco acaban de adoptar oficialmente este marco ético. Es un momento histórico.

La recomendación de la Unesco sobre la ética de la inteligencia artificial es un llamamiento a cambiar el modelo de negocio para que el mundo de la IA sea seguro, justo e inclusivo. Es un llamamiento a fortalecer las capacidades de los gobiernos para hacer frente a la IA mediante marcos jurídicos, reglamentos e instituciones eficaces. Aprovechamos el multilateralismo como mecanismo que ayuda a garantizar que los gobiernos actúen por el bien de las personas. Así, protege y promueve los derechos humanos existentes anclados en el derecho internacional vinculante y proporciona un marco anticipatorio para ayudar a mitigar los riesgos futuros y ofrece acciones políticas concretas diseñadas para resolver los desafíos emergentes.

Se basa en cuatro valores fundamentales, que garantizan los derechos humanos, el florecimiento del medio ambiente y los ecosistemas, la diversidad y la inclusión, y las sociedades pacíficas, justas e interconectadas. Los valores se desglosan en diez principios.

La proporcionalidad garantiza que el uso de los sistemas de IA no exceda de lo necesario y adecuado al contexto, mientras que la seguridad aborda los daños no deseados y la vulnerabilidad a los ataques. El principio de equidad y no discriminación pide que se compartan los beneficios de las tecnologías de IA teniendo en cuenta las necesidades específicas de los diferentes grupos vulnerables y aborda la discriminación, las brechas digitales y de conocimiento, y las desigualdades globales al respecto.

La sostenibilidad garantiza el desarrollo de sociedades sostenibles basadas en la consecución de un complejo conjunto de objetivos en un continuo de dimensiones sociales, culturales, económicas y medioambientales que se ven afectadas por las tecnologías de la IA. La protección de datos y el derecho a la intimidad hacen hincapié en las cuestiones relacionadas con el modo en que se recogen, utilizan, comparten, archivan y eliminan los datos para los sistemas de IA.

El principio de transparencia y explicabilidad reconoce que las personas tienen derecho a ser conscientes cuando se toma una decisión sobre la base de algoritmos de IA, y en esas circunstancias requiere información explicativa tanto por parte del sector privado como del público y una posibilidad de reparación, mientras que el principio de responsabilidad y rendición de cuentas garantiza la atribución de la responsabilidad a los seres humanos.

Este marco ético global reconoce la necesidad de garantizar la concienciación y la comprensión pública de las tecnologías de IA y el valor de los datos, de modo que todos los miembros de la sociedad puedan tomar decisiones informadas sobre el uso de los sistemas de IA y estén protegidos de influencias indebidas.

Más allá del “qué” de los valores y principios, la recomendación ofrece una orientación clara sobre el “cómo” avanzar y lograr un impacto, proponiendo acciones políticas en áreas que van desde la gobernanza ética y la administración y el desarrollo y la cooperación internacional hasta la cultura, la salud y el bienestar social.

Así, el área de acción política sobre el género ―una de las prioridades globales de la Unesco― pone el foco sobre la necesidad de aumentar la diversidad en el campo de la IA y garantizar que las mujeres y las niñas estén representadas en el desarrollo de estas herramientas y se beneficien por igual de la tecnología. Está diseñada para abordar una brecha crítica en materia de género e IA y para ayudar a abordar los sesgos y estereotipos en los algoritmos.

La recomendación subraya la importancia de la gobernanza de los datos, promueve una mejor comprensión del papel de los datos en el desarrollo de algoritmos seguros y equitativos, y establece las normas para mantener el control de los datos en manos de los usuarios, permitiéndoles acceder a la información y eliminarla. También pide a los Estados miembros que garanticen la creación de salvaguardias adecuadas para el tratamiento de datos sensibles y de sistemas eficaces de rendición de cuentas.

Además, la recomendación subraya la necesidad de que los Estados miembros doten a los trabajadores de las competencias necesarias para adaptarse a los cambios tecnológicos y prosperar en la era digital, entre otras cosas mediante programas de perfeccionamiento y recualificación. La recomendación pide a los Estados miembros que garanticen la protección de los consumidores y que eviten la monopolización.

Para asegurar su implementación, la recomendación incluye dos herramientas que serán desarrolladas por la Unesco y que abordan los desafíos relacionados con la imposibilidad de codificar y regular todos los aspectos de la IA sin endurecer la innovación. Están motivadas por el hecho de que, como en cualquier actividad innovadora, los riesgos de desventaja pueden darse en todas las etapas del ciclo de vida de la IA.

La “evaluación del impacto ético” ayudará a las partes interesadas en la IA a evaluar el impacto que los conjuntos de datos, los marcos conceptuales y los algoritmos pueden tener en la sociedad, y a abordar o mitigar los posibles riesgos. La “metodología de evaluación” ayudará a los países a identificar su estado de preparación para aplicar la recomendación, con el objetivo de apoyar los esfuerzos de creación de capacidades para afrontar la transformación que la IA está provocando en prácticamente todos los ámbitos.

Audrey Azoulay es Directora General de la UNESCO.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *