Los principios que han de regir la ética en la Inteligencia Artificial (IA) son objeto de una multiplicidad de propuestas por parte de Estados, organizaciones internacionales y profesionales, y grandes empresas. Detrás hay una carrera geopolítica, con la idea de que estos principios –sobre los que hay un acuerdo bastante amplio, como se ha plasmado en el G20– se han de incorporar, en lo que es la parte más difícil, en una programación que siempre ha de quedar bajo control del ser humano. Detrás de las principales propuestas que resumimos y analizamos, hay conflictos de cultura, valores y control, que cobrarán más importancia a medida que se acerque la fase de la reglamentación práctica.
Introducción
Numerosos gobiernos, organizaciones internacionales y profesionales, además de empresas, han y siguen presentando propuestas sobre ética en la Inteligencia Artificial (IA). A principios de 2019 ya había casi 90 de ellas. Algunas, como la de la OCDE (Organización para la Cooperación y Desarrollo Económicos), la del G20, basada en la anterior, o las del IEEE (Instituto de Ingeniería Eléctrica y Electrónica) –quizá la más completa–, agrupan a muy diversos países o profesionales de distintas culturas. Incluso China, en lo que parece un intento de acercarse al debate occidental, ha producido sus propuestas de ética para la IA, y ha suscrito la del G20. Pues detrás de esta nube de propuestas hay también una cuestión de influencia y de poder, de geopolítica, que irá a más cuando se pase de los principios a su aplicación.
Esta cuestión de la ética en la IA se engloba dentro de una temática más amplia sobre el control de la tecnología por los propios humanos. Por ejemplo, el pasado junio, el panel sobre cooperación digital del secretario general de la ONU, co-presidido por Melinda Gates y Jack Ma (entonces aún al frente de Alibaba), produjo un informe y una Declaración de Interdependencia Digital, que pedía a todos los stakeholders “colaborar en nuevas formas de lograr una visión del futuro de la humanidad en la que se utilicen tecnologías digitales asequibles y accesibles para permitir el crecimiento económico y las oportunidades sociales, disminuir la desigualdad, mejorar la paz y la seguridad, promover el medio ambiente la sostenibilidad, preservar el albedrío humano y promover los derechos humanos”.
La ética de la IA se ha convertido en un tema de debate global, no sólo entre expertos. No ha llegado aún al estadio de la regulación, pero sienta las bases para su futuro, y ese va a ser el momento de la verdad.
Hay una amplia coincidencia en las diversas propuestas. Pero tras la coincidencia en términos se pueden esconder divergencias en la práctica presente y futura. Hay también diferencias culturales importantes que conviene tener en cuenta en la búsqueda de unos patrones comunes y universales para la ética de la IA.
¿Qué se entiende por ética? Wikipedia la define como “disciplina filosófica que estudia el bien y el mal y sus relaciones con la moral y el comportamiento humano”. En segundo lugar, como “conjunto de costumbres y normas que dirigen o valoran el comportamiento humano en una comunidad”. El Diccionario de la Real Academia Española como “conjunto de normas morales que rigen la conducta de la persona en cualquier ámbito de la vida”. Se podrían citar muchos autores. Nos limitaremos, como ejemplo, a Juan Manuel Orti y Lara, quien en su obra Ética o principios de filosofia moral, describía en 1853 la ética como “la ciencia que expone los principios de la moralidad de las acciones humanas y muestra cuáles son las que debe ejecutar el hombre en las diferentes relaciones en que se haya constituido”. En el caso que nos ocupa se trata de las personas que diseñan máquinas, las que las utilizan, probablemente también sus propietarios, y las propias máquinas y algoritmos que las conforman (¿robo-ética?).
Conviene señalar que la ética, como la moral, no están conformadas por principios permanentes, sino que han ido cambiando a lo largo de diversas culturas y tiempos. Como también en la actualidad en lo referente a la IA.
A este estadio de la búsqueda y del debate, más allá de las buenas intenciones, se trata esencialmente de hacer nuestras intuiciones morales más explícitas y de construir una brújula moral para la IA. En un estadio en el que, como han indicado el emprendedor y psicólogo cognitivo Gary Marcus y el científico de computadores Ernest Davis, los sistemas de IA carecen de la capacidad para comprender conceptos de sentido común, como el tiempo, el espacio y la causalidad. Aunque el objetivo es imbuir esta ética y este sentido común en los algoritmos –y muchos tecnólogos y científicos están trabajando en ello–, es aún una cuestión de suma dificultad técnica lograr que los algoritmos incorporen esos valores. También dependerá de los datos que se utilicen. El desarrollo de una ética de los datos será también interesante. ¿Ética para las máquinas o para las personas? ¿Ética para los programas o para los programadores? De momento, los esfuerzos van más dirigidos a las personas, a los que diseñan y son propietarios de esta IA, aunque con diversas tecnologías, la IA esté comenzando en algunos casos, en alguna algorítmica, a diseñarse a sí misma. Puede haber consecuencias no intencionadas en este debate sobre la ética en la IA.
Hay elementos novedosos respecto a las primeras propuestas de Isaac Asimov y sus leyes de la robótica. Las consideraciones éticas abarcan ahora cuestiones sociales (sobre todo la idea una tecnología inclusiva, al servicio de las personas, sin que nadie se quede atrás). E incluso a los posibles derechos de máquinas con IA “sensible”. O la especial inquietud, como puso de relieve el profesor Mori con su teoría “Del Valle Inquietante”, que provocan humanoides demasiado realistas o incluso animaloides. Mori desaconsejaba hacer robots demasiado parecidos a los humanos. En todo caso, no es lo mismo darle una patata a un robot aspirador Roomba que a un perro Aibo de Sony: no hay la misma sensibilidad ante hechos parecidos. No se dan en todos los casos las mismas afinidades afectivas humano-máquina.
Dicho todo esto, hasta ahora, como indica Brent Mittelstadt, del Oxford Internet Institute, las iniciativas han producido “declaraciones vagas, basadas en principios y valores de alto nivel, pero en la práctica pocas recomendaciones específicas y no logran abordar tensiones fundamentales normativas y políticas contenidas en conceptos clave (como equidad –fairness– o privacidad)”. Aunque algunas de las propuestas, como la iniciativa europea de la que hablaremos o la del IEEE, sí proporcionan una lista de preguntas que deberían ayudar a las empresas y sus empleados a abordar eventuales problemas ético-jurídicos de la IA.
Hay otro factor que conviene tener en cuenta en el actual debate: La cuestión de la ética es diferente para las grandes empresas que para las pequeñas. Las grandes está inmersas en este debate, y lo marcan. Las pequeñas no disponen de los medios suficientes, y seguirán, si acaso, las líneas generales que se vayan imponiendo.
Hay una cuestión de confianza en la ética de las empresas. Salvo alguna excepción, la realidad empresarial va aún por delante de la regulación por parte de las autoridades públicas. Según un informe de la consultora Capgemini, el 86% de los directivos encuestados en varios países (como EEUU, el Reino Unido, Francia, Alemania y China) admiten haber observado prácticas éticamente cuestionables de IA en su empresa en los últimos dos o tres años. El informe considera que abordar las cuestiones éticas beneficiará a las organizaciones y su reputación. Es un factor positivo.
Pero de cara no sólo a la innovación en este terreno, sino a la confianza de los ciudadanos, hay una cuestión difícil de dilucidar: los dineros públicos y privados que se están poniendo en el tema y las organizaciones, institutos y programas que se están financiando con diversos fondos. Conviene distinguir entre los gestos “constructivos” (como el dinero de Wallenberg Foundation, el AI for Good Institute, los programas de investigación europeos Humane, etc.), los que aportan entidades públicas en países fiables o desde la propia UE y los que justifican cierta suspicacia porque parece que pretenden lavar la cara de los donantes más que realmente promover un uso ético de la IA –como los 350 millones de dólares de Blackstone a MIT para impulsar la computación por IA, los 27 millones de dólares de la Knight Foundation para el Fondo de Ética y Gobernanza de la Inteligencia Artificial, las iniciativas privadas de diversas empresas privadas o los fondos chinos para estos fines–.
Varias grandes empresas estadounidenses (como Microsoft e IBM, entre otras) están haciendo interesantes propuestas en materia de ética de la IA. También empresas europeas como Telefónica han hecho propuestas constructivas en materia de ética y bienestar digital. Las empresas están muy presentes en los foros, en principio públicos de debate sobre la ética y la IA, lo que puede generar influencias y distorsiones, aunque también aportar exoperiencias desde la práctica.
Según The New Statesman, Google ha gastado millones de euros sólo en su financiación a universidades británicas (17 millones de libras o 20 millones de euros sólo para la Universidad de Oxford). Google y DeepMind, perteneciente a la matriz de la primera, Alphabet, han apoyado el trabajo en el Oxford Internet Institute (OII) sobre ética en IA, responsabilidad cívica de las empresas y otros aspectos. Esto no significa que no se deba hacer. Cuanto más input, mejor. Si se exige transparencia en la IA, también habría que exigirla para la financiación de los estudios sobre ética en IA.
También hay una cuestión de la enseñanza de la ética a los ingenieros, que era inexistente pero que se va abriendo paso en centros de enseñanza, entre otras razones debido a la demanda de los estudiantes. Centros como el MIT, Stanford y la Carnegie Mellon University ya cuentan con cursos específicos de ética, muy publicitados, también ante algunos escándalos que han surgido desde grandes empresas. La ciencia ficción, pese a algunas exageraciones, puede ser una gran ayuda para estos estudiantes, pues en ella se adelantan muchos de los problemas éticos de la IA.
Está también la cuestión de los sesgos de varios tipos (genero, raza, cultura, edad, etc.). A menudo se construye la IA de acuerdo a lo que Seth Baum considera son visiones agregadas de la sociedad.
Hay algunos problemas éticos que son específicos a la IA y otros más generales. Muchos de los que se suelen comentar en el debate público tienen que ver con la IA, pero porque amplifica problemas de fondo distintos como la mala estadística –sesgos–, ausencia de valores –micromarketing político– o la mediación por Internet –acceso a datos personales y agencia oculta (hidden agency)–. Lo que sí es la fuente de problemas éticos importantes específicos de la IA es la creciente autonomía de las entidades artificiales, y la solución más interesante es la de imbuir valores humanos en esas entidades artificiales. El tema lo afrontan bien el mencionado documento de la UE y del IEEE, que abordaremos más adelante.
Finalmente, está la cuestión crucial de cómo aplicar estos principios a la práctica de la IA, y el tema del Value-Based Design (VBD), diseño basado en valores. En general, la cuestión de la I+D “responsable” está muy relacionado con la ética y la IA.
Leer articulo completo en formato PDF.
Andrés Ortega Klein, Investigador senior asociado, Real Instituto Elcano | @andresortegak