Ética de la inteligencia artificial desde Europa

Uno de los grandes temas ausentes en los debates que precedieron a las últimas elecciones generales fue el de la UE y lo que España podría aportar a ella, como recordó, entre otros, el editorial de este mismo periódico el 27 de abril. Pero no menos ausente estuvo el desafío que representa convivir con la inteligencia artificial, con ese mundo de sistemas inteligentes, que es ya el nuestro. En ese nuevo universo, China y EE UU se mueven como el pez en el agua, entre otras cosas porque son los principales creadores del agua, mientras que Europa se encuentra dolorosamente rezagada. Esto es nefasto para el progreso económico de la Unión, pero también para la influencia que puede tener el modelo europeo, el socialdemócrata de una economía social de mercado, distinto al neoliberal estadounidense y a ese extraño comunismo capitalista que vive China, en el que no cuentan los derechos humanos. Los países y las zonas que pierden competitividad pierden también relevancia social; de ahí que Europa y España hayan de apostar sin reservas por los sistemas inteligentes, pero desde la óptica ética que les es propia.

Esta óptica es diáfana desde documentos como el Ethical Framework for a Good AI Society, propuesto por el AI4People en diciembre de 2018, y como las Ethics Guidelines for Trustworthy AI del High-Level Expert Group on Artificial Intelligence de la Comisión Europea de abril de 2019. Intentan ambos trazar el marco ético de una inteligencia artificial confiable, en productos y servicios, convencidos de que la confianza ha de ser la piedra angular de las sociedades, capaz de crear cohesión social. Para lograrlo es necesario unir el progreso tecnocientífico con el progreso ético. La ética será la ventaja competitiva. ¿Qué significa “ética de la inteligencia artificial”? ¿Es la que deben practicar desde sus valores los sistemas inteligentes, es decir, las máquinas, los algoritmos, los robots, o es la ética que los seres humanos deberíamos adoptar para servirnos de los sistemas inteligentes? Para responder a esta pregunta es necesario distinguir entre tres tipos de inteligencia artificial, a los que corresponderían tres tipos de cuestiones éticas diferentes.

Una de ellas sería la inteligencia superior o superinteligencia que, si existiera, superaría a la humana, de modo que las máquinas podrían sustituir al hombre. Es la modalidad que buscan transhumanistas y sobre todo poshumanistas con la idea de la “singularidad”, por la que apuestan autores como Kurzweil. Los humanos dejarían su soporte biológico y pasarían su inteligencia a las máquinas, de modo que el sustrato de la inteligencia artificial sería de silicio. Se trataría de una especie nueva y los seres humanos serían un elemento más en la cadena de la evolución que culminaría en esos seres singulares. No guardarían relación con el superhombre nietzscheano, para quien el cuerpo es esencial. Obviamente, existen discrepancias sobre si estos pronósticos van a cumplirse por tener base científica suficiente, pero la sola hipótesis ya abre un mundo de cuestiones éticas.

En primer lugar, los transhumanistas consideran que es un deber moral intentar trascender la imperfecta especie humana para crear esos seres perfectos. Pero ¿es realmente un deber moral construir seres presuntamente superiores que plantearán problemas como el de la convivencia de dos especies, una superior y otra inferior, que sería la nuestra? ¿No estaríamos abonando un mundo de amos y esclavos, en que los segundos no tendrían la menor posibilidad de revolución, sino que estarían a merced de las superinteligencias?

Por otra parte, ¿cuál será la ética de esas máquinas? Bostrom, uno de los adalides del poshumanismo, aconseja integrar valores en ellas. Pero si esto fuera posible, y las máquinas aprendieran por su cuenta, poco podríamos hacer por conseguir que mantuvieran como valores el respeto, la solidaridad o la justicia. Serían los propios sistemas superinteligentes los que irían proponiendo sus valores, sería una “ética de las inteligencias artificiales”, que no estaría en nuestras manos.

En un mundo en que es una realidad sangrante el sufrimiento causado por las guerras, la pobreza, la aporofobia y la injusticia, ¿es un deber moral invertir una ingente cantidad de recursos en construir presuntos seres pluscuamperfectos, o es el modo en que empresas poderosas consiguen todavía más riqueza y poder? ¿No es una exigencia ética palmaria utilizar los grandes beneficios de la inteligencia artificial para resolver estos problemas acuciantes?

Un segundo tipo de inteligencia es la general, aquella que puede resolver problemas generales. Es la típicamente humana, y justamente el objetivo de la inteligencia artificial, como disciplina científica, es conseguir que una máquina tenga una inteligencia de este tipo, similar a la humana. No es fácil lograrlo porque las máquinas carecen de un cuerpo biológico, y son las vivencias corporales las que nos permiten comprender e interpretar desde los contextos concretos, contando con valores, emociones y sentimientos y con sentido común. En el mejor de los casos, las máquinas simularían tener todos estos elementos, harían “como si” sintieran, pero para sentir se necesita un cuerpo.

Ahora bien, en el caso de que fuera posible construir sistemas con una inteligencia general, se plantearía un tipo de cuestiones éticas muy diferentes de las anteriores. Si fueran seres autónomos, tendríamos que aceptar que son personas y que, en consecuencia, es preciso reconocerles dignidad y exigirles responsabilidad. Tendrían derechos y deberes. De hecho, la Comisión de Asuntos Jurídicos del Parlamento Europeo propuso en 2016 crear una personalidad jurídica específica para los robots de modo que se les considere “personas electrónicas”, con derechos y obligaciones específicos, incluida la obligación de reparar los daños que puedan causar.

Por otra parte, deberíamos tratarles con respeto, y serían ciudadanas del mundo político, elegibles como representantes en sociedades democráticas, sin estar manejadas por un ser humano. Actualmente existen políticos virtuales, como Michihito Matsuda o SAM, pero están manejados por seres humanos. Si esos políticos tuvieran una inteligencia general, surgiría una auténtica democracia algorítmica.

Por último, la inteligencia especial es la propia de sistemas que realizan tareas concretas de forma muy superior a la humana, porque cuentan con una inmensa cantidad de datos y con algoritmos sofisticados. Es lo que tenemos actualmente en diversos ámbitos, como el sector de la salud, la predicción climatológica, la productividad y eficiencia empresariales, la comunicación, el ocio, la planificación del tiempo, el abaratamiento de costes, el reconocimiento de voces humanas y la lectura de textos o la previsión en agricultura.

En todos estos casos el elemento directivo es la persona humana que se sirve de los sistemas inteligentes para tratar gran cantidad de datos, incluso para aprender de sus “experiencias”. Es en este tipo de inteligencia artificial en el que actualmente nos encontramos. No se trata, pues, de una ética de los sistemas inteligentes, sino de cómo orientar de forma ética el uso humano de estos sistemas para resolver problemas. En este quehacer la UE tiene que ser pionera, uniendo al progreso tecnocientífico un liderazgo ético para que sea posible pasar de las excelentes declaraciones con que cuenta a las efectivas realizaciones.

Adela Cortina es catedrática de Ética y Filosofía Política de la Universidad de Valencia, Miembro de la Real Academia de Ciencias Morales y Políticas y Directora de la Fundación ÉTNOR.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *