Tema
La palabra “digitalización” despierta simultáneamente esperanza y temor. Pero, ¿qué entendemos por digitalización?
Resumen
Analizar la digitalización supone revisar lo conseguido en cinco ingenierías: (1) microelectrónica; (2) telecomunicaciones; (3) arquitectura de ordenadores; (4) robótica; y (5) software. Este orden no es caprichoso, pues las tres primeras son más básicas y sin ellas no existirían ni la Robótica que optimiza o sustituye el esfuerzo físico, ni las aplicaciones del software relacionadas con lo inmaterial y cognitivo.
Análisis
Introducción
La palabra “digitalización” despierta simultáneamente esperanza y temor, sensaciones relacionadas con un desplazamiento muy brusco que afecta a la “comprensión” y a las relaciones internas y externas de personas, máquinas, conocimientos, economías y empleos. Usamos los términos numerización, automatización, digitalización, transformación digital y robotización como sinónimos cuando no lo son, pero no es este el lugar para distinciones semánticas; nos conformaremos con recordar que “dígito” es un número que puede expresarse con un solo guarismo. Si usamos el sistema decimal o arábigo representamos las cantidades numéricas en base a potencias de 10, por lo que usamos 10 dígitos del 0 al 9; si recurrimos al uso de potencias de 2, tenemos el sistema binario y manejamos sólo dos dígitos: 0 y 1, un bit (acrónimo de binary digit). La potencia de lo binario reside en que puede representarse en sistemas físicos con dos estados posibles, como los semiconductores. Una información en formato digital permite procesar, filtrar, comprimir, almacenar, transmitir, recuperar, visualizar, automatizar, combinar, modelar, autoproteger, compartir y virtualizar.
Entenderemos por digitalización al conjunto de resultados derivados del uso de este formato que cambia tanto la forma de llevar a cabo tareas, la comunicación y el acceso al conocimiento. Estamos ante una tecnología de propósito general cuyo desarrollo con otras ramas aporta conocimientos y técnicas que impactan en los distintos sectores económicos, el empleo, los hábitos de les personas y la propia geopolítica, como estamos viendo en el devenir de las decisiones de EEUU, China y Europa.
Máquinas y revoluciones
Una máquina ha sido entendida como un conjunto de elementos, móviles y fijos, cuyo funcionamiento permite aprovechar, dirigir, regular o transformar la energía, con el objetivo de realizar tareas mecánicas de resultado físico. Hoy también disponemos de máquinas que obtienen productos cognitivos. Aunque “industria” sea transformar materias en materias al obtener resultados inmateriales ampliamos el concepto, al hablar de revolución industrial (RI).
La 1ª RI tuvo lugar entre los siglos XVIII y XIX, asociada al desarrollo de la máquina de vapor; la 2ª RI ocurrió entre 1870 y la Primera Guerra Mundial basada en el motor de explosión y la electricidad; la 3ª RD, iniciada a finales de los 70 del pasado siglo, ya se basó en lo digital y entre otros avances registró el ordenador personal, Internet (incluida la web) y lo que hemos llamado Tecnologías de la Información y de las Comunicaciones (TIC). La 4ª RI es un término consagrado por el Foro Económico Mundial en 2016 que expresa los resultados obtenidos por la retroalimentación de la digitalización con nuevos bienes y servicios en un mundo globalizado (la reunión de Davos de enero de 2019 se centró en la Globalización 4.0, como arquitectura de la 4ª RI). Hablamos de los acelerados avances registrados en los últimos 10 años en: robótica, inteligencia artificial, telefonía inteligente, comunicaciones 4G y 5G, nanotecnología, biotecnología, Internet de las cosas, impresión 3D, bibliotecas universales, vehículos autónomos y nuevas armas, cartografía de detalle, cirugía y diagnósticos médicos, ciudades inteligentes y control continuo de señales corporales. A esta relación, en poco tiempo, habrá que añadir aquellas que acaben siendo aceptadas socialmente: nueva educación, arbitraje judicial, reconocimiento facial en el espacio público, conversación simultánea en distintos idiomas y manipulación genética.
Cinco áreas de la digitalización
Analizar la digitalización supone revisar lo conseguido en cinco ingenierías: (1) microelectrónica; (2) telecomunicaciones; (3) arquitectura de ordenadores; (4) robótica; y (5) software. Este orden no es caprichoso, pues las tres primeras son más básicas y sin ellas no existirían ni la Robótica que optimiza o sustituye el esfuerzo físico, ni las aplicaciones del software relacionadas con lo inmaterial y cognitivo.
(1) Microelectrónica
La válvula marcó la electrónica durante la primera mitad de siglo, y no extraña que se usara en el primer ordenador, ENIAC, que acabo pesando 30 toneladas y consumiendo la electricidad de una ciudad mediana. En los 50 apareció el transistor con sus propiedades semiconductoras, camino de la electrónica digital.
La microelectrónica se encarga de diseñar y fabricar dispositivos integrados de densidades crecientes. La miniaturización no es caprichosa ya que, a menor tamaño, más velocidad de procesamiento, más movilidad para el usuario, y, sobre todo, reducción de energía demandada expresada por la “Ley de Komey”, popularizada en 2011, según la cual, en capacidad de computación la eficiencia energética se duplica cada 18 meses.
(1.1) Sensores para la automatización
Entendiendo por automatización la descomposición de una actividad, física o cognitiva en tareas ejecutables por una máquina, el primer requisito es conocer el estado del medio sobre el que se pretende interaccionar. Un transductor es un dispositivo que transforma un tipo de energía en otra de carácter diferente: electro-acústico, electro-magnético, electro-mecánico, electro-químico, foto-eléctrico, magneto-mecánico, piezo-eléctrico, radio-acústico y termo-eléctrico. Un micrófono es un transductor electro-acústico que convierte oscilaciones de la presión del aire en variaciones de voltaje eléctrico, mientras que un altavoz sigue el camino contrario, al transformar corriente eléctrica en vibraciones sonoras. Los transductores se usan tanto para obtener medidas puntuales como continuas, en contacto constante con el medio objeto de instrumentación; en este caso hablamos de sensores, dispositivos que miden de forma continua una variable que es interpretada por otro dispositivo, habitualmente un procesador, que a su vez da órdenes a los actuadores. Es el caso del piloto automático de un avión o el brazo de un sistema robótico en entornos humanos.
(1.2) Circuitos integrados
Un procesador de propósito general consta de tres elementos: memoria activa, unidad aritmética/lógica para cálculos y la unidad central de procesos (CPU por sus siglas inglesas) para gestionar la ejecución. Los componentes electrónicos de un procesador o de uno de sus elementos son conocidos como chips, para cuya obtención se han desarrollado técnicas, diseños, requisitos y materiales que producen circuitos electrónicos integrados en una pastilla con la mayor densidad posible de transistores en ella. Su fabricación es compleja, con numerosas etapas basadas en la fotolitografía y en el procesado químico. Afortunadamente, estos dispositivos han acabado siendo abundantes, rápidos, baratos y adaptados a todo tipo de tareas. Un ejemplo son los coprocesadores dedicados a obtener y gestionar gráficos que aligeran el trabajo del CPU en aplicaciones como videojuegos, interfaz hombre-máquina y el video 3D interactivo, usado en realidad virtual.
(1.3) Dispositivos de almacenamiento de datos
Además de memorias activas, rápidas y potentes para procesar, también necesitamos dispositivos y sistemas que almacenen datos. Estos son muy diversos (extraíbles, internos y externos) y su evolución define la tecnología habida desde el inicio de la 3ª RI:
- Almacenamiento magnético: banda magnética, cintas de cassette, disquete y disco duro.
- Almacenamiento óptico, basado en láser y señales de luz como método de lectura y/o escritura: disco de Blu-ray, CD-ROM y Disco DVD.
- Dispositivos de memoria flash: unidades flash USB, tarjetas de memoria y disco duro de estado sólido.
- Almacenamiento en línea, que permite acceder a los datos desde múltiples dispositivos: almacenamiento en la Nube y medios propios de Internet.
Hoy no existen problemas tecnológicos para que la humanidad guarde toda la información generada o que vaya a generarse.
(1.4) Computación cuántica
Con el transistor se dio un paso muy trascendente, ya que se empezó a hacer con materiales sólidos (semiconductores) lo que antes se hacía en el vacío (válvulas). Hoy, el desafío es hacer con fotones lo que logramos con electrones. La mecánica cuántica describe el universo subatómico cuyas leyes son muy diferentes de las de la mecánica clásica siendo sus resultados inesperados y contrarios a nuestra intuición. Un ordenador cuántico es una máquina que admite como entrada una secuencia de bits cuánticos, que representan 1 o 0 o cualquier superposición de esos dos estados. Cuando estas máquinas funcionen se espera resolver problemas ahora inabordables, como descomponer números de miles de dígitos en factores primos propios, un tema clave en criptografía. La dificultad de construir estos ordenadores es evidente al requerir que las operaciones se hagan a escala atómica. Por el momento hay que conformarse con computadoras clásicas que simulan la computación cuántica, una idea que, como la fusión fría, desde la Física, se sueña con fundamento pero que no acaba de materializarse, cosa que no impide que sea objeto de grandes inversiones públicas y privadas.
(2) Telecomunicaciones
Transmitir datos digitales supone transferir un flujo de bits por un canal, en paquetes que contienen los datos propiamente dichos y una información de control, con la ruta a seguir hasta el destino. Esta descomposición en paquetes permite que cada uno de ellos pueda seguir una ruta distinta de tal manera que con la información que contienen, al llegar a su destino, pueda reagruparse adecuadamente y recuperar la información completa que se quiere transmitir.
(2.1) Corta distancia
Para esta comunicación se empezó prefiriendo la robustez del cableado basado en el estándar Ethernet, encargado de: detectar la onda portadora de bits; resolver las posibles colisiones; definir las características del cableado y de otros elementos físicos; y los formatos de las tramas de datos propias de una conexión local de múltiples dispositivos, incluida la salida al exterior. En pocos años las tecnologías inalámbricas irrumpieron en la corta distancia con la generalización de las tecnologías, Wifi y Bluetooth, cuyo éxito y eficacia han cambiado muchos hábitos domésticos y personales. La primera es una especie de Ethernet sin cables que conecta dispositivos debidamente habilitados y Bluetooth es una especificación industrial también sin cables para el área personal para voz y datos entre dispositivos diversos. Ambas se complementan cubriendo diferentes y crecientes necesidades.
(2.2) Redes fijas
Para transmitir voz se usa un rango de frecuencia reducido y, para contento de las antiguas compañías telefónicas, en los cables queda una gran parte del espectro de frecuencias utilizable para conmutar paquetes, lo que en la infraestructura ya existente se transmite simultáneamente en voz y datos. Además, la tecnología supo “domar” la luz para que se pudiera propagar de forma controlada dentro de un cable que conocemos como fibra óptica, un medio de transmisión basado en un hilo muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de luz con los datos a transmitir. Gracias a sus mínimas pérdidas de señal y a sus óptimas propiedades de ancho de banda, la fibra se ha convertido en un gran medio de transmisión con instalaciones fijas.
(2.3) Redes inalámbricas y teléfonos inteligentes
Las ondas electromagnéticas han hecho posible la conexión digital a larga distancia, con el uso de antenas emisoras y receptoras terrestres, complementadas con satélites que emiten señales de radio en zonas amplias al actuar a modo de grandes antenas suspendidas del cielo. Con las redes inalámbricas ha sido emocionante el devenir de los teléfonos móviles, primero analógicos, después digitales, a los que desde 2007 se les añade el término “inteligente” que, además de su gancho comercial, refleja su capacidad para su uso como ordenador y su conexión a Internet. Las últimas versiones de estos dispositivos contienen 1.000 veces más transistores que los que tenía el procesador Pentium de 1995 con el que se universalizó el PC. A lo largo de estos últimos años se han desarrollado distintos protocolos o generaciones de comunicación digital hasta llegar a la 5G, en desarrollo, que se adapta a las velocidades de los procesadores vigentes. La comunicación digital basada en dispositivos móviles y en redes inalámbricas permite utilizar casi todos los recursos digitales en cualquier lugar y en todo momento.
(3) Arquitectura de ordenadores
Una vez asumida la sinergia entre computadores y redes digitales, hay que referirse a los avances en materia de organización y funcionamiento de toda la capacidad computacional existente.
(3.1) Del mainframe a la nube
Al inicio de la 3ª RI, cuando la informática salió de los laboratorios y de las instalaciones militares, la computación se daba de forma centralizada con pesados ordenadores (mainframes) ubicados en sofisticados Centros de Proceso de Datos, que eran responsable de todo: ordenadores, software, dispositivos de almacenamiento, controladores de redes, impresoras y útiles diversos. Los usuarios trabajaban con terminales de texto, siendo sus primeros beneficiarios civiles las centrales de reservas y el sistema bancario. Las principales preocupaciones residían en el tiempo de respuesta y en la solidez del sistema, pues si este caía, las consecuencias en el trabajo diario eran muy costosas.
El paso siguiente vino marcado por la aparición de miniordenadores que conseguían algunas de las prestaciones de mainframe desde habitáculos mucho más reducidos, pudiéndose utilizar por científicos y por empresas de menor envergadura. Metidos ya en los 80, la capacidad de los microprocesadores dio lugar tanto al Personal Computer (PC), como a potentes estaciones de trabajo. El objetivo ya no era compartir una memoria central y garantizar la estabilidad del sistema, sino optimizar costes, simplificar el uso y obtener resultados en aplicaciones cotidianas. Hubo que enfrentarse a las demandas de una gran cantidad de usuarios y para ello surgió el concepto de sistemas distribuidos con muchos ordenadores conectados en red. Desde entonces se interconectaron, de forma descentralizada, redes físicas heterogéneas camino de una única red lógica de alcance mundial, que conocemos como Internet. La nueva arquitectura cambió la forma de programar para que las tareas pudieran repartirse de forma efectiva; por un lado, los proveedores de recursos de determinados servicios (servidores) y usuarios (clientes) desde donde un programa realiza peticiones a otro programa del servidor. Ejemplos de esta metodología son el correo electrónico, el servidor de impresión y la web.
La arquitectura Nube es un conjunto compartido de sistemas configurables y servicios de alto nivel, cuyo objeto es aprovechar la infraestructura existente descomponiéndola en sistemas “virtuales”, es decir, en dirigir las peticiones a un conjunto de ordenadores sin saber cuál de ellos las atiende. La Nube se vincula a recursos compartidos y a economías de escala y para ello descompone y ejecuta las demandas en “servicios”, como hace el médico de urgencias que virtualiza su trabajo contando con los servicios de especialistas, a quienes redirige la demanda a tenor de su criterio.
(3.2) Sistema operativo (SO)
Un SO es una especie de puente entre el usuario y la máquina, formado por un conjunto de programas encargados de funciones básicas: interfaz con el usuario, administración de recursos, gestión de archivos, asignación de tareas y afrontar las actualizaciones. Los SO se encuentran en la mayoría de dispositivos con microprocesadores, por lo que cada tipo de máquina tiene un SO adaptado. Los más usados, ordenados por tamaño de la máquina, son los siguientes.
Teléfonos móviles:
- iOS, SO de Apple exclusivo para sus propios dispositivos móviles: iPod, iPhone y iPad…
- Android, creado por un grupo de compañías bajo la dirección de Google. Es de “norma abierta”, por lo que muchos desarrolladores pueden adaptar su software.
- Kirin, en fase de desarrollo por Huawei (China).
Para ordenadores personales:
- Mac OS X, la versión exclusiva de los Apple Macintosh.
- Windows, SO desarrollado y operado por Microsoft. No siendo de código abierto sí puede instalarse en hardware de diferentes fabricantes.
Para sistemas cliente-servidor:
- Linux. Muy utilizado en ambientes profesionales, proviene de Unix, desarrollado en 1969. AT&T.
- El noruego Linus Torvalds creo Kernel Linux basado en la comunidad de defensores del software libre.
Para la Nube:
- Amazon EC2 dice garantizar un control completo sobre recursos y herramientas.
- Microsoft Azure ofrece un puente natural desde el escritorio hasta la Nube.
- Google Cloud Platform promete al usuario olvidarse de tareas complicadas.
(4) Robótica
Tendemos a pensar que “inteligencia” es un concepto propio de la abstracción, pero existen otras “inteligencias humanas” como la de los dedos o de los brazos. La Robótica es una ingeniería que se ocupa de la obtención de resultados con entidad física, históricamente relacionada con el proceso propio de la manufactura.
(4.1) Robots colaborativos e Impresoras 3D
La fabricación robótica se ha desarrollado en dos nuevos sentidos: el robot colaborativo y la impresión 3D. La robótica colaborativa consiste en la obtención de máquinas de programación sencilla que pueden trabajar junto a operarios sin tener que tomar medidas de seguridad especiales; en esta línea de compatibilidad han aparecido robots encargados del cuidado de personas con necesidades especiales como los enfermos o con problemas de soledad como los ancianos.
Una impresora 3D es un robot que construye objetos de cualquier forma o geometría, trabajando con sucesivas capas de material, un proceso conocido como “fabricación aditiva” que se realiza depositando material en una plataforma desde donde trabajan los cabezales de impresión tras inyectar las distintas capas. Los materiales y las técnicas de aporte son: polimerización; inyección de aglutinante; extrusión de material; cama de polvo; y laminación de metal. La actual capacidad del diseño de precisión permite plasmar la complejidad de cada subtarea e individualizar el producto final sin grandes costes. Los procesadores empotrados en la propia impresora consiguen controlar cada operación aditiva interpretando unos “planos” muy exactos que dirigen los movimientos correspondientes.
(4.2) Industria 4.0
Este término se acuñó en 2011 en Alemania para denominar la adaptación de la fabricación industrial a todas las posibilidades digitales. Esta nueva forma de entender una fábrica distingue tres niveles de integración:
- Componente, constituido por el conjunto de sensores que proporcionan los datos primarios para soportar un proceso automatizado con la máxima precisión posible. Gracias a la incorporación de una determinada inteligencia detectan por sí mismos sus posibles errores, dotándolos de memoria suficiente para integrase con otros sensores para formar mecanismos autónomos.
- Máquina, cuya fuente de datos son los distintos componentes con los que gobierna sus controladores y actuadores. Dentro de la cadena de producción determina el acabado y la calidad, vigilando el aprovechamiento de los materiales utilizados.
- Sistema de Producción, que es el nivel macro de la fábrica que puede verse como un sistema en red encargado de los productos finales; su misión consiste en obtener de forma autónoma la máxima eficacia global de todo el equipo, en busca de la finalización y almacenaje de lo producido, camino de su distribución.
Con la Industria 4.0 las factorías se hacen flexibles fabricando elementos diferenciados adaptados a cada necesidad o cliente, sin que se pierda ni automatización, ni productividad.
(4.3) Sistemas ciberfísicos: Internet de las cosas (IoT, Internet of Things, en inglés)
Cibernética se refiere a la estructura de los sistemas de regulación y se vincula a disciplinas más reconocidas académicamente, como la teoría de control y la teoría de sistemas. Hablamos de “sistemas ciberfísicos” para referirnos a la integración de las capacidades digitales interactuando con el mundo físico. Un ejemplo es la vivienda inteligente, donde la construcción tradicional se integra con elementos digitales, que aprovechan toda la capacidad de procesamiento que existe dentro y fuera del edificio.
Cuando la conectividad de la máquina a Internet superó la conectividad humana era cuestión de tiempo que saltara a los objetos. Hoy estamos viendo alrededor de 25.000 millones de dispositivos conectados, un número que crece constantemente, y por ello necesitamos codificar unos 100.000 millones de objetos. Un ser humano está rodeado de 1.000 a 5.000 de ellos, un nivel de identificación inalcanzable con el protocolo usual de Internet, pero sí posible recurriendo a otros nuevos. El concepto de IoT va más allá de la conectividad entre máquinas ya que propone disponer en cada momento de un sistema de información integrado de la parte física. La IoT contempla una infraestructura global en la que los objetos físicos se combinan con instalaciones digitales y con representaciones virtuales integradas en red que permiten formas de interacción y “comprensión” entre objetos. El desarrollo del IoT soporta el concepto de Infraestructura Inteligente vista como una red de computación, datos y entidades físicas que hace que los entornos humanos sean más favorables, interesantes y seguros. Esta infraestructura está comenzando a aparecer en dominios como el transporte, la medicina, el comercio y las finanzas, con enormes implicaciones para las personas y las sociedades.
(5) Sistemas de software
No hay un computador para cada tarea, sino una máquina para ser programada. Para que un programa se ejecute se necesitan unos datos al inicio, pero serán procesados siguiendo los pasos marcados por un algoritmo subyacente y así llegar a una solución final. Al estar el lenguaje humano muy alejado del código binario, existen lenguajes de programación para crear un código que finalmente es ejecutado por el hardware del ordenador. La evolución tecnológica y la variedad de tareas a afrontar han dado lugar a una frenética aparición de nuevos lenguajes, una inevitable torre de Babel. La ingeniería de Sistemas es la rama encargada de analizar, diseñar, codificar, optimizar, limpiar, documentar y proteger el código. Además de los programas escritos con la sucesión lógica propia del algoritmo (programa) tradicional, también se han desarrollado soluciones basadas en estimaciones hechas a partir de un gran número de datos y del conocimiento de equipos humanos: se trata del software de Inteligencia Artificial (IA), una ingeniería específica que se aleja de la ingeniería de sistemas tradicional.
(5.1) Sistemas de Gestión de Bases de Datos, Big Data y BlockChain
Una base de datos (BD) es un conjunto de datos pertenecientes a un mismo contexto, sistemáticamente almacenados para su uso posterior. Un ejemplo de base de datos es una biblioteca. Las bases de datos en formato digital, además del hardware para el almacenamiento, deben disponer de un software para su explotación, llamado Sistema de Gestión de Base de Datos cuyas funciones son controlar el acceso a los datos, asegurar su integridad lógica, gestionar las demandas concurrentes, recuperar los datos tras fallos y hacer copias de seguridad. Estos sistemas cuentan con un lenguaje específico diseñado para administrar y simplificar la tarea de programar aplicaciones. Existen BD distribuidas y ubicadas en diferentes espacios lógicos y geográficos, interconectadas siempre por red.
La búsqueda de bases de datos en Internet ha promocionado el uso de metadatos: datos que describen otros datos. Un grupo de metadatos describe el contenido informativo de un objeto o recurso, al tiempo que ayuda a ubicarlo y a proporcionar información sobre él. Una etiqueta es un metadato, en forma de palabra clave o marca que se asigna a los datos almacenados en un repositorio para facilitar su recuperación. El lenguaje propio de la Web HTML (siglas inglesas de lenguaje de marcado de hipertexto) se basa en el uso de etiquetas que, entre otras cosas, proporcionan al navegador las informaciones necesarias presentar una página sobre una pantalla.
Big Data es un término que describe cualquier cantidad voluminosa de datos con la posibilidad de ser explotados. Sus fuentes son muy diversas: los sistemas de sensorización; el uso diario de Internet; los propios de una transacción; comercio electrónico y web; interacciones máquina a máquina; datos biométricos; colaboración voluntaria, etc. Los Big Data requieren nuevas tecnologías para manejarlos ya que su volumen supera la capacidad de los sistemas actuales.
Una cadena de bloques, en inglés blockchain, un concepto aplicado por primera vez como parte del bitcoin, es una base de datos distribuida pensada para datos ordenados en el tiempo con un libro mayor, parecido al usado en contabilidad, compartidos por los usuarios en una red sin importar si es pública o privada. Toda información presente en el libro está cifrada mediante criptografía de clave pública que sólo se puede descifrar con la clave privada apropiada. Cada participante en la red tiene una copia idéntica del libro y su contenido sólo está disponible para aquellos con las claves privadas/públicas adecuadas. Toda nueva información debe agregarse a una cadena de bloques sin que se pueda eliminar o sobrescribir, ya que la información contenida en un bloque sólo puede ser repudiada o editada modificando todos los bloques posteriores. Nótese que el libro acaba siendo un perfecto historial de auditoría con todas las transacciones habidas en él. Antes de agregar un nuevo bloque en una cadena los usuarios usan unos protocolos de consenso, de forma que no existe ningún “administrador central” con todos los permisos para los accesos. La confiabilidad la construyen los propios participantes ya que un comportamiento malicioso requeriría de una mayor potencia de cómputo y de presencia en la red que el resultante de la suma de todos. Existen dos inconvenientes importantes que van más allá de la tecnología: (a) un gran gasto energético, en el límite de lo tolerable, a causa de la enorme demanda de cálculo criptográfico que incorpora; y (b) su generalización afecta a la gobernanza ya que propone estructuras organizativas que necesitan un nuevo pensamiento jurídico. La desintermediación practicada subvierte la regulación que ahora practicamos, socavando la capacidad supervisora de los gobiernos en actividades vitales como banca, comercio, derecho, etc.
(5.2) Inteligencia Artificial (IA) y Aprendizaje Automático (AA)
El término Inteligencia Artificial (IA) despierta excesivas especulaciones económicas y culturales, por lo que sus resultados deben tratarse con el mayor cuidado y rigor. Lleva a distinguir entre capacidad de llevar a cabo cualquier tarea intelectual exclusiva de los humanos (IA general o dura), que por el momento es poco más que una especulación, de aquella otra (IA blanda) que se conforma con enfrentar el desarrollo de sistemas capaces de realizar tareas que normalmente requieren inteligencia humana, como la percepción visual, el reconocimiento de voz y la traducción entre idiomas (estas tres ligadas a la clasificación perceptiva), y la toma de decisiones automáticas. Incluso para la modesta IA blanda, los lenguajes de programación tradicionales son insuficientes, por lo que se ha optado por programar las computadoras para que aprendan: es el Aprendizaje Automático (AA), que combina ideas de estadística, informática y de otras disciplinas (véase más abajo) aprovechando la enorme capacidad de cálculo existente y el acceso a los Big Data. En esta nueva visión del algoritmo se programan conjuntos de reglas que permiten al sistema evolucionar al ritmo de la recopilación de nuevos datos, lo que brinda a las máquinas la posibilidad de aprender a partir de miles de ejemplos y habitualmente con supervisión humana. La mayor parte de lo que hoy se llama IA, particularmente en la esfera pública, es resultado del AA, que todavía tiene que conseguir tres potencialidades casi innatas del humano: sentido común, capacidad de autoexplicación del razonamiento seguido y comprensión del lenguaje. A pesar de ello, el AA concentra en la actualidad grandes inversiones, justificadas por los estimulantes resultados en las aplicaciones ligadas a la clasificación perceptiva:
AA = Big Data + Algoritmos de Aprendizaje + Capacidades de Proceso
Para usar Big Data, cuyo desarrollo debe mucho al AA, hay que asegurar que aquellos disponibles sirvan para extraer la información necesaria para cada aprendizaje concreto. La “Ciencia de los Datos” se encarga de elaborar métodos rigurosos para que los datos no produzcan ningún tipo de sesgo.
Los algoritmos de AA siguen cinco tendencias imitando disciplinas diversas:
- Selección natural: algoritmos evolutivos basados en mantener un conjunto de entidades que representan posibles soluciones que se mezclan para competir entre ellas, de forma que las más aptas prevalezcan y evolucionen hacia mejores soluciones.
- Psicología: al igual que los humanos, estos algoritmos se basan en analogías, buscando, entre los datos explotados, problemas similares ya resueltos.
- Método científico: aprendices simbólicos que trabajan por inducción.
- Probabilidad condicionada (Teorema de Bayes): tras asignar probabilidades iniciales a hipótesis basadas en nuestro conocimiento, se deja que aquellas que resulten ser consistentes con los datos pervivan por ser más probables, abandonando las que no lo sean. A continuación se hacen predicciones dejando que todas las hipótesis voten, con más peso para las más probables. Obviamente los resultados obtenidos tienen probabilidades asociadas.
- Funcionamiento del cerebro humano: a partir de un modelo matemático de la neurona, se construyen redes neuronales de miles o millones de unidades y se deja que aprenda fortaleciendo gradualmente las conexiones entre aquellas que se activan conjuntamente al observar los datos. Se conoce como conocimiento profundo (deep learning) el obtenido con redes superpuestas en capas. La “profundidad” la da el número de capas, no el conocimiento.
Conclusiones
Aunque algunas de estas ingenierías pueden estar en el límite de lo plausible, las consecuencias de la digitalización no van a frenarse. Estas tecnologías van a instalarse de forma más o menos oculta, como la electricidad que siempre damos por sobrentendida. Los próximos pasos puede que no sean estrictamente digitales: computación cuántica, redes neuronales, redefinición del trabajo y transición energética, pero no hay que abusar de la especulación futurista.
Es posible que en la valoración del impacto de la transformación digital estemos al nivel de conocimiento que teníamos en la investigación climática hace unos 30 años, cuando empezaba a ser un tema de política global. Vivimos una asimetría entre la información codificada y los efectos de su uso. Con la digitalización, electrones que pasan a través de microprocesadores dirigen los flujos energéticos y materiales en el marco de una tecnosfera que abarca desde las órbitas de satélites a 40.000 kilómetros de altura hasta 10 kilómetros de profundidad en la litosfera.
Gregorio Martín Quetglas, Catedrático emérito de Ciencias de la Computación e Inteligencia Artificial, Universitat de Valencia