El futuro de la computación

Desde que en 1955 el científico estadounidense John McCarthy acuñó el término “inteligencia artificial”, la gente imagina un futuro de computadoras y robots conscientes capaces de pensar y actuar como los seres humanos. Pero aunque tal vez llegue ese día, por ahora es una posibilidad remota.

Y sin embargo, la frontera cercana de la computación no es menos fabulosa. Hemos entrado en lo que IBM denomina Era Cognitiva. Los avances en computación están mejorando nuestra capacidad de interpretar grandes volúmenes de datos, algo que puede ayudar a tomar algunas de las decisiones más importantes del mundo y acaso revolucione industrias enteras.

El término “computación cognitiva” se refiere a sistemas que en vez de estar programados explícitamente, han sido diseñados para aprender de sus propias experiencias. Esos sistemas aceleran la era de la información; mediante la extracción de información útil a partir de datos no estructurados, ayudan a sus usuarios en una amplia gama de tareas, como identificar oportunidades comerciales únicas, descubrir nuevos tratamientos para enfermedades o idear soluciones creativas para los problemas de ciudades, empresas y comunidades.

La Era Cognitiva marca la siguiente etapa de la aplicación de la ciencia para comprender la naturaleza y promover la prosperidad de la humanidad. Comenzó a principios de 2011, cuando el sistema de computación cognitiva Watson venció a dos campeones humanos en el programa de entretenimientos “Jeopardy!”. Desde entonces, Watson hizo muchas otras cosas y demostró de qué manera la computación cognitiva puede usar el análisis de macrodatos para encarar algunas de las cuestiones sistémicas más difíciles a las que se enfrenta la humanidad.

A grandes rasgos, los sistemas cognitivos tienen cinco capacidades básicas. La primera es utilizar datos de las personas para crear interacciones más plenamente humanas y de ese modo aumentar el interés del usuario. La segunda es aprender de expertos en diversos campos y poner sus conocimientos a disposición de poblaciones amplias, lo que aumenta la escala y el nivel de esa experiencia. La tercera es ofrecer productos, como los conectados a la Internet de las Cosas, capaces de percibir el mundo que los rodea y aprender de sus usuarios.

La cuarta es permitir a sus operadores interpretar grandes volúmenes de datos, con lo que ayudan a gestionar flujos de trabajo, brindan contexto y permiten el aprendizaje continuo, una mejor previsión del futuro y una mayor eficacia operativa. Y la última (y tal vez la más importante) es ayudar a sus usuarios a percibir patrones y oportunidades que sería imposible descubrir por medios tradicionales.

Los sistemas cognitivos se inspiran en el cerebro humano, un órgano que todavía tiene mucho que enseñarnos. Con el aumento de tamaño y complejidad de los sistemas informáticos, la arquitectura de computadoras tradicional parece estar llegando a un límite, conforme el consumo de energía se dispara y la demora en la transmisión de información entre componentes se vuelve un obstáculo cada vez mayor. De hecho, en lo referido a la eficiencia energética (medida como la cantidad de cálculos sobre datos “no estructurados” por unidad de energía) el cerebro humano es aproximadamente 10 000 veces más eficiente que las mejores máquinas que haya creado el hombre.

Hoy, según señala Mark Mills (director ejecutivo de Digital Power Group), las computadoras consumen alrededor del 10% de la producción mundial de electricidad. Para aprovechar plenamente la Era Cognitiva, tendremos que trabajar con volúmenes de información enormes; se prevé que en los próximos 15 años, la cantidad de datos “digitalmente accesibles” se multiplique por más de mil. El procesamiento de semejante volumen de datos no será posible sin grandes avances en eficiencia energética.

Para igualar la capacidad de cálculo y la eficiencia del cerebro humano es probable que tengamos que imitar algunas de sus estructuras. En vez de tratar de maximizar la capacidad de cálculo creando chips cada vez más grandes que consumen cada vez más energía, podemos organizar los componentes electrónicos en una matriz tridimensional densa similar al cerebro humano para maximizar la eficiencia energética.

Al organizar los chips en forma tridimensional, los componentes de la computadora quedan más cerca entre sí. Esto no solo reduce el tiempo que les lleva comunicarse, sino que también mejora la eficiencia energética hasta 5000 veces, lo que la acerca a la del cerebro biológico. Ya hay sistemas de computación mucho más densos basados en tecnología móvil actual y refrigeración con agua caliente que alcanzan una eficiencia diez veces superior a la de un sistema convencional.

Pero las computadoras son energéticamente ineficientes porque además de energía para los chips, necesitan energía para hacer funcionar los sistemas de refrigeración que eliminan el calor generado por los procesadores. Aquí también el cerebro humano puede enseñarnos algo. Así como el cerebro usa sangre cargada de azúcar para suministrar energía a sus diversas regiones y a la vez refrigerarlas, en una arquitectura tridimensional se podría usar el líquido refrigerante para suministrar energía a los chips. Además de disipar el calor, el fluido podría impulsar un sistema electroquímico que provea de energía a los procesadores, lo que a su vez permitiría un mayor incremento de la densidad de empaquetado y, con ella, de la eficiencia.

La adopción de algunas características del cerebro humano puede hacer a las computadoras mucho más compactas, eficientes y potentes, lo que nos permitirá aprovechar plenamente la computación cognitiva y dará a nuestros cerebros reales nuevas fuentes de ayuda, estímulo e inspiración.

Bruno Michel is a scientist at IBM Research - Zurich. Traducción: Esteban Flamini.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *