La pandemia: una guerra en la Red

La pandemia ha provocado un uso masivo de la tecnología. El salto que se preveía en poco más de una década ha provocado que los confinamientos masivos de la población y la distancia social hayan encontrado en la tecnología el punto de encuentro necesario para que los individuos se desarrollen en sociedad. Un proceso de socialización familiar, afectiva y de su propio ecosistema estructural que sucede en una situación de crisis: la pandemia. Un entorno psicosocial extremo que determina en el desarrollo de la personalidad algunos aspectos de extraordinario interés para la investigación y la construcción psicográfica de los perfiles digitales de los usuarios en el planeta.

Si en el proceso electoral norteamericano de 2016 hablábamos de alrededor de cinco mil datos por perfil, hoy posiblemente estemos analizando rangos próximos a los diez mil. Un perfil por cada uno de nosotros que determina con exactitud no tan solo nuestros hábitos mercantiles o comerciales, sino la capacidad de anticipar la predicción en el tiempo de nuestros deseos.

La investigación que se desarrolló tras el escándalo de Cambridge Analytica en Facebook, dejó en evidencia algunos usos del capitalismo digital, traspasando cualquier línea roja en la intervención directa de los procesos democráticos en el mundo que aún hoy seguimos analizando.

Hace tan solo diez años que Facebook anunció Platform y permitió a los desarrolladores conectar sus aplicaciones a su red social. Pasaron cuatro años hasta que decidieron cerrar la función de friends permissions, quizás demasiado tarde. Algunas empresas ya habían compartido datos de más de 240 millones de personas y habían abierto una nueva ventana de mercado basada en la minería de datos y el big data irreversible.

Hoy, conceptos como el capitalismo de la vigilancia o la economía de la atención de más de 4.000 millones de personas en el planeta definen nuevos espacios de crecimiento anticipándose a las viejas economías de flujo de transacciones financieras globales. Los mercados de futuro están diseñados en la base predictiva de los deseos humanos futuros.

Todo lo que se hace en Internet se mide, se rastrea y se graba. Cada mirada, cuántos segundos, a qué perfiles qué amigos, qué compañeros de trabajo, qué vecinos, ¿algún antiguo compañero de colegio, quizás? Y lo más importante: ¿dónde estás?, ¿qué datos atmosféricos existen en tu entorno?, ¿te sientes mejor si sale el sol o estás más relajado si llueve? ¿Cómo estás hoy? ¿Triste? ¿Alegre? ¿Qué informaciones y de quién, te motivan a contestar? ¿Existe alguna idea que te refuerza en tu pensamiento? ¿Cómo observas la realidad que te rodea? ¿Las personas que te rodean en la red piensan igual que tú? ¿Cómo reaccionas frente a informaciones diferentes? ¿Tienen tu misma ideología? ¿Estás dispuesto a escuchar a quien opina o piensa diferente a ti?

Nunca obtendrás toda la información disponible, solo la que te filtran según tus propios gustos y usos. Este es el efecto de los filtros de distribución de información en cada búsqueda que realizas en casi todos los buscadores en Internet diseñados inicialmente para optimizar tu búsqueda. Junto a las cámaras de eco que se generan en las redes sociales en el ideal de acercar entornos que retroalimenten tus gustos o deseos, están aniquilando cualquier posibilidad de conocer una realidad más amplia.

Todo lo que se hace en Internet se mide, se rastrea y se graba. Cada mirada, cuántos segundos, a qué perfiles qué amigos, qué compañeros de trabajo, qué vecinos, Y lo más importante: ¿dónde estás?, ¿qué datos atmosféricos existen en tu entorno?, ¿cómo estás hoy?

Incluso en el cada vez más reducido mundo de la acción política, constreñido al ámbito de los Estados-nación, sufre en sus democracias el ocaso de la construcción de la opinión pública basada en los medios de comunicación tradicionales, poniendo en riego un derecho fundamental para poder decidir, para poder votar: la información veraz y objetiva.

Hoy, aquellos viejos medios de comunicación tradicionales están siendo sustituidos por estructuras digitales de información, redes de mensajes encriptados punto a punto, opacos, donde la ignorancia colectiva basada en las noticias falsas y la incapacidad de los usuarios para conocer la realidad se convierte en un arma de manipulación masiva sometida al albur de auténticas maquinarias de desinformación, un campo de cultivo para edificar el discurso del odio.

El populismo manipulador de la creciente ignorancia, la tensión, la crispación, la polarización que se está desarrollando en sociedades democráticas en crisis, es fruto de muchos factores. La forma de informarse, impermeable en sus cámaras de retroalimentación de eco, la forma de formarse, de educarse desde la infancia en la Red. La forma de acceder a una realidad que es mucho más compleja que un simple tuit, un pulso alto de cinco voltios “1”, “sí”, o la ausencia de este, un pulso bajo “0”, “no”; de repente “el todo” es binario.

La inteligencia artificial está cada día más al servicio de los sistemas financieros algorítmicos diseñados para anticipar órdenes de compra, fondos de inversión volcados en aportar millones de dólares a los ingenieros de datos para que les ayuden a monitorizar los mercados y anticipar los deseos de millones de personas en cualquier lugar del mundo.

Importantes laboratorios de tecnología persuasiva, como el de la Universidad de Stanford, trabajan desde hace años en conocer cómo usar lo que sabemos sobre psicología, sobre lo que convence a la gente, para convertirlo en tecnología.

¿Qué gesto es más propio, deslizar tu propio dedo por una pantalla o utilizar un frío puntero? ¿Qué significa deslizar el dedo hacia abajo? ¿se actualiza la información? ¿Arriba siempre hay algo nuevo? ¿Has pensado que ese es exactamente el mismo movimiento inconsciente que utilizan las máquinas tragaperras? En psicología se llama refuerzo intermitente positivo. Instalarte un hábito sin ser consciente de ello. Ningún diseño es casual, todo está perfectamente estudiado.

Un amigo te ha etiquetado en una foto, ¿cómo no lo vas a mirar?, ¿cómo no vas a comentarlo? El trabajo de los ingenieros growth hacking, disciplina que se dedica en las redes sociales a conocer el comportamiento de los usuarios para buscar más crecimiento de interacciones, más tráfico, más flujo de datos y especialmente usuarios nuevos; ha sido espectacular en estos últimos tiempos. El objetivo es influir en el comportamiento y las emociones del mundo real sin que el usuario se dé cuenta.

Motores de inteligencia artificial que generan ingeniería inversa para descubrir que es exactamente lo que nos hace reaccionar. Esa ingeniería se desarrolla en todas las redes sociales, Facebook, Instagram, Twitter y TikTok. ¿Te imaginas que una sola compañía conociera tus ideas, tus sentimientos, tus estados de ánimo, tus amigos, tu familia, o que incluso conociera tus mensajes privados, o donde estás en cada momento?

El consejero delegado de Facebook, Mark Zuckerberg, hace poco más de un año anunció que estaban estudiando integrar los tres servicios de mensajería principales de la empresa, Facebook, Instagram y WhatsApp, en una misma estructura unificada, si bien Facebook, Instagram y WhatsApp mantendría su uso como aplicaciones independientes. No todos los usuarios conocen que esas tres aplicaciones son del mismo emporio empresarial.

¿Puedes imaginar tener el poder de cambiar ligeramente lo que pueden pensar 4.000 millones de personas en el mundo? Imagina más aún, ¿puedes imaginar la posibilidad de conocer los deseos de esos miles de millones de personas, con semanas, con meses de antelación?, ¿quieres segmentarlos por edad, sexo, país, región, ciudad o por su posición geográfica hoy o incluso predecir donde estará dentro de una semana, en cualquier lugar del mundo?

La capacidad de automatización de los datos de millones de usuarios en una situación de crisis como la actual está generando no tan solo la posibilidad de conocer los sectores básicos de producción y de consumo de nuestras economías en modo supervivencia, está proporcionando información estructural del comportamiento de millones de personas en tiempos asemejados a los de una guerra mundial.

Abrazos digitales, sentimientos en red, negocios en línea, imágenes y microvideos que mostraban acciones solidarias, esfuerzos heroicos, aplausos sin límite cada tarde, daban una visión general de una sociedad que necesitaba aliento, fuerza y ánimos para superar el confinamiento, datos, datos y datos para superar la batalla.

Al principio, en Silicon Valley se hacían diseños de microprocesadores, hardware, posteriormente programas que se vendían a los clientes, software, hoy el producto eres tú. Hoy todo ha cambiado, se invierten millones de dólares en desarrollar programas gratuitos. Miles de programas, atractivas aplicaciones para tu móvil que se ofrecen gratuitamente para dar servicios útiles en nuestras vidas y educen todos los datos posibles para analizarnos. Recuerda, si no te cobran por un producto, el producto eres tú.

En este nuevo paradigma económico el producto es tu atención. Millones de algoritmos, ejecutados por millones de supercomputadores para conocerte, cambiar lo que haces, lo que piensas, lo que eres. Quizás en un futuro no muy lejano sería importante legislar a nivel global sobre la propiedad de nuestros datos. ¿pero qué estructuras políticas, legislativas, ejecutivas o judiciales disponemos a nivel global?

Cuando el Consejo de Europa me encargó elaborar un informe sobre los efectos de la desinformación y la protección de los derechos humanos en la red de redes, quizás ya era tarde.

Hoy, meses después, a pesar de nuestras recomendaciones, en un mundo azotado por la pandemia, el futuro de nuestras democracias, nuestras economías y quien sabe si la sociedad del conocimiento de próximas generaciones está siendo teledirigida solo para caminar hacia una “determinada” realidad algorítmica.

Construir nuestra historia en libertad pensando en el futuro, soñar con la justicia social más allá del mercado cuando solo se nos permite observar por la cerradura de una puerta para conocer la realidad. Todo un reto apasionante, o quizás una misión imposible pensando en el futuro de la humanidad desde el trágico mirador de este año 2020. La solución quizás, como diría Bonaparte, esté en borrar la palabra “imposible” de nuestro vocabulario.

José Cepeda es profesor de la Universidad Carlos III de Madrid. Ha sido el autor del informe europeo “Social media: social threads or threats to human rights?”, en la actualidad es senador y portavoz adjunto del PSOE en la Asamblea de Madrid.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *