Cómo resolver el rompecabezas de la desinformación

Desde que las elecciones presidenciales de noviembre de 2016 en Estados Unidos resaltaran la vulnerabilidad que tienen los canales digitales con respecto a los proveedores de “noticias falsas”, el debate sobre cómo contrarrestar la desinformación no ha desaparecido. Hemos recorrido un largo camino durante los ocho meses que han trascurrido desde que los ejecutivos de Facebook, Google y Twitter comparecieran ante el Congreso para responder preguntas sobre cómo las fuentes rusas explotaron sus plataformas para influir en las elecciones. Pero, si hay algo que la búsqueda de soluciones ha dejado en claro, esto es que no existe una solución mágica.

Primero, ¿quién está compartiendo la desinformación? La desinformación difundida por actores extranjeros puede ser tratada de manera muy distinta – tanto en el ámbito legal como normativo – a la desinformación difundida por los ciudadanos, en especial en Estados Unidos, país que tiene constituidas protecciones para la libertad de expresión sin precedentes, así como normas relativamente estrictas con respecto a injerencia extranjera.

En lugar de una solución integral, lo que se necesita son pasos que aborden el problema desde múltiples ángulos. El ecosistema moderno de la información es como un cubo de Rubik, donde se requiere un movimiento diferente para “resolver” cada cuadrado individual. Cuando se trata de desinformación digital, se deben considerar al menos cuatro dimensiones.

En Estados Unidos, casos menos sofisticados de intervención extranjera podrían tratarse con una mezcla de procesamiento de lenguajes naturales (PLN) y técnicas de geolocalización para identificar a los actores que trabajan desde fuera del país. Cuando los cambios a nivel de plataforma fallan, se podrían emplear intervenciones gubernamentales más amplias, como por ejemplo, sanciones generales.

En segundo lugar, ¿por qué se comparte la desinformación? La “información errónea” – información inexacta que se difunde involuntariamente – es bastante diferente de la desinformación o propaganda, mismas que se difunden deliberadamente. Evitar que los actores bien intencionados compartan información falsa sin darse cuenta es un tema que podría abordarse, al menos parcialmente, a través de campañas de alfabetización informativa o iniciativas de verificación de hechos. Evitar que los malos actores compartan deliberadamente dicha información es más complicado y depende de los objetivos específicos de dichos malos actores.

Por ejemplo, para el caso de aquellos que están motivados por las ganancias – como los ahora desacreditados adolecentes de Macedonia que ganaron miles de dólares con sitios de “noticias falsas” – las nuevas políticas publicitarias que impiden el avance de modelos de ingresos pueden ser de ayuda. Pero, tales políticas no detendrían a quienes comparten desinformación por razones políticas o sociales. Si esos actores están operando como parte de redes organizadas, puede que sea necesario impedir la operación de toda la red para lograr que las intervenciones sean efectivas.

Tercero, ¿cómo se comparte la desinformación? Si los actores comparten contenido a través de las redes sociales, realizar cambios en las políticas de las plataformas y/o la regulación gubernamental podría ser suficiente. Pero, tales cambios deben ser específicos.

Por ejemplo, para evitar que se usen ‘bots’, programas informáticos robots que efectúan automáticamente tareas repetitivas a través de Internet, para amplificar el contenido artificialmente, las plataformas pueden requerir que los usuarios revelen sus identidades reales (aunque esto sería problemático en regímenes autoritarios donde el anonimato protege a los defensores de la democracia). Para limitar el proceso de ‘microtargeting’ – en español la denominada micro-focalización, que es el uso de datos demográficos y de consumidores para predecir los intereses y conductas de las personas individuales con el fin de influir en sus pensamientos o acciones – puede ser necesario que las plataforma tengan que cambiar sus políticas de privacidad y sobre las formas en la que se comparten datos, así como puede que sea necesario implementar nuevas reglas publicitarias. Por ejemplo, en lugar de darles a los anunciantes la oportunidad de acceder a 2.300 probables “odiadores de judíos” por sólo $30, las plataformas deberían – y en algunos casos, ahora sí lo hacen – divulgar los grupos objetivo de los anuncios políticos, prohibir ciertos criterios de segmentación o limitar cuán tan pequeño pueda ser el grupo objetivo.

Este es un tipo de carrera armamentista. Los malos actores evitarán rápidamente cualquier cambio que implementen las plataformas digitales. Siempre serán necesarias nuevas técnicas – como el uso de ‘blockchain’ para ayudar a autenticar las fotografías originales. Pero existen pocas dudas sobre que las plataformas digitales están mejor equipadas que los reguladores gubernamentales en cuanto a adaptar sus políticas de manera periódica.

Sin embargo, las plataformas digitales no pueden gestionar la desinformación por sí solas, sobre todo debido a que, según algunas estimaciones, las redes sociales representan sólo alrededor del 40% del tráfico hacia los sitios de ‘noticias falsas’ más atroces, mientras que el otro 60% llega “orgánicamente” o a través de “redes sociales oscuras” (tales como mensajería o correos electrónicos entre amigos). Es más difícil lidiar con las vías mencionadas al último.

La dimensión final – y, quizás, la más importante – del rompecabezas de la desinformación es: ¿qué es lo que se está compartiendo? Los expertos tienden a centrarse en contenidos completamente “falsos”, que son los más fáciles de identificar. Pero, las plataformas digitales, naturalmente, tienen incentivos para frenar ese contenido, simplemente porque las personas en general no quieren parecer tontas al compartir historias totalmente falsas.

Sin embargo, a las personas les gusta leer y compartir información que se alinee con sus perspectivas; les gusta aún más si desencadena emociones fuertes – especialmente indignación. Debido a que los usuarios se involucran mucho con este tipo de contenido, las plataformas digitales tienen un incentivo para poner en escaparate este tipo de información.

Dicho contenido no sólo polariza; a menudo, suele ser engañoso e incendiario, y hay indicios de que puede socavar el discurso democrático constructivo. Pero, ¿dónde está la línea entre un desacuerdo peligroso basado en la distorsión y un debate político vigoroso impulsado por visiones del mundo contradictorias? Y, ¿quién, si alguien está en la capacidad de hacerlo, debería ser el encargado de trazar esta línea?

Incluso si se respondieran estas preguntas éticas, identificar el contenido problemático a escala confronta serios desafíos prácticos. Muchos de los ejemplos más preocupantes de desinformación se han centrado no en ninguna elección o candidato en particular, sino en explotar las divisiones sociales a lo largo de, digamos como ejemplo, las líneas raciales. Y, a menudo, la difusión de esa desinformación no se compra como publicidad. Como resultado de esto, esta situación no se abordaría mediante las nuevas reglas para regular las campañas publicitarias, como ser la Ley de Anuncios Honestos que ha sido respaldada tanto por Facebook como por Twitter.

Si las soluciones a la desinformación no están claras en Estados Unidos, la situación es aún más espinosa en el contexto internacional, donde el problema es aún más descentralizado y opaco – otra razón por la cual no es posible llegar a ninguna solución amplia y global.

Pero, si bien cada medida aborda solo un problema estrecho – las políticas publicitarias mejoradas pueden resolver el 5% del problema, mientras que las diferentes políticas sobre micro-focalización pueden resolver el 20% – si se las considera en conjunto, se puede avanzar. El resultado final será un entorno de información que, si bien va a ser imperfecto, incluirá sólo una cantidad relativamente pequeña de contenido problemático – algo que es inevitable en las sociedades democráticas que valoran la libertad de expresión.

La buena noticia es que los expertos ahora tendrán acceso a datos de Facebook cuya privacidad está protegida con el propósito de que dichos datos les ayuden a comprender (y mejorar) el impacto que tiene la plataforma en las elecciones – y en las democracias – alrededor de todo el mundo. Se espera que otras plataformas digitales – tales como Google, Twitter, Reddit y Tumblr – sigan el ejemplo. Con las ideas correctas y un compromiso con el cambio fundamental, aunque incremental, se puede lograr que el impacto social y político de las plataformas digitales sea seguro – o por lo menos más seguro – para las democracias asediadas de hoy en día.

Kelly Born is a program officer for the Madison Initiative at the William and Flora Hewlett Foundation. Traducción del inglés: Rocío L. Barrientos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *