Las redes sociales no se pueden regular solas

Los hechos son conocidos: después del asalto al edificio del Congreso en Washington, durante el que murieron cinco personas, Facebook, Instagram, Twitter y YouTube suspendieron las cuentas de Trump por el peligro que representaban sus mensajes violentos, incendiarios, falsos o engañosos. Twitter ha suspendido las cuentas vinculadas a QAnon, el movimiento de extrema derecha próximo a Trump. Google y Apple han prohibido la aplicación —y Amazon ha dejado de alojar la web— de Parler, la plataforma de extrema derecha frecuentada por sus partidarios. Pinterest, Reddit, Shopify, TikTok y Twitch han tomado medidas similares. Se ha decretado que Trump es “digitalmente tóxico” y se le ha “desplataformizado” (deplatforming). Y ha funcionado: la desinformación sobre el supuesto fraude electoral ha caído en un 73%. Pero la pregunta más repetida y acuciante es esta: ¿Han hecho bien estas empresas? Por desgracia, es una pregunta equivocada, porque reduce a una sola respuesta un problema que es doble: si hablamos de legalidad y protección del interés público, la respuesta es sí; pero si hablamos de legitimidad y soberanía digital, la respuesta es no. Lo bueno es que son posturas conciliables. Veamos cómo y por qué.

Las redes sociales no se pueden regular solasLos partidarios de la suspensión alegan que son empresas privadas que ofrecen unos servicios con arreglo a unas condiciones de uso establecidas por ellos y, por tanto, están en su derecho de suspender a cualquier usuario que no los respete. Subrayan que las plataformas han permitido que Trump escribiera esas cosas durante tanto tiempo solo porque es uno de esos casos excepcionales en los que, por motivos de interés público, se toleran mensajes que en cualquier otro caso significarían el cierre de la cuenta. Pero además sostienen que mensajes como los de Trump, que niegan la realidad (por ejemplo, el negacionismo ante la pandemia), difunden desinformaciones peligrosas, incitan a la violencia y son nocivos para el interés público, a largo plazo, hay que moderarlos y bloquearlos.

Los que están en contra de la suspensión dicen que no se trata solo de la coherencia con las condiciones de uso —porque entonces deberían haber bloqueado hace tiempo a Trump y habría que intervenir en muchos otros países (Sri Lanka, Myanmar, India, Etiopía)—, sino de intereses económicos, arbitrariedad y peligro de censura, un término cuyo uso ya está calificando la desplataformización de inaceptable. La suspensión se ha llevado a cabo cuando Trump ya había perdido y se estaba yendo, para dar una salida a los enfrentamientos pasados y para granjearse el favor del nuevo Gobierno de Biden. Demasiado tarde y demasiado poco para la sociedad, demasiado conveniente para las empresas, demasiado arriesgado para la democracia. El verdadero problema no es Trump, que ya ha abandonado el primer plano, sino que las decisiones de callar a una fuente se dejen a merced de la voluntad de las empresas. Las empresas no son neutrales, sino que promueven una ideología de dejar hacer y anticonservadora, que da más importancia a la libertad de expresión que a todos los demás derechos, desde la intimidad hasta la seguridad, porque es lo que corresponde a su estrategia de negocio. En el caso de Trump, es posible que la ideología californiana nos agrade, pero en otros casos podría erosionar el pluralismo y silenciar las voces disidentes. Por eso, los que quieren defender la libertad de expresión acaban, paradójicamente, en compañía de fuerzas de derecha y autocráticas, completamente opuestas a la decisión de bloquear las cuentas de Trump. La soberanía digital en manos de las empresas asusta tanto a quienes la temen porque socava la democracia como a quienes están en contra porque la consideran una amenaza contra su propio poder autoritario. La Sección 230 de la Ley de Decencia en las Comunicaciones estadounidense, que establece la inmunidad editorial de las plataformas digitales, cuenta con el apoyo tanto de los que quieren proteger la libertad de expresión contra la censura como de los que quieren asegurar que no se eliminen los contenidos violentos y extremistas; y es objeto de las críticas, por un lado de quienes, como Trump, desearían que las plataformas no pudieran eliminar nunca ningún contenido, y por otro, de quienes como Biden quieren que las plataformas asuman la responsabilidad de eliminar esos contenidos inaceptables.

¿Cuál es la solución? Desde el punto de vista de la legalidad y el interés público, las empresas han actuado como es debido al bloquear a Trump y Parler. Seguramente deberían haberlo hecho antes —por ejemplo en mayo, tras la muerte de George Floyd y los tuits irresponsables del presidente—, deberían hacerlo en muchos otros casos y, desde luego, no han demostrado ninguna valentía al actuar tan tarde. Ahora bien, y esto es crucial, al bloquear a Trump y Parler, estas empresas privadas han demostrado que desempeñan un papel fundamental al servicio del interés público, al decidir qué puede o no suceder en la infoesfera y, por consiguiente, en la vida de miles de millones de personas. La infoesfera no es un mero canal de comunicación, sino un espacio de relación compartido y común, un commons, por emplear una palabra inglesa de difícil traducción. Es el espacio en el que la humanidad pasa cada vez más tiempo y en el que se desarrollan directa o indirectamente cada vez más actividades, de la educación al trabajo, de la socialización al entretenimiento, del comercio a las finanzas, del ejercicio de la justicia al debate político, de la investigación al periodismo. Es el espacio que influye en todos los demás espacios, incluso en el físico, si pensamos en la defensa y la seguridad. Por eso no pertenece a nadie (como la luna), sino a todos. El que se preocupa por el hecho de que las empresas hayan silenciado a Trump y Parler tiene razón, porque la soberanía de este espacio no puede depender de empresas privadas, de estrategias de negocio, de autorregulaciones y fuerzas del mercado. Ha llegado el momento de tomarnos en serio la dimensión común de la infoesfera y regular su uso con procedimientos públicos, transparentes, democráticos, iguales para todos y justificados legalmente por todos los derechos humanos, para evitar arbitrariedades, abusos y discriminaciones. Recordemos que las empresas que han suspendido a Trump también forman parte del problema, porque son las que, para empezar, dieron el megáfono al demagogo, aunque luego se lo hayan quitado.

Las empresas han hecho bien desde la perspectiva de la autorregulación de los servicios ofrecidos y el interés público, pero no está tan bien que dispongan de ese poder, por motivos de responsabilidad (accountability, otra palabra inglesa crucial) y soberanía digital mal depositada. Esta vez hemos tenido suerte y las empresas en cuestión han tomado la decisión acertada, aunque haya sido tarde, pero cruzar los dedos no sirve como una estrategia política. Mañana podrían tomar una mala decisión, o no tomar ninguna cuando sea necesario a pesar de los perjuicios económicos. Hay que establecer unas reglas apropiadas para garantizar que estas empresas actúen en favor del interés común de la sociedad, no por mera buena voluntad y por conveniencia, sino por responsabilidad normativa y democrática. Quizá parezca poco realista, pero no hay más que leer la Ley de Servicios Digitales para comprender que la Unión Europea está llegando a las mismas conclusiones y construyendo el marco normativo que hará que una medida como la que se ha tomado contra Trump no solo sea necesaria y legal sino también legítima, porque no será arbitraria, sino dictada por el marco normativo adecuado (ver el artículo 20). El valor de la infoesfera no reside en su infraestructura física o informática, que suele ser de propiedad privada, sino en los contenidos provistos y compartidos con la comunidad de usuarios a la que pertenecen. Es esa comunidad, por tanto, la que debe defender todos los derechos humanos y salvaguardar la bondad de la infosfera como common contents, mediante unas reglas democráticas que impidan o limiten, de forma equitativa, gradual y sujeta a rectificaciones, informaciones ilegales, violentas, intolerantes o inequívocamente infundadas y, en caso necesario, bloquee sus fuentes, que la envenenan. El hecho de que a menudo exista incertidumbre al hablar de la calidad de la información no impide que con la misma frecuencia no haya duda alguna, y de ahí la necesidad de intervenir, como en el caso de los tuits innegablemente falsos e intolerantes de Trump. Y si esa solución parece preocupante porque se piensa que la política no debe controlar jamás la libertad de expresión, hay que recordar dos cosas: que la libertad de expresión también tiene sus propios límites, en la armonización con otros derechos fundamentales como el derecho a la seguridad contra la desinformación y la incitación a la violencia; y que la política no es igual en todas partes. La democracia —en la que los que controlan a los controladores son los propios controlados— es el único sistema en el que los límites a la libertad de expresión no son censura, sino tolerancia hacia una comunicación civilizada, que no haga daño a nadie y sea beneficiosa para todos, como en la Unión Europea.

Luciano Floridi es profesor de Filosofía y Ética de la Información y director del Digital Ethics Lab en la Universidad de Oxford. Traducción de María Luisa Rodríguez Tapia.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *