La censura en manos de Google

Fotografías por Jaap Arriens/NurPhoto, vía Getty Images, Sergei KonkovTASS, vía Getty Images, y Justin Tallis/Agence France-Press — Getty Images
Fotografías por Jaap Arriens/NurPhoto, vía Getty Images, Sergei KonkovTASS, vía Getty Images, y Justin Tallis/Agence France-Press — Getty Images

Puede que el destino político de Theresa May, la primera ministra del Reino Unido, esté en declive, pero la presión que ejerce para que las empresas de internet vigilen lo que dicen sus usuarios sigue más vigente que nunca. A consecuencia de los recientes ataques en Londres, May calificó a plataformas como Google y Facebook de ser un caldo de cultivo para el terrorismo.

Exigió a esas compañías la creación de herramientas para identificar y eliminar el contenido extremista. Los líderes de los países del G7 sugirieron lo mismo hace poco. Alemania quiere imponer una multa de hasta 50 millones de euros si no eliminan contenido ilegal con rapidez. La Unión Europea redactó un proyecto de ley que haría responsable a YouTube y a otros sitios de videos de asegurarse de que los usuarios nunca compartan discursos violentos.

Los temores y las frustraciones que dan lugar a ese tipo de acciones son comprensibles. Sin embargo, hacer que las empresas privadas limiten la libertad de expresión de los usuarios en foros públicos importantes —que es en lo que se han convertido plataformas como Twitter y Facebook— es peligroso.

Las leyes propuestas podrían dañar la libertad de expresión y el acceso a la información de los periodistas, disidentes políticos y usuarios comunes. Los legisladores deberían hacer una evaluación honesta sobre las consecuencias, en lugar de suponer que Silicon Valley tiene la tecnología milagrosa que puede depurar el contenido extremista de internet sin suprimir también expresiones importantes permitidas legalmente.

En Europa, las plataformas operan sistemas de detección y eliminación de contenido que viola la ley. La mayoría también prohíbe otro tipo de material legítimo, pero indeseable, como la pornografía y el acoso, según lineamentos de la comunidad de aplicación voluntaria. En ocasiones, las plataformas eliminan poco. Con frecuencia eliminan demasiado, según investigaciones, y acallan el discurso contestatario en lugar de arriesgarse a asumir la responsabilidad.

Los acusadores se aprovechan de eso para apuntar contra expresiones que no les gustan, como se dice que lo ha hecho el gobierno ecuatoriano ante críticas políticas; la Iglesia de la Cienciología por disputas religiosas, o investigadores científicos desacreditados por estudios que invalidan sus hallazgos o demuestran plagio.

Las leyes propuestas por Alemania aumentan los incentivos para eliminar contenido debido a la cautela: cualquier plataforma que no borre contenido ilícito a más tardar 24 horas después de recibir una notificación sobre su existencia se arriesga a una multa por la cuantiosa suma de 50 millones de euros.

Los políticos europeos presumen esas leyes propuestas como frenos para el poder de las grandes empresas de internet. No obstante, en realidad son justo lo contrario. Esas leyes les confieren una función a las empresas privadas, que antes estaba en manos de los tribunales y los legisladores nacionales: decidir qué información pueden ver y compartir los usuarios. Esta es una pérdida significativa de soberanía y control democrático.

Quitarle al Estado esa responsabilidad y ponerla en manos de actores privados también elimina las protecciones legales clave de los usuarios de internet. Las leyes en materia de derechos humanos no rigen a los propietarios de plataformas privadas como lo hacen la policía o los tribunales. Lo más probable es que los usuarios no tengan salida si las empresas aplican mano dura o son descuidadas al eliminar contenidos. Termina siendo posible para los gobiernos que dejen el control sobre la libre expresión en manos de las empresas privadas para ejercer la censura a través de representantes.

Las propuestas para leyes que hacen que las plataformas vayan más allá de una política de detección y eliminación para en cambio controlar de manera proactiva lo que expresen los usuarios serían todavía peores que las medidas draconianas de eliminación de contenidos en Alemania.

Cada minuto se suben a YouTube unas 300 horas de video, por lo que resulta humanamente imposible revisarlas por completo. Las cortes, entre las que se encuentran el Tribunal de Justicia de la Unión Europea y el Tribunal Europeo de Derechos Humanos, han reconocido que las expresiones de los usuarios y los derechos de privacidad se verán afectados si las plataformas vetan cada palabra que se publica.

Además, los estudios sugieren que los usuarios de internet censuran lo que dicen cuando piensan que están bajo vigilancia. Los investigadores descubrieron que los periodistas tienen miedo de escribir sobre terrorismo, los usuarios de Wikipedia están renuentes a buscar información sobre Al Qaeda y los usuarios de Google evitan hacer búsquedas de temas delicados a raíz de las revelaciones de Edward Snowden.

Algunos políticos afirman que la solución es generar filtros: software que identifique y suprima contenido ilegal de manera automática. Sin embargo, ningún técnico responsable cree que los filtros puedan ayudar a evaluar qué discurso es legal. Los abogados y los jueces calificados batallan para tomar una decisión como esa. Lo que los filtros del mundo real pueden hacer, en el mejor de los casos, es encontrar réplicas de textos, imágenes o videos específicos, pero solo después de que el juicio humano determinó que son ilegales. Los filtros que pueden encontrar imágenes sobre abuso sexual infantil funcionan relativamente bien porque esas imágenes son ilegales en todos los casos.

No obstante, no sucede lo mismo con el material violento o extremista. Casi toda imagen o video de ese tipo es legal en cierto contexto. Los filtros no pueden identificar la diferencia entre las imágenes que se utilizan para fines de reclutamiento y las mismas imágenes de uso periodístico, defensoría política o esfuerzos en materia de derechos humanos.

Cuando los filtros fallen en hacer dichas distinciones, eliminarán información y debates sobre temas de vital importancia pública. Las empresas reacias a correr riesgos que incurran en la eliminación excesiva de ese tipo de discurso silenciarían en forma desproporcionada a los hablantes árabes, así como el material religioso sobre el islam.

Como abogada con una amplia experiencia en el manejo de las eliminaciones de contenido de las búsquedas cibernéticas de Google, creo que hay formas responsables de eliminar contenido ilegal de las plataformas. Un buen inicio es que los tribunales, y no máquinas ni empleados corporativos que operan bajo la amenaza de enormes multas, decidan qué viola la ley. Los acusados deberían tener oportunidades de defender lo que dijeron y el público debería poder enterarse del momento en que el contenido desaparezca de internet.

Si los políticos piensan que erosionar el derecho a expresarse en línea nos dará mayor seguridad, deberían explicarnos por qué. Pese a toda la retórica, no sabemos bien si obstaculizar las expresiones en la web evite la violencia en el mundo real. La poca investigación con la que contamos sugiere que enviar material violento o sobre discursos de odio a los rincones oscuros de la red podría empeorar las cosas.

Las exigencias indignadas para lograr una “responsabilidad de las plataformas” son una respuesta desproporcionada al terrorismo y evitan que la atención pública se enfoque en los deberes de los gobiernos. Sin embargo, no queremos un internet donde las plataformas privadas vigilen cada palabra por orden del Estado. Dicho poder sobre el discurso público resultaría orwelliano en las manos de cualquier gobierno, ya se trate de Theresa May, Donald Trump o Vladimir Putin.

Daphne Keller es directora de Responsabilidad Intermediaria del Centro de Internet y Sociedad de la Facultad de Derecho de Stanford y anteriormente fue asesora general adjunta de Google.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *