Tarot policial para la seguridad

La actividad predictiva está calando en las tareas policiales. Proliferan tecnologías de patrullaje predictivo que implican el análisis de información de la actividad delictiva en un territorio mediante algoritmos matemáticos que predicen dónde, cuándo y qué delitos futuros se van a cometer y, por tanto, permiten destinar más recursos policiales a esas zonas o, incluso, detener preventivamente.

No es ciencia ficción: el software PredPol existe y está siendo usado en Estados Unidos con esta finalidad. Lo preocupante es que estas tecnologías son de uso habitual en comunidades virtuales y comercio electrónico. Los algoritmos de las tiendas virtuales anticipan cómo van a ser las siguientes compras -deseos- del cliente y conducen a prepararle ofertas oportunas en su pantalla. Del mismo modo, otros negocios (Facebook y Google especialmente) rastrean la actividad de sus usuarios y elaboran perfiles que permiten saber más de ellos, anticiparse a sus deseos y, en algunos casos, hasta colaborar con los cuerpos policiales en busca de delincuentes que pertenezcan a esa comunidad de internet.

Todo esto es posible gracias a dos factores. El primero, la existencia de algoritmos matemáticos y tecnologías de carácter privado excluidas de todo control y considerados secreto industrial. El segundo, que los datos que filtran esos algoritmos los facilitan los propios usuarios, quizá inconsciente o ingenuamente, pero en todo caso de modo voluntario.

Este estado de cosas abre la puerta a un sinfín de problemas en el ámbito de la seguridad ciudadana y el del comercio electrónico. En el primer terreno, es obvio que es mejor prevenir que reprimir, y a partir de aquí es muy cómodo argumentar que el patrullaje predictivo no es más que eso, un instrumento precautorio. Veamos hasta qué punto esto no es cierto. El patrullaje predictivo se basa en el uso de algoritmos privados -excluidos de todo control público- para funciones de seguridad pública. El problema estriba en que estos algoritmos, aplicados a datos cuyo uso sus titulares no han autorizado, pueden servir para que un ciudadano con un perfil predelincuencial cribado por un guarismo que está fuera de todo control público o judicial pueda ser detenido por si acaso. Así, el patrullaje predictivo implica el uso de algoritmos privados en funciones públicas. Solo que con resultados no únicamente virtuales sino también físicos.

Además de la indeseable confusión entre lo público y lo privado, existen dos más: la confusión entre políticas públicas individualizables y no individualizables, y la confusión entre futuro y pasado. En cuanto a la primera, es obvio que las políticas de prevención general -por definición generales- no son individualizables porque se mueven en el terreno social o comunitario y no pueden ni pretenden alcanzar a un sujeto concreto. En otro ámbito muy distinto, las políticas represivas sí son individualizables en la medida que en el ámbito penal tienen como objeto el castigo de sujetos: no hay delincuente sin un delito concreto que se le atribuya en sentencia firme, de la misma forma que no hay delito sin delincuente aunque se desconozca su identidad hasta su detención y condena.

En el caso que nos ocupa, el patrullaje predictivo atribuye carácter represivo a tareas que por definición son preventivas: nadie puede ser detenido por si acaso, es preciso que se den unos hechos concretos que lo justifiquen. Hechos que por lo demás -y esta es la segunda confusión- son del pasado: tienen que haber ocurrido. No se puede detener a alguien sobre la hipótesis de que en el futuro cometerá ineluctablemente un delito, porque eso equivaldría a negar de base la libertad humana.

Si en el ámbito de la seguridad la magnitud del problema es muy relevante, no es menor el reto que se plantea en el del comercio electrónico, donde el uso de los algoritmos predictivos está mucho más implantado. Estas fórmulas matemáticas son privadas, están protegidas como secreto industrial y generan ingentes beneficios apropiables por sus dueños (Amazon, Facebook, Google…) en la medida en que se usan no solo para explotar datos de particulares en la red -incluso sin el conocimiento y la autorización de estos- sino para señalar a usuarios como sospechosos a partir de datos explotados sin autorización judicial y sin ningún tipo de control administrativo.

Sin algoritmos, probablemente estas compañías no existirían. El problema es quién controla su uso; cuál es el poder público, la autoridad, que vela para que nuestros datos no sean usados de modo inadecuado. Ninguna resulta eficiente en lo esencial. El uso incontrolado de algoritmos predictivos en el ámbito de la seguridad pública y en el comercio electrónico puede hacer saltar por los aires las garantías procesales democráticas, pero también va a suponer un nuevo negocio incontrolado en materia de seguridad basado en una especie de tarot policial.

Ramón J. Moles, director del Centre de Recerca en Governança del Risc (UAB).

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *