Privacidad y datos en un mundo de algoritmos: riesgos y límites

Portada del cómic 'El detective Fails en el gran robo de datos. ¡Ahora es personal!', publicado por el BID.Diego Flisfisch Egaña
Portada del cómic ‘El detective Fails en el gran robo de datos. ¡Ahora es personal!’, publicado por el BID.Diego Flisfisch Egaña

Un escáner facial en el aeropuerto no reconoció la diferencia entre Osama bin Laden y Winona Ryder. Huellas digitales alteradas ayudan a una mujer a burlar los controles fronterizos. Una empresa es multada por compartir datos de millones de usuarios sin consentimiento. Un algoritmo discrimina contratación de mujeres. Seguramente estos titulares recuerden a alguna noticia similar leída antes.

Por un lado, sabemos que los datos son la dínamo de la economía digital. Compartirlos entre diferentes proveedores —públicos y privados— de forma interoperable promete revolucionar servicios que estén hechos a la medida de las necesidades de cada persona y minimizar el margen de error de forma costo-eficiente. En servicios sociales, por ejemplo, ha permitido hacer más eficiente la asignación de prestaciones a los beneficiarios que verdaderamente lo necesitan, así como que la persona tenga mejor control sobre el cuidado de su salud o su ahorro para el retiro.

Sin embargo, es frecuente que las personas no tengan idea alguna de cómo su perfil, geolocalización, rostro o historial de visitas en línea terminan en manos de proveedores que “conocen sus intereses”. Y es que, aunque aceptar los términos de privacidad y de compartir datos sea una precondición normalizada para descargar una aplicación o visitar un sitio, estos suelen explicarse en un lenguaje complejo de entender entre audiencias no técnicas.

En el campo de la biometría, poder identificar a una persona sin su autorización, a través de su tono de voz, la forma en la que escribe o incluso su forma de caminar, supone riesgos considerables sobre derechos fundamentales como la privacidad y potencial discriminación algorítmica. “Cuando tu cuerpo es tu identidad, este puede también delatarte o revelar cosas que preferirías no compartir”, señala la eticista Gemma Galdon Clavel.

Adicionalmente, hay un riesgo de seguridad, si los datos sensibles son vulnerados sin candados de encriptación. Así lo muestra un reciente caso que expuso los datos de huellas digitales, reconocimiento facial, nombres de usuarios y contraseñas de más de un millón de personas, dentro de una base de datos pública en Reino Unido. De acuerdo con el medio de comunicación, la exposición responde a la falta de protección y encriptación de la base de datos por la empresa que la resguardaba.

Por eso, el Banco Interamericano de Desarrollo (BID) dedicó una nueva serie de publicaciones para analizar el avance del marco regulatorio en ética de datos, advertir cuáles son los riesgos de usar tecnologías como la inteligencia artificial (IA) con base en datos personales y proponer medidas para mitigarlos. Su edición más reciente permite entender a través de un cómic, cuáles son los límites de la biometría y acciones de contrapeso.

Para Galdon Clavell, la aplicación de tecnologías en datos biométricos es una opción que debe usarse con cautela. Una alternativa, sugiere, es mejorar la interoperabilidad y calidad de los datos usados, para poder verificar información entre instituciones sin tener que acceder a datos personales. Alternativamente, recomienda utilizar la verificación de identidad con cadenas de bloques (blockchain) o bien combinar identificadores externos, a través de contraseñas.

Este tipo de pasos también ayuda a generar mayor confianza ciudadana en la era digital, y esto aplica tanto a servicios públicos como privados. De acuerdo con Bloomberg, el 83% de los ejecutivos están de acuerdo que la confianza es la piedra angular de la economía digital. A medida que los usuarios y prestadores de servicios toman consciencia de los riesgos y soluciones para un uso responsable de datos, aumentan los incentivos para crear principios y cumplir reglas.

En América Latina y el Caribe, algunas organizaciones y países, como México, ya cuentan con lineamientos sobre la privacidad y el uso de inteligencia artificial. Pero podemos y debemos hacer mucho más.

Respecto al marco regulatorio, la referencia global es el Reglamento de Protección de Datos de la Unión Europea (GDPR, por sus siglas en inglés). Esta norma establece que antes de procesar cualquier dato personal, un negocio debe preguntar explícitamente el permiso de la persona, en un lenguaje claro y con el consentimiento para un propósito específico. Esta premisa ha abierto, en cierto sentido, una caja de Pandora tanto para reguladores como para empresas, que últimamente contribuirá a un sistema de manejo de datos fortalecido y con epicentro en la persona.

En tan solo un año de implementación del GDPR, se han registrado 90.000 notificaciones de violaciones de datos y 145.000 quejas. Además, 100 organizaciones han pagado sanciones por incumplimiento y Francia multó a Google con 50 millones de euros, por recolectar datos sin el adecuado nivel de trasparencia sobre cómo se usarían esos datos.

Con el objetivo de acelerar la adopción responsable de la IA con impacto social, por parte de los gobiernos de América Latina y el Caribe, el Sector Social del BID está preparando una iniciativa regional, conocida como fAIr LAC. También elaboró un marco conceptual y metodológico para apoyar a los países a facilitar la interoperabilidad de datos en sus plataformas públicas de forma ética, que les permita ser más efectivos en la toma de decisiones y elevar la calidad de los servicios sociales prestados.

Compartir datos se ha convertido en una práctica esencial de la economía digital. Las personas dejamos un halo crónico de datos digitales, aun sin darnos cuenta. Pero hay riesgos que requieren la atención de tomadores de decisión en cualquier organización que esté involucrada con manejo y análisis de datos compartidos, sobre todo al tratarse de datos privados o de identificación biométrica. Mientras que el futuro apunta a un uso de información más regulado, deja la tarea de generar una cultura de responsabilidad que sea inherente a su gestión.

Cristina Pombo

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *