¿La tecnomedicina, falso remedio?

En una entrevista que le dio a principios de año al Wall Street Journal, David Feinberg (director de Google Health y fanático confeso de la astrología) expresó entusiasta: «Si coincide conmigo en que lo único que hacemos es organizar la información para facilitar el trabajo de los médicos, le diré, aunque suene paternalista, que jamás permitiré que el usuario elija no participar». Es decir, pronto los pacientes no podrán evitar que les manden horóscopos médicos personalizados, sobre la base de sus historias clínicas y de inferencias extraídas de un conjunto cada vez más voluminoso de registros de pacientes. Pero aun suponiendo que queramos vivir en un mundo semejante, hay que examinar con mucha atención lo que los defensores de la tecnomedicina realmente están vendiendo.

Estos últimos años, la mayoría de las grandes tecnológicas estadounidenses (junto con muchas startups, las grandes farmacéuticas y otras empresas) ingresaron al sector de la tecnomedicina. Mediante el uso de análisis de macrodatos, inteligencia artificial (IA) y otros métodos novedosos, prometen reducir costos para los presionados sistemas sanitarios, revolucionar la toma de decisiones médicas y salvarnos de nosotros mismos. ¿Qué puede salir mal?

Pues muchas cosas. En Weapons of Math Destruction, la científica de datos Cathy O’Neil presenta una multitud de formas inesperadas en que el uso de algoritmos y datos puede fallar. Aunque la aplicación transparente de algoritmos de retroalimentación de datos al béisbol superó las expectativas, el uso de modelos similares en el ámbito de las finanzas, los seguros, la justicia y la educación puede resultar sumamente discriminatorio y destructivo.

La atención médica no está a salvo. Los historiales médicos de las personas están expuestos a decisiones clínicas subjetivas, errores médicos y cambios en las prácticas; la calidad de los conjuntos de datos más grandes suele verse disminuida por lagunas en los registros, errores de medición y falta de estructura y de estandarización. Pero hoy se promociona la revolución del big data en el sector de la salud como si estas inquietantes limitaciones no existieran. Y lo peor es que muchas de las personas que toman decisiones médicas se están creyendo la publicidad.

Habrá quien diga que mientras las nuevas soluciones ofrezcan algunos beneficios, vale la pena aplicarlas. Pero es imposible saber a ciencia cierta si el análisis de datos y la IA suponen mejoras reales respecto del statu quo sin contar con estudios empíricos a gran escala y bien diseñados, algo que no sólo no existe, sino que no hay una infraestructura o un marco regulatorio para generarlo. Se están introduciendo aplicaciones de macrodatos en el contexto médico como si fueran inocuas o como si sus beneficios estuvieran más allá de toda duda.

Un ejemplo es Project Nightingale, un acuerdo privado para el uso compartido de datos entre Google Health y Ascension, una enorme organización médica estadounidense sin fines de lucro. Cuando el pasado noviembre el Wall Street Journalreveló el acuerdo secreto, se generó un escándalo por la cuestión de la privacidad y el uso de datos de los pacientes. Encima, apenas dos meses después Feinberg admitió abiertamente al mismo diario: «No sabíamos lo que estábamos haciendo».

Dada la falta de experiencia de las grandes tecnológicas en el área médica, confesiones como esta no deberían resultar sorprendentes, por más que nos digan lo contrario. Para colmo, en tiempos en que la privacidad individual es cada vez más un lujo que un derecho, algoritmos con creciente poder sobre nuestras vidas se están volviendo inaccesibles «cajas negras», blindadas contra todo escrutinio público o regulatorio para proteger los intereses corporativos. Y en el caso de la atención médica, los modelos algorítmicos de diagnóstico y decisión a veces entregan resultados que ni los médicos comprenden.

A pesar de las buenas intenciones con que muchos se han lanzado a incursionar en el área de la tecnomedicina, el modelo actual de la industria adolece de graves defectos éticos y de información. Nadie se opone a usar la tecnología para mejorar la atención médica, pero antes de apresurarse a suscribir acuerdos de asociación con empresas tecnológicas, los profesionales y directivos del área de la salud necesitan entender mejor el campo de la tecnomedicina.

Para empezar, es crucial recordar que el análisis de macrodatos se basa en métodos estadísticos y matemáticos, de modo que la interpretación de las conclusiones demanda conocimiento especializado. Que un algoritmo detecte una «causalidad» o alguna otra señal de asociación entre hechos puede ser información valiosa para seguir investigando hipótesis; pero a la hora de la toma real de decisiones, un modelo predictivo matemático no es más fiable que los datos con que se lo alimenta. Y como los supuestos fundamentales de esos modelos se basan en lo que ya se sabe, la visión que ofrecen es del pasado y del presente, no del futuro. Estas aplicaciones tienen amplio potencial para mejorar la atención médica y reducir costos, pero no se puede dar por sentado.

Otra área crítica es la IA, que depende de una arquitectura propia (esto es, las reglas y la lógica básica que determinan el funcionamiento del sistema) y de acceso a cantidades ingentes de datos potencialmente delicados. El objetivo es crear condiciones para que el sistema pueda «enseñarse» a sí mismo a entregar soluciones óptimas a los problemas presentados. Pero en esto hay que recordar que los creadores de la arquitectura (las personas que escriben las reglas y enuncian los problemas) tienen tantos sesgos como el que más, quieran o no. Además, lo mismo que al aplicar el análisis de datos, a los sistemas de IA se los alimenta con datos del sistema sanitario tal como se encuentra en la actualidad, lo que los hace propensos a replicar sus aciertos y errores.

A fin de cuentas, mejorar la atención médica por medio del big data y de la IA demandará sin duda un proceso de prueba y error mucho más largo que el que prevén los tecnooptimistas. Si se los conduce en forma transparente y abierta al público, los proyectos basados en macrodatos pueden enseñarnos a crear conjuntos de datos de alta calidad en forma prospectiva, lo que aumentará las probabilidades de éxito de las soluciones algorítmicas. Pero por eso mismo, los algoritmos deben estar a disposición, al menos, de las autoridades regulatorias y de las organizaciones que contraten el servicio (y acaso también de la gente).

Sobre todo, las organizaciones médicas y los gobiernos deben evitar el optimismo exagerado y pensar en forma crítica respecto de las implicaciones del uso de aplicaciones nuevas poco probadas en el sector de la salud. En vez de limitarse a entregar historias clínicas y otros datos de los pacientes, los hospitales y las autoridades deben trabajar codo a codo con los profesionales de la informática que diseñan las arquitecturas e implementan nuevos sistemas experimentales. Se necesita más gente que provea opiniones y cuestione los supuestos en que se basan los prototipos iniciales; y una vez creadas las tecnologías, hay que hacer experimentos controlados para evaluar su desempeño real.

Tras una promoción exagerada, se están lanzando al mercado soluciones médicas basadas en macrodatos sin un nivel suficiente de regulación, transparencia, estandarización, rendición de cuentas o prácticas de validación sólidas. Los pacientes merecen que los sistemas y profesionales médicos los protejan, en vez de usarlos como meras fuentes de datos para experimentos con motivaciones económicas.

Leeza Osipenko is Senior Lecturer in Practice in the Department of Health Policy at the London School of Economics and Political Science.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *