¿Por qué parece que estamos presenciando un número cada vez mayor de sorpresas tecnológicas negativas? De hecho, el desastre nuclear de este año en Fukushima (Japón) y el vertido de BP del año pasado en el golfo de México han ocupado su lugar junto a problemas más antiguos, como el agotamiento de la capa de ozono. Creemos que lo esencial es la forma como se desarrollan y se comunican las recomendaciones científicas.
Cada vez se utiliza más la ciencia para apoyar decisiones que son esencialmente de política pública, en particular relativas a tecnologías nuevas y complejas, como los alimentos genéticamente modificados, las nuevas substancias químicas y las infraestructuras energéticas contrapuestas. Las decisiones sobre opciones y la forma de aplicarlas son difíciles, en vista de las incertidumbres sobre sus peligros, beneficios y posibles efectos secundarios. La dudas no sólo afectan a las probabilidades, sino que, además, se refieren también a los propios resultados y lo que podrían significar. Con frecuencia están en juego poderosos intereses económicos, con lo que las presiones aumentan aún más.
Con demasiada frecuencia, se considera el dictamen de los expertos más útil para las autoridades cuando se presenta como una sola interpretación “definitiva”. A consecuencia de ello, lo habitual es que los expertos minimicen la incertidumbre y, en la medida en que la reconocen, suelen reducir los factores desconocidos a un “riesgo” calibrable.
Sin embargo, el riesgo es sólo un aspecto –relativamente abordable– de la incertidumbre. Más allá de las ideas del riesgo con las que estamos familiarizados, se encuentran aprietos más profundos debidos a la ambigüedad y la ignorancia.
Esas ideas no son nuevas, pero con frecuencia se desatienden en la adopción de decisiones. Se puede hacerlas remontar al libro del economista Frank Knight Risk, Uncertainty and Profit (“Riesgo, incertidumbre y beneficio”), de 1921. Knight reconoció que se debía hacer una importante distinción entre los resultados cuyas probabilidades están bien caracterizadas (los “riesgos”) y aquellos en los que no es posible hacerlo (las “incertidumbres”).
Los ejemplos de riesgo surgen cuando las personas o los grupos confían en sus conocimientos o experiencias acumulados. Así es en el caso de muchos productos de consumo establecidos, la seguridad del transporte habitual o la incidencia de enfermedades conocidas.
Sin embargo, cuando afrontamos la incertidumbre, confiamos en nuestro conocimiento de los posibles resultados, pero no de su probabilidad, ya sea por dificultades de predicción o por falta de información. Y, sin embargo, los asesores científicos afrontan fuertes tentaciones y presiones para tratar todas las incertidumbres como riesgos.
Lamentablemente, hay otros dos aspectos de la incertidumbre aún más problemáticos. Surgen en los casos en que no sólo no estamos seguros sobre el grado de probabilidad de resultados diferentes, sino tampoco sobre cuáles resultados son pertinentes. ¿Que opciones se deben tener en cuenta? ¿Qué podrían significar éstas, dados diferentes intereses y opiniones? ¿Cómo debemos clasificar los costos y los beneficios y asignarles prioridades?
Ejemplos de semejante ambigüedad surgen en sectores tan diversos como la energía nuclear, los alimentos genéticamente modificados y la guerra del Iraq. Cada uno de ellos están sucediendo claramente (por lo que la “probabilidad” no es el problema), pero, ¿qué significan? ¿Mejoran o empeoran el mundo? ¿En qué sentidos? ¿Cuáles son las opciones substitutivas, en caso de que las haya?
Expertos, estudios y organizaciones diferentes adoptan perspectivas opuestas, pero con frecuencia igualmente legítimas y científicamente fundamentadas, sobre esas cuestiones. Intentar imponer una determinada interpretación definitiva es profundamente engañoso y, por tanto, contraproducente –y potencialmente peligroso– en materia de formulación de políticas. De hecho, no puede haber garantía en condiciones de ambigüedad de que incluso el mejor análisis científico aporte una respuesta normativa definitiva. En consecuencia, las “decisiones basadas enteramente en la ciencia” son no sólo difíciles de lograr, sino también contradictorias en los términos.
El aspecto final y más inabordable del conocimiento incompleto es la ignorancia. A este respecto, nuestro conocimiento tanto de las probabilidades como de las posibilidades mismas es problemático.
Naturalmente, nadie puede prever de forma fiable lo impredecible, pero podemos aprender de los errores del pasado. Un ejemplo es el tardío reconocimiento de que los hidrocarburos halogenados, aparentemente inertes y benignos, estaban afectando a la capa de ozono. Otro es la lentitud para admitir la posibilidad de nuevos mecanismos de transmisión de las encefalopatías espongiformes (la “enfermedad de las vacas locas”).
En sus primeras fases, esas causas de daños no fueron reconocidas oficialmente, ni siquiera como posibilidades. En cambio, fueron “advertencias tempranas” ofrecidas por voces discordantes. Las recomendaciones en materia de políticas que pasan por alto semejantes advertencias se exponen al exceso de confianza y al error.
La cuestión decisiva es la de cómo pasar del enfoque estrictamente centrado en el riesgo a la comprensión más amplia y profunda de los conocimientos incompletos y, por tanto, a unas mejores recomendaciones científicas en materia de formulación de políticas.
Un marco para las recomendaciones de los expertos con miras a la formulación de políticas en el que hay mucho en juego –y, por tanto, está particularmente politizado– es el de la fijación de los tipos de interés financieros. En el Reino Unido, el Comité de Política Monetaria del Banco de Inglaterra califica su proceso de recomendación por parte de expertos de “diálogo bidireccional”, en el que se concede prioridad a la rendición pública de cuentas. Los funcionarios tienen mucho cuidado al informar al Comité no sólo de los resultados del análisis formal por parte de las entidades patrocinadoras, sino también de las complejas condiciones y perspectivas del mundo real. En los informes se detallan recomendaciones contrapuestas por parte de los miembros particulares y se explican las razones de las diferencias. ¿Por qué no es normal algo así en las recomendaciones científicas?
Al afrontar incertidumbres inconmensurables, resulta mucho más común que un comité científico pase horas negociando una sola interpretación de los riesgos, aun en los casos en que tenga ante sí una diversidad de análisis y juicios opuestos. pero igualmente bien fundamentados, con frecuencia procedentes de sectores y disciplinas diferentes (pero igualmente científicos). Como sabemos por la obra de Thomas Kuhn y otros filósofos de la ciencia, los paradigmas dominantes no siempre resultan ser los más acertados. El conocimiento está evolucionando constantemente y prospera gracias al escepticismo y la diversidad.
La experiencia relativa al establecimiento de normas relativas a substancias tóxicas y los procesos normativos referentes a la inocuidad de las diversas tecnologías relativas a la modificación genética y las energías, muestra que con frecuencia sería más exacto y útil aceptar interpretaciones de expertos divergentes y, en cambio, centrarse en la documentación de las razones subyacentes a la discrepancia. Se podría seguir adoptando decisiones normativas y posiblemente con mayor eficiencia. Además, la relación de las decisiones con los datos científicos disponibles sería más clara y las dimensiones inherentemente políticas resultarían más transparentes.
En lugar de intentar obtener juicios globales definitivos sobre los riesgos de opciones determinadas, es más sensato examinar los supuestos en que se basan semejantes recomendaciones, dado que estas últimas son fundamentales para determinar las condiciones en las que las recomendaciones son pertinentes. Por encima de todo, es necesario adoptar constantemente una actitud de humildad respecto de las “decisiones basadas en la ciencia”.
Andy Stirling, director de Investigación en SPRU (Investigaciones de políticas sobre ciencia y tecnología) en la Universidad de Sussex, y Alister Scott, asesor en materia de dirección y profesor visitante en SPRU. Traducido del inglés por Carlos Manzano.