¿ESTÁ ROTA LA MÁQUINA DE HACER CIENCIA?
Cada
vez más voces denuncian que el sistema científico se ha convertido
en un monstruo que se retroalimenta y ofrece resultados inútiles o
irreproducibles. Aunque algunas críticas pecan de catastrofistas,
quizá sean un buen punto de partida para buscar nuevos enfoques.
Algo se está
moviendo desde hace algún tiempo en las entrañas de la ciencia y
las señales se hacen cada vez más evidentes. En los últimos días,
por ejemplo, cuatro ilustres premios
Nobel han
manifestado abiertamente su oposición
al sistema de publicación científica de
las revistas y el factor
de impacto.
“Es una gran pérdida de tiempo”, expresa Peter
Doherty en
un vídeo de la academia sueca. “Las instituciones no deberían
fiarse de las revistas y de tres o cuatro revisores”, insiste el
laureado Paul
Nurse.
“Si amas la ciencia, tienes que defenderla, y para eso hay que ser
crítico”, aseguraba el investigador Andrea
Saltelli en
una entrevista reciente en
el Observatorio Social de La Caixa.
“Pero mucha gente prefiere ocultar el problema, porque, según
dicen, si atacas a la ciencia pondrás en peligro su
financiación. ¿Por
qué debemos pagar una ciencia de mala calidad?”.
Las críticas de
los premios Nobel van en la línea de la declaración
de San Francisco de 2012,
en la que se ponía en cuestión el denominado Factor
de Impacto (FI),
el método que rige la evaluación de los trabajos científicos y por
tanto buena parte del sistema de investigación. Este indicador,
creado en 1955, se pensó inicialmente para discriminar las
publicaciones y trabajos más relevantes, pero se ha convertido en el
motor que mueve el trabajo de millones de científicos,
a quienes sus instituciones les valoran por el número de ‘papers’
que consiguen en esas publicaciones. El problema es que llegar a
salir en Nature o Science no significa necesariamente que tu trabajo
sea mejor; de hecho, cada
vez está menos clara esa relación entre impacto y calidad.
“Yo puedo publicar un artículo y no me importa equivocarme”,
asegura Saltelli. “Cuanto más elevado sea, más brillante seré;
así que lo que a mí me interesa es publicar
muchos artículos, aunque sean erróneos”.
El asunto es aún
más perverso cuando se conocen los detalles económicos del sistema.
Hace unos semanas The Guardian revelaba el
lucrativo negocio de tener a los científicos a tu servicio,
pagando por publicar y revisando el trabajo de otros gratis. “Los
científicos somos esclavos de
las grandes editoriales de revistas científicas”, escribió Francis
Villatoro para describir
la situación.
“Trabajamos gratis para ellas, solo por sobrevivir en
el ecosistema científico. Un negocio redondo con ingresos anuales
superiores a 22 mil millones de euros y un margen
de beneficios cercano al 40%,
muy superior al de Apple, Google o Amazon”. Las cifras son en sí
mismas monstruosas. Solo Elsevier publica unos 420.000 artículos,
escritos por unos 14 millones de científicos. Todo un
ejército pagado en buena parte con dinero público pero
que limita el acceso al conocimiento y deja los beneficios en manos
privadas.
Un giro hacia la
oscuridad
Más allá de la
explotación, la carga de profundidad de estas denuncias es que el
sistema está minando
la credibilidad y la calidad de la producción científica.
“Buena parte de la literatura científica, quizá la mitad, puede
que simplemente sea falsa”,
denunciaba Richard
Horton,
editor de la histórica revista The Lancet. “Aquejada de estudios
con muestras pequeñas, efectos diminutos, análisis inválidos y
flagrantes conflictos de interés, y unida a la obsesión por
perseguir modas y tendencias de dudosa relevancia, la ciencia
ha
dado un giro hacia la oscuridad”.
Uno de los primeros en dar la voz de alarma fue John
Ioannidis,
quien en 2005 escribió “Why
Most Published Research Findings Are False”
( Por
qué la mayor parte de los hallazgos publicados en investigación son
falsos)
y encontrar decenas de debilidades en las publicaciones biomédicas.
En 2015, en un nuevo trabajo denunció que sigue siendo imposible
reproducir la mayoría de los resultados que se dan por buenos en la
literatura científica.
Otro de los
grandes críticos del sistema es el investigador
estadounidense Daniel
Sarewitz,quien
afirma que “la ciencia
académica se ha convertido en una empresa onanista digna
de Swift o Kafka” y los
científicos están actuando “como grupos de poder no muy
diferentes de los agricultores o
los ejecutivos”. Esto último lo escribió en
Nature hace
una semana, donde argumentaba que la caída de la calidad de los
estudios y el estado de competición permanente y la burbuja
de resultados se
deben a una situación permitida de facto por los científicos bajo
una premisa: “ dadnos
a nosotros el dinero, dejadnos solos y resolveremos los problemas del
mundo”.
En un artículo mucho más extenso, publicado en
The New Atlantis,
Sarewitz atribuye el nacimiento de este “mito” al influyente y
poderoso ingeniero Vannevar
Bush quien
en 1945 - en su artículo "Science,
The Endless Frontier"
( Ciencia,
la frontera infinita)
- estableció la idea de que invirtiendo
en ciencia básica, y dejando a los científicos llevarse por su
propia curiosidad,
se resolverían todos los problemas de una sociedad próspera.
En opinión de
Sarewitz, aquella idea fundacional del sistema científico
estadounidense fue un error y el tiempo demostró, según él, que
fueron las investigaciones
dirigidas y controladas por el Departamento de Defensa las
que realmente prosperaron y dieron sus frutos frente al maremágnum
de ideas estancadas que sería el sistema de investigación de
universidades y centros de investigación. “ La
industria de publicación científica existe no para difundir
información valiosa, sino para permitir a un número creciente de
investigadores que publiquen más ‘papers’
y así poder avanzar profesionalmente”, sostiene. Un sistema en el
que el editor, el revisor y el autor compiten por los mismos fondos y
están motivados por los mismos incentivos creando una especie de
círculo vicioso con “demasiadas
bocas que alimentar”,
insiste, y en el que, como asegura la neurocientífica Susan
Fitzpatrick se
crea “la ilusión de que estamos ganando conocimiento cuando no lo
estamos haciendo”.
Esta
investigadora se ha hecho conocida por denunciar que el modelo de
investigación biomédica con ratones es una vía muerta en lo que se
refiere a enfermedades relacionadas con el cerebro. Las diferencias
entre el modelo animal y el humano son
tan grandes que, a su juicio, las conclusiones no son extrapolables.
“ Al
final lo que estudiamos es el modelo, y no la enfermedad humana”,
denunciaba en
New Scientist.
“Es un error esencial, necesitamos una nueva aproximación”. Para
Sarewitz este es uno de los muchos ejemplos que demuestran que la
ciencia, de alguna manera, ha perdido el norte y
se centra más en una persecución
interminable de los “cómos” que en encontrar las soluciones.
“Las preguntas que te haces suelen ser muy diferentes si tu meta es
resolver un problema concreto más que avanzar solo el su
entendimiento”, escribe. Por eso defiende una ciencia tutelada a la
que se le exijan resultados, frente al sistema que se autoorganiza
para, según él, no llegar casi nunca a nada.
Hace unos años,
la Coalición
Nacional contra el Cáncer de Mama (NBCC,
por sus siglas en inglés) lanzó una iniciativa para poner una fecha
tope para curar este tipo de cáncer. La “Breast
Cancer Deadline 2020” es
un llamamiento a los políticos e investigadores para fijar el 1 de
enero de 2020 como la fecha en que acabar con la enfermedad. En 2015
la revista Nature dedicó
un editorial al
tema en el que explicaba que las
enfermedades no entienden de fechas límite y
denunciaba que la iniciativa ponía “en riesgo la confianza del
público en la ciencia haciendo
promesas que no se pueden cumplir”.
Para los promotores del NBCC, la respuesta era una muestra de
las “excusas
que ponen los científicos para no rendir cuentas” y
se quejaban de que después de millones de dólares invertidos el
hecho de acabar con el cáncer no podía ser cuestión de esperar a
que alguien hiciera un descubrimiento inesperado.
“El
problema es que la ciencia es jodidamente difícil”
El problema, y
lo que resulta difícil de comprender para parte de la sociedad, es
que en buena parte sí es cuestión de esperar a que aparezca de
repente algo nuevo. O, en palabras de la periodista Christie
Aschwanden, “el
problema es que la ciencia es jodidamente difícil” y
“no
es una varita mágica”
que resuelva todos los problemas humanos con un solo toque. El debate
entre ciencia básica y aplicada es muy viejo. En el extremo más
“aplicacionista” están quienes como Sarewitz ponen la prioridad
en los resultados, pero la opinión mayoritaria es que los
grandes hallazgos surgen en las tareas más insospechadas del
conocimiento,
lo que justifica la inversión de recursos en tan amplia variedad de
campos. Cuando el español Francis
Mojica investigaba
hace unas décadas las bacterias de las salinas de Santa Pola muchos
habrían pensado que su investigación era una pérdida de tiempo.
Hoy el mecanismo que descubrió y que bautizó como CRISPR es
la mejor y más prometedora técnica de edición genética que
tenemos. Lo mismo cuando el japonés Osamu
Shimomura inspeccionaba
las medusas que encontraba en la playa en los años 60; hoy tiene un
premio Nobel y le debemos el descubrimiento de la proteína
verde fluorescente,
un gen que se utiliza como marcador y ha servido para investigar
decenas de enfermedades y diseñar medicamentos. Suena a la fábula
del doctor Fleming y la penicilina,
pero a grandes rasgos es así como se accede muchas veces a nuevos
conocimientos.
Más allá del cuadrante de Pasteur
Tratando de
poner orden en este eterno debate, el profesor de política de la
Universidad de Princeton Donald
Stokes ha
creado una nueva taxonomía de las ramas de la ciencia en función de
si estas buscan el conocimiento puro o aplicado. Y para entenderlo
usa algunos ejemplos. En el extremo de la pura comprensión estaría
el descubrimiento del modelo
atómico de Bohr y
en el más práctico la invención de la lámpara
incandescente de Thomas Edison.
Entre ambos territorios se inventó un término medio y deseable al
que llamó el “cuadrante
de Pasteur”,
pues los hallazgos del investigador francés salvaron miles de vidas
a partir del estudio de algo aparentemente abstracto y teórico como
la microbiología. Quizá la ciencia que debamos promocionar se mueva
justo en ese camino, entre
la abstracción y lo práctico,
plantea.
Pero este tipo
de razonamientos tiene una falla profunda, puesto que gracias
a los avances en apariencia “puramente teóricos” como
los de Bohr disponemos del conocimiento que permitió diseñar nuevas
herramientas y
por el que hoy disfrutamos, por ejemplo, de escáneres o resonancias
magnéticas, que desde luego son casi tan determinantes en nuestra
salud como lo han sido los descubrimientos de Pasteur. Es decir, que
no todo se ajusta a las casillitas conceptuales que nos queremos
inventar ni la realidad de la
investigación es tan negra o blanca como pretenden algunos análisis.
Entre el reduccionismo y el catastrofismo, como sucede entre la
ciencia aplicada y la teórica, seguro que hay mucho espacio que
recorrer.
Aun así, no
creo que haya que desechar visiones críticas como las de Sarewitz,
por exageradas que nos parezcan (llega a decir que es la tecnología
lo que mantiene a la ciencia honesta), puesto que algunos
aspectos de la realidad le dan la razón y
hay motivos para la crítica. Hay pruebas de que la ciencia se ha
empantanado en algunos ámbitos y se retroalimenta a sí misma con el
sistema de publicaciones. Llama la atención, por ejemplo, la
cantidad ingente de trabajos para certificar que está teniendo lugar
el calentamiento
global y
la proporción visiblemente menor de estudios que propongan
soluciones y esfuerzos. Quizá,
por pura supervivencia, habría que revisar las prioridades. Se
dirá que en este asunto la gestión política primordial, y este es
otro de los factores que está desvirtuando paso a paso el sistema de
investigación científica (véase en España la no aplicación de la
Ley de la Ciencia pese a haber sido aprobada en sede parlamentaria).
También hay una
visible mercantilización de la ciencia, como advierte el
historiador Philip
Mirowski en
su libro “ Science-Mart.
Privatizing American Science",
en el que denuncia que la
ciencia se ha convertido en una especie de supermercado.
El episodio más reciente, y sangrante, es la
resolución sobre las patentes del sistema CRISPR,
que privatiza
el esfuerzo colectivo de
miles de investigadores pagados muchas veces con fondos públicos y
podría crear un cuello de botella en el desarrollo de terapias en
humanos. O la reciente revelación de que la
industria azucarera pagó durante años a los científicos para
señalar a la grasa como culpable.
Uno de los
terrenos donde la ciencia está perdiendo credibilidad a ojos vista
es el de las recomendaciones
sobre salud.
Las industrias, como hemos
denunciado aquí,
invierten grandes sumas de dinero para pervertir el sistema a su
favor. Pero el problema también es institucional.
Las clasificaciones
enrevesadas y confusas de la OMS sobre lo que es cancerígeno y
lo que no deberían ser seriamente revisadas, pues un criterio de
funcionamiento interno sirve para fomentar el alarmismo entre
sectores claramente desinformados que gritan a los cuatro vientos que
la wifi provoca cáncer o
que es igual de dañino comerse
un filete de vaca que
fumarse un paquete de Winston.
Cuando la
opinión pública descubre de un día para otro que el
demonizado café no era tan malo,
o que las grasas saturadas no merecían tan mala fama, el
estacazo que recibe la ciencia resuena en la cabeza de millones de
científicos que
intentan hacer su trabajo de la manera más honesta posible. Los
esfuerzos para convencer a la sociedad de que la ciencia es
escrupulosa y trabaja para el bien colectivo se van por el desagüe
por haber generado toneladas de evidencias
mal fundamentadas sobre
un asunto tan escurridizo como la nutrición.
Por suerte, los
científicos no están mirando para otro lado. El
debate sobre hacia donde hay que dirigir los esfuerzos está
abierto dentro
de la propia comunidad. Las grandes iniciativas europea y
estadounidense para investigar el cerebro humano son uno de los
mejores ejemplos de estas disputas. En Europa, el proyecto Human
Brain Project (HBP), que intenta reproducir la complejidad del
cerebro humano en silicio, ha recibido duras críticas por
comportamientos de nepotismo
y estrechez de miras.
En EE.UU. el proyecto BRAIN, auspiciado por la administración Obama,
se enfrenta a acusaciones
de reduccionismo y
de “haber
olvidado que el cerebro humano tiene propietarios”.
Fascinados por
sus maquinitas y sus herramientas de análisis de datos (el
famoso Big
Data),
algunos científicos parecen haber olvidado el verdadero objetivo de
la investigación, que es ayudar y curar a las personas. Al sesgo de
confirmación (dar prioridad a los resultados que favorece nuestra
hipótesis de partida) parece habérsele sumado también el del
martillo: si
tienes un martillo todo te parecen clavos
o, como dice Sarewitz, el sesgo de aquel que pierde
las llaves de casa en la oscuridad y se pone a buscarlas bajo las
farolas porque
es el único sitio donde hay luz.
Hay señales de
que la ciencia se
está autocorrigiendo (la
creación de webs que recopilan los trabajos
retractados,
el auge de sistemas
alternativos al
de las insaciables editoras de revistas científicas, por poner dos
ejemplos), pero hay mucho que hacer para restablecer
la confianza de la sociedad en la ciencia y
que no se convierta en otra víctima más de la era de las
posverdades. Se han invertido millones de euros en el estudio de
enfermedades como el cáncer o el alzhéimer y la
sociedad quiere respuestas,
harta ya de la fórmula “no veremos los avances hasta dentro de
diez años”. Si me preguntan a mí, diría que la máquina de la
ciencia sigue funcionando y avanzando con paso firme, pero quizá
necesite una puesta a punto.
Frente a las críticas más duras la respuesta no puede ser solo que
la ciencia es maravillosa: hay que ponerse a revisar el motor de la
nave y el rumbo del timón, no vaya a ser que nos deje tirados o
nos estrelle algún día contra las rocas.
POR ANTONIO
MARTÍNEZ RON
26/07/2017
Otras lecturas recomendadas
Publicado
en:
No hay comentarios:
Publicar un comentario