Publica o muere: el lema que promueve la mala ciencia

La evaluación de la calidad de los científicos, los laboratorios, las universidades, sus trabajos, e incluso de la ciencia de los países sólo a partir del número e impacto de sus publicaciones, ha creado un ambiente de alta competencia dentro de la comunidad científica. Dicha competencia por publicar está provocando un aumento de la falsificación de datos, alteración de los experimentos, plagios y otras conductas deshonestas que perjudican el buen hacer de la ciencia, al mismo tiempo que coarta la creatividad y originalidad de las investigaciones.  


 

En un mundo utópico uno esperaría que la comunidad científica trabajase unida por una causa común: la mejora de nuestro conocimiento del mundo. En ese mundo ideal, la curiosidad y el altruismo serían las fuerzas principales que motivarían toda investigación para mejorar el conjunto entero de la sociedad.

Esta idea ha estado presente durante mucho tiempo en el discurso científico, y posiblemente ha sido uno de los atractivos para que muchos estudiantes e investigadores jóvenes se interesasen en querer formar parte de tan generosa obra. Ahora bien, como es sabido, las utopias no son más que eso, un «no-lugar» como su etimología dicta (οὐ («no») y τόπος («lugar»)), una sociedad idealizada y por tanto inexistente. Y el de la comunidad científica no escapa a la realidad del resto de la sociedad, al final, transcurrido un tiempo, cualquiera que se adentre un poco en los entresijos del mundo académico y de la investigación se da cuenta que la ciencia difiere poco de cualquier otra ocupación, y las preocupaciones y motivaciones de sus miembros acaban siendo las de cualquier otra profesión: el primer requisito es tener un salario. Sin salario no existe la carrera investigadora.

Dado que los salarios salen en la mayoría de los casos de administraciones públicas y los recursos económicos son limitados, al final lo que se obtiene es un número ingente de estudiantes e investigadores en sus diferentes posiciones académicas, compitiendo por becas, ayudas o financiación para sus proyectos. Y la competencia no es poca. Es más, cada vez va a más. Tanto ha aumentado la competencia en el ámbito investigador que se sospecha que el punto actual no es ni de lejos el más saludable para el propio sistema científico.

 ¿Por qué? ¿Por qué se teme que el sistema actual no sea el mejor para el propio avance de la ciencia?

Todo organismo vivo evoluciona, cambia a lo largo del tiempo para poder seguir adelante. Las bacterias, los hongos, las plantas, los animales evolucionan, igual que lo hacen las enfermedades como el cáncer o las manifestaciones culturales como el lenguaje o las artes. Por ello no es sorprendente esperar que la ciencia también evolucione. Los métodos y la actitud de los científicos han ido cambiando a lo largo de la historia, siempre vinculados inevitablemente a las circunstancias sociales del entorno como no podría ser de otro modo. Después de todo, no tanto la ciencia, pero sí la comunidad científica, es un subproducto de la sociedad que habita.

El capitalismo ha acabado imponiéndose en las últimas décadas, y la competencia como principal motor de cualquier actividad humana se ha aceptado en todos los campos. Incluido el de la ciencia. El mensaje de que la competencia es el mejor método selectivo ha calado en todos los ámbitos.

Ya hace bastantes años que entre la comunidad científica se introdujo un mantra que desde entonces no ha dejado de repetirse con el fin de fijar y reforzar este pensamiento circular. El mantra en cuestión no es otro que el de: «publica o muere» (publish or perish). Son ahora legión, los nuevos estudiantes e investigadores jóvenes, que actúan motivados desde sus primeras investigaciones por este nuevo lema. Todos ellos inician sus carreras conociendo la enorme competencia que les aguarda y la imperiosa necesidad de conseguir dinero para sus fines. ¿Y cómo se evalúa la capacidad investigadora? Aquí volvemos al lema: publica o muere.

Toda persona que esté un poco metida en el mundo científico sabe que las publicaciones científicas son el principal método de evaluación. La actividad científica se juzga básicamente en función del número de trabajaos publicados y el nivel de impacto de las revistas en las que se publiquen los trabajos. La obtención de ayudas, subvenciones y proyectos dependerá principalmente de esto. La consecuencia de todo ello es la de una enorme presión por publicar. Publicar, publicar, publicar, es el motto que está en la mente de cualquier investigador que aspire a tener opciones a poder desarrollar una carrera científica.

«Publica o muere», es la presión selectiva que dirige las nuevas carreras científicas 

La competencia hasta cierto punto no debería ser negativa, debería motivar el hacer mejor estudios, al menos esa debía ser la idea subyacente que existía cuando se establecieron los sistemas actuales de evaluación. El problema es que una competencia excesiva no invita a la colaboración, ni al altruismo entre científicos, sino más bien a lo contrario, a un aislamiento, ya no sólo de los diferentes grupos de investigación que trabajan en un mismo campo, sino entre los integrantes de un mismo laboratorio y que en un futuro deberán independizarse y competir entonces entre ellos por unos recursos limitados. De un actitud así tarde o temprano la comunidad científica se verá perjudicada, su supuesto bien común y búsqueda del conocimiento está entredicho y desplazado a un segundo plano, donde el que prima es el de los recursos, los cuales a su vez pasas por las publicaciones. El problema consecuente es un incremento de publicaciones deshonestas, falsas e incluso de poco valor científico que a largo plazo no hagan más que entorpecer la propia adquisición del conocimiento.

triangulo_fraude
Fig. 1. La triada de factores que conduce al fraude científico: la presión de la competencia por publicar, la racionalización excesiva que pone en sospecha las observaciones obtenidas de los experimentos y la accesibilidad a manipular los datos para “maquillar” los resultados con el fin de que se ajusten a lo esperado y el trabajo sea más fácil de publicar.

Los problemas ya han ido apareciendo a lo largo de los últimos años, y no son pocos los académicos que alertan de la deriva negativa que la ciencia está cogiendo. Algunos de ellos hablan ya incluso de una inevitable «evolución de una mala ciencia». En el sistema actual la colaboración no se premia, más bien se castiga entre futuros competidores, e incluso los líderes y directores de equipos de investigación se ven tentados a abusar de sus subordinados y usurpar parte de sus trabajos adjudicándose unos créditos que no merecen pero necesitan para seguir obteniendo proyectos y subvenciones.

En un ambiente cultural como el descrito no es de extrañar que tanto principiantes como veteranos escojan la vía que les ofrezca una menor resistencia y les proporcione un mayor beneficio. El mundo de la investigación se ha convertido en una industria más, una que proporciona grandes beneficios económicos, el problema radica que si bien hasta el momento el mundo académico siempre había sido una cosa de equipos y colaboraciones, dicha percepción se está desmoronando. La mayoría de investigación se desarrolla en equipo pero luego las evaluaciones son siempre individuales. Es fácil que el egoísmo crezca bajo estas circunstancias y uno piense que cuanto peor hagan el trabajo sus compañeros más opciones tendrá uno.

Alguien que quiera sacar un buen rendimiento del sistema actual es fácil que caiga en la tentación de buscar un rendimiento rápido y mediático de su trabajo que le garantice unos recursos económicos en el futuro. ¿Cómo lo hará? 

Es fácil apreciar como hoy en día se publica cada vez con mayor urgencia, los trabajos y las investigaciones se diseñan a corto plazo, lo cual lleva a desarrollar proyectos pequeños y cada vez con un poder estadístico menor. No sólo eso, sino que la mayoría de los laboratorios no quieren asumir riesgos. Se buscan líneas de trabajo que garanticen resultados positivos, pues los resultados positivos se publican con mucha más facilidad y mayor impacto que los resultados negativos. A la gente le gusta leer sobre avances, tener la falsa impresión de que toda investigación lleva a nuevos y positivos conocimientos, ni las editoriales académicas ni los medios de comunicación parecen interesados en hacerse eco por los resultados negativos. Los experimentos fallidos, al no tener salida editorial, quedan en la mayoría de los casos escondidos, silenciados en los cajones de los investigadores sin verse nunca publicados. Un experimento no publicado es lo mismo que un experimento no realizado. Si los resultados negativos no salen a la luz, los únicos afectados son otros científicos y consecuentemente toda la sociedad. No saber que una técnica se ha intentado, por no haber dado resultados positivos, llevará a que otros equipos intenten lo mismo, vuelvan a fallar en el intento y vuelvan a dar carpetazo a los resultados. Este círculo vicioso no hace más que ralentizar la ciencia en sí. Se consume tiempo y recursos en conocimiento que nunca se comparte por no aportar nada al curriculum individual.

Con el sistema de evaluación establecido no se incentiva el actuar correctamente o hacer buena ciencia, sino que simplemente se persigue el «ser productivo». Lo dicho, la ciencia es una industria más, una factoría de producir artículos científicos, donde cuenta más el ver tu nombre publicado en una revista que todo el trabajo que pueda existir detrás de una buena investigación. Si los resultados no son los esperados y no se publica, todo el trabajo habrá sido en vano. Tampoco sale a cuenta invertir en grandes proyectos a largo plazo por muy bien que estén hechos porque la consecuencia de dicha estrategia es contar con pocas publicaciones a lo largo de la carrera. Y sin publicaciones no hay dinero. Sin dinero no hay carrera. Volvemos a la casilla de salida.

Como organismo en continuo cambio, la comunidad científica evoluciona, evoluciona en su manera de hacer las cosas, en parte por la selección natural que se ha autoimpuesto: el evaluarse sólo a través de publicaciones. Las métricas que evalúan el impacto o importancia de las investigaciones son la actual obsesión de cualquier investigador. Sabe que su presente y futuro depende de ello. El sistema se sostiene ahora  sobre una base de incentivos perversos que traen como consecuencia un aumento de acciones poco éticas y con ello la reducción del progreso científico. Valorar la cantidad por encima de la calidad no está aportando nada bueno al desarrollo del mundo académico.

Calificar los méritos de los científicos sólo en base a la cantidad de sus publicaciones y el impacto de las revistas, va en detrimento de la investigación. La competencia mal entendida va contra la creatividad y la originalidad, dos de los pilares básicos del desarrollo genuino de la ciencia. ¿Quién se atreve hoy a abrir nuevas vías de investigación? ¿Quién a plantear ideas contracorriente o rebatir lo establecido? Todo aquel que quiera garantizarse publicaciones en revistas de prestigio se verá tentado a seguir la «moda», a investigar en líneas fuertes y bien definidas que garanticen resultados, y que sean citados por los compañeros de profesión que trabajan en el mismo tema. Trabajar en temas de «moda» hace sin duda que el publicar sea más sencillo. La tiranía del índice de impacto de las revistas ha pasado de ser una métrica para comparar revistas, a evaluar la calidad de los científicos, de los laboratorios e incluso de la ciencia de los países. Se premia la excelencia científica y se desmotiva a la gran masa de investigadores que sustentan el avance de la ciencia.

fraude
Fig. 2. Cada nuevo caso de fraude científico o malas prácticas que sale a la luz cuestiona la honestidad y el bien hacer de toda la comunidad científica.

No hay más que echar la vista atrás, no mucho, sólo unos cuantos años, para ver como no paran de surgir nuevas revistas científicas. Muchas son nuevas, buscan ofrecer espacio a los científicos que se ven empujados a publicar para mejorar sus currículum. Es un negocio pujante que ha llevado al nacimiento de lo que se conocen en el ámbito académico como «revistas depredadoras». Son revistas que aceptan la publicación de cualquier material científico con tal de que se pague por ser publicado. Es decir, si pagas publicas, independientemente de la calidad del trabajo y sin comprobar obviamente que los métodos, resultados y conclusiones tengan un buen sustento científico. 

Otras son revistas «menores» de revistas ya grandes y consagradas que ante la avalancha de artículos también se han visto ante la necesidad de aumentar su oferta editorial, generando revistas paralelas o especializadas. Ya casi nadie pone en duda que el sistema está inflado, que el aumento masivo de artículos y revistas en los últimos años es una enorme burbuja producto de una supuesta «recompensa» por tener un gran número de publicaciones. 

Los estándares de aceptación de trabajos por muchas de las nuevas editoriales son bajos, se validan trabajos llevados a cabo con métodos pobres, sus revisiones por pares son dudosas y se dispara de manera alarmante la posibilidad de que los resultados obtenidos sean incorrectos, cuando no directamente falseados para hacerlos más atractivos y más fácilmente publicables.

A los problemas detectados por la presión generada de publicar rápido y mucho, hay que añadirle el de buscar ser citado. Se ha visto que ha aumentado el número de autocitas en los trabajos; también la exigencia de revisores de que en los trabajos revisados los autores citen trabajos de los revisores para ver aceptados sus artículos. En un mundo utópico, como se decía al principio, la gente actuaría incluso en una situación de hipercompetencia con honestidad, pero se ha hecho evidente que la ciencia no puede sostenerse como antaño en la honestidad de su comunidad. 

La tasa de fraudes y conductas deshonestas en las publicaciones está aumentando

Muchas revistas han tenido que retractarse de artículos publicados, incluso las más prestigiosas. Cada vez más, ha habido un incremento del 10% de retracciones en los últimos 25 años. Lo que debería hacer saltar las alarmas es que sólo el 21,3% de las retracciones se debían a errores presuntamente inconscientes de los investigadores, el 67,4% se debe a conductas deshonestas relacionadas con el fraude (43,4%), la duplicidad de publicaciones (12,2%) o el plagio (9,8%). Retirar de las revistas dichos trabajos no es una solución que siempre funcione. Algunos trabajos publicados en revistas prestigiosas han sido citados más veces tras su retirada que antes. Una vez publicado un trabajo el daño está hecho, pensemos sino en el estudio de Andrew Wakefield publicado en Lancet en el que sugería un vínculo directo entre la vacunación de los niños y el autismo. Aunque en 2010 se retractaron del estudio, los movimientos anti vacunas siguen esgrimiendo los resultados del trabajo.

Lo más sorprendente es que análisis llevados a cabo entre revistas han demostrado que la calidad de los trabajos publicados en las revistas de gran impacto o prestigio no son mejores que los publicados en otras revistas. Incluso las grandes revistas son las que tienen un mayor número de retracciones poniendo en evidencia la presión y la poca ética de algunos investigadores por publicar en estas revistas tan necesarias para sobrevivir en el ecosistema académico.

Son muchas las posibilidades de actuar de una manera poco ética en ciencia, aquí se resumen las principales:

(1) Apropiándose de las ideas de los otros, bien sea de compañeros de laboratorio como de trabajos que se revisan de desconocidos en revistas o en la solicitud de proyectos o subvenciones.

(2) Plagiando directamente el trabajo total o parcial de otros, robando así la autoría intelectual de otros al obviar su mención o sin citar apropiadamente las ideas, resultados o conclusiones de otros, asumiéndolas como propias.

(3) Autoplagio que consiste en reciclar los datos y trabajos de uno mismo para hinchar su cantidad de trabajos publicados.

(4) Una mala gestión de la autoría de los trabajos, en los que excluye a gente que ha participado en la elaboración del trabajo publicado, o bien se permite firmar como autor a gente que no ha participado en el proyecto para ayudarle a inflar su currículum.

(5) No cumplir con la legislación o las normas éticas de las administraciones o la revistas científicas, enmascarando el mal uso de productos químicos, drogas, equipos, o el cuidado de los animales de laboratorio o de humanos.

(6) Violación de las prácticas aceptadas de investigación que garantizan su calidad. Manipular los experimentos para obtener los resultados esperados que sean más fácil de publicar.

(7) Falsificación directa de los datos, más allá de manipular los métodos y los experimentos, se fabrican directamente datos que cuadren con los resultados que se quieren obtener.

(8) No ser capaz de aportar datos, informes o cualquier tipo de información que los revisores o las revistas exijan para comprobar que todo el proceso de la investigación se ha llevado de acuerdo con los niveles de exigencia requeridos. 

(9) No aportar la información necesaria para que los resultados puedan ser replicados en el futuro por otros investigadores que comprueben y confirmen la solidez del trabajo.

5229
Fig. 3. El problema de la falsedad de datos, la manipulación de experimentos y análisis estadísticos, parece ser mucho más serio de lo que parece. Los casos de retracciones anuales y fraudes destapados podrían no ser más que la punta de un iceberg.

Recientemente se han publicado trabajos que mediante modelos matemáticos buscan intuir la evolución del mundo académico. Tampoco dichos modelos son muy alentadores y han puesto en evidencia, una vez más, las sospechas desglosadas hasta aquí: la presión selectiva está haciendo que la comunidad científica pierda honradez y confianza en sí misma. Los modelos parecen confirmar que se está generando una espiral que favorece la cantidad sobre la calidad. La calidad de la ciencia con ello sólo puede perder. Se cuestiona su fiabilidad.

Mencionar el fraude en los ambientes científicos es como hablar de la pederastia entre curas: es tabú

Combatir el fraude y la deshonestidad de los métodos empleados en las investigaciones para obtener resultados atractivos para las grandes revista no es tarea fácil. En los ambientes académicos la falsificación o alteración de los resultados estadísticos es un tema tabú. A nadie le gusta hablar de ello, es un tema sensible. El historiador Daniel Kneves comentó en su día que cuando Al Gore se interesó por el fraude en los trabajos de biomedicina es como si hubiese mencionado la pederastia en un cónclave de curas. 

Exponer un fraude científico no es sencillo, normalmente implica enfrentarse directamente con el o los autores de los trabajos, investigar y hablar a sus colaboradores, acceder a sus datos, a los métodos experimentales que utilizaron, etc… es una tarea arriesgada que puede afectar más negativamente a la persona que intenta destapar un caso de fraude que el propio defraudador. También existe el coste que implica a terceros al acusar o destapar a alguien. Muchas veces desprestigiar a alguien afecta indirectamente a muchos de sus estudiantes o colaboradores que no tenían porque estar directamente implicados ni tener constancia de las técnicas fraudulentas de la persona en cuestión. Y aún yendo más allá, las propias universidad o instituciones niegan de entrada la posibilidad de fraude de su personal por la pérdida de prestigio que genera. No hay interés general por destapar las acciones deshonestas aunque ellas dañen a todo el conjunto de la ciencia. Nadie arriesga a poner entredicho el prestigio de su laboratorio, su universidad e incluso la ciencia de su país. 

Se ha visto como la nueva generación de investigadores que han triunfado en este nuevo ecosistema de competencia por publicar, enseñar a competir a sus alumnos y estudiantes formando ha investigadores que triunfan con el mismo modelo de competir, aunque ello conlleve sacrificar poder estadístico que reste valor a las conclusiones de los estudios, o arriesgar en ideas innovadoras. Una sola generación bajo esta presión selectiva ha sido suficiente para observar cambios y tendencias en la calidad de las publicaciones. ¿Cómo evolucionara la ciencia a partir de ahora? Habrás que ver las tendencias futuras. Como en cualquier otro sistema la evolución viene determinada por las diferentes presiones selectivas que son las que filtran y moldean el futuro. Un cambio en las políticas, donde las instituciones decidan en el futuro invertir más dinero para rebajar la competencia por los recursos sin duda podría modificar la tendencia actual. Igual que modificar los sistemas de evaluación basados únicamente en métricas obtenidas de las publicaciones. Así como un cambio en el mundo editorial académico que modificase el ranking de las revistas y la presión por publicar en una élite concreta de revistas. Habrá que ver si la comunidad científica quiere alterar la tendencia actual o si las nuevas élites científicas se sienten cómodos con el sistema establecido. A la vista de los resultados lo mejor sería rebajar la urgencia por obtener resultados y publicar que sufre cualquiera que pretenda desarrollar una carrera científica. Esto sólo está generando investigadores desmotivados y un aumento en la falsedad de datos. Por el bien de todos, y sobre todo de la propia ciencia, la comunidad académica debería tomar medidas para recobrar su honestidad y confianza que se ha visto sustancialmente degradada en los últimos años. 

 


 

Lecturas suplementarias:

  • Barnett, A.G., Zardo, P., Graves, N. (2018) Randomly auditing research labs could be an affordable way to improve research quality: a simulation study. PLoSOne 13:e0195613
  • Berlin, S. (2018) If the papers don’t come to the journal… EMBOreports 19:e45911
  • Bosques-Padilla, F.J., Gómez-Almaguer, D. (2016) A new fraudulenta in scientific publishing: supplanting or hacking the scientific review process. Medicina Universitaria 18:1–2
  • Brembs, B. (2018) Prestigious science journals struggle to reach even average reliability. Frontiers in Human Neuroscience 12:37
  • Buranyi, S. (2017) The hi-tech war on science fraud. The Guardian 1 Feb 2017
  • Buranyi, S. (2017) Is the staggeringly profitable business of scientific publishing bad for science? The Guardian 27 Jun 2017
  • Buranyi, S., Devlin, H. (2017) Dozens of recent clinical trials may contain wrong or falsified data, claims study. The Guardian 5 Jun 2017
  • Devlin, H. (2016) Cut-throat academia leads to “natural selection of bad science”, claims study. The Guardian 21 Sep 2016
  • Edwars, M.A., Siddhartha, R. (2017) Academic research in the 21st Century: maintaining scientific integrity in a climate of perverse incentives and hypercompetition. Environmental Engineering Science 34, Jan 2017
  • Fanelli, D., Ionnanidis, J.P.A., Goodman, S. (2018) Improving the integrity of publishing science: an expanded taxonomy of retractions and corrections. European Journal of Clinical Investigation 48:e12898
  • Fang, F.C., Steen, R.G., Casadevall, A. (2012) Misconduct accounts for the majority of retracted scientific publications. PNAS 109:17028–17033
  • Grimes, D.R., Bauch, C.T., Ioannidis, J.P.A. (2018) Modelling science trustworthiness under publish or perish pressure. Royal Society Open Science 10.1098/rsos.171511
  • Kluger, J. (2017) Dozens of Scientific Journals offered her a job. But she didn’t exist. Time 22 March 2017
  • Mable, M. (2003) The growth and number of journals. Serials 16:191–197
  • Liu, M., Hu, X., Wang, Y., Shi, D. (2018) Survive or perish: investigating the life cycle of academic journals from 1950 to 2013 using survival analysis methods. Journal of Informetrics 12:344–364
  • Sabnis, D. (2018) Research fraud: how journals should address it. Enago Academy 21 May 2018
  • Sabnis, D. (2018) 10 Types of scientific misconduct. Enago Academy 28 May 2018
  • Smaldino, P.E., McElreath, R. (2016) The natural selection of bad science. Royal Society of Open Science 3:160384
  • Stokstad, E. (2014) The 1% of scientific publishing. Science 11 Jul 2014
  • Wang, Y., Hu, R., Liu, M. (2017) The geotemporal demographics of academic journals from 1950 to 2013 according to Ulrich’s database. Journal of Informetrics 11:655–671
  • Warren, C. (2018) “Professors eat their own young”: how competition can stifle good science. The Guardian 29 Jan 2018. 

         

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Gravatar
Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s