Hace 10 años | Por jmmulet a starvingneuron.com
Publicado hace 10 años por jmmulet a starvingneuron.com

Gracias a un tuit de@Weitergen acabo de leer sobre el artículo que acaban de aceptarle al grupo de Björn Brems un artículo sobre el fraude del factor de impacto de las revistas científicas, y en su blog, comenta parte de los resultados de su trabajo, que no por ser de sobra conocidos resultan menos interesantes. Y esto no va sólo para los que estamos en este negocio de la ciencia, sino para los que leen o escriben de Ciencia, para que no se vuelvan locos al oir la palabra Nature o Science pensando que lo que se publica allí es oro…o casi.

Comentarios

crob

...Science, ni en Nature y que lo que contienen esas revistas en ocasiones no vale mucho más que el Cuore o el Hola!

Ein!!! Se ha quedado a gusto el autor...

Anda pues a publicar al hola lol

Comparar a Nature con el Hola no parece algo rigurosos, que es precisamente de lo que se queja el autor. El cometido de Nature y Science es buscar cosas que impacten a la ciencia, que puedan promover un cambio de paradigma. Aún a riesgo de tener que retractarse.

Está claro que las revistas generalistas cómo Science o Nature, publican nuevos descubrimientos, generación de hipótesis. Que a menudo no son confirmaciones rigurosas, pero es que es es su cometido. Un sitio donde puedes publicar el descubrimiento de un nuevo planeta, el impacto de los gases invernadero, el genoma humano o la nueva función de una planta. Si quieres rigor, tienes PNAS, y otras especializadas (incluídas las de Nature: neurosicence, inmunology, etc.) que buscan eso, rigor metodológico.

ailian

#3 Iba a poner más o menos lo mismo.

Soy el primero en decir que porque un artículo esté en una "revista de impacto" no lo hace infalible como al Papa. Ni porque un tipo publique en revistas idem sea más fiable que otro que no lo haga. No olvidemos que al fin y al cabo estas revistas son un negocio, por lo que los criterios van a ser siempre más empresarariales que científicos al publicar. Igual que muchos estudios, que son enfocados a la venta de un producto no a demostrar tal o cual tesis.

Ahora, decir que "lo que contienen esas revistas en ocasiones no vale mucho más que el Cuore o el Hola!", es pasarse tres pueblos.

Voto sensacionalista.

opcional

La cosa es que se publican cosas tipo: "El Sol sale por la mañana y la luna por la noche", "El agua moja" o "El 1 va antes que el 2".
¿Os habéis leído alguna vez una tesis doctoral? Hace poco me he estado leyendo las conculsiones de unas cuantas; 3 o 4 años estudiando, 500 o 600 páginas de tesis, para terminar diciendo un par de obviedades...

crob

El problema real, es este http://www.sciencemag.org/content/340/6134/787.full
No se incentiva a hacer investigaciones arriesgadas que puedan cambiar el paradigma. Y Precisamente las únicas revistas que lo hacen son las generalistas como Science y Nature. De alguna forma hay que compensar una carrera conservadora publicando gota a gota en tu campo, cono un buitre devorando un cadáver (que creo que es lo que dice #5 aprox). Hay que decir que muchos de un trabajo que no se ni si merecería una publicación acaban sacando 4 o 5.

Vichejo

Ni estoy a favor ni en contra del artículo, me ha dejado "to loco".

A ver, ¿no tener la presión de publicar en las revistas famosas hace que tus datos sean mas fidedignos? ¿No se supone que las revistas son muy duras a la hora de publicar un ensayo y tienen revisiones? No es este factor clave a la hora de interpretar libremente los datos? Si tu texto lo va a revisar mucha gente te aseguras de hacerlo lo mejor posible, vamos digo yo.
Me gustaría que alguien arrojara luz a esto.

v

#2
A priori estoy de acuerdo contigo, y no he visto los datos en los que se basa el artículo. De entrada parecer raro intentar explicar una correlación inversa entre índice de impacto y metrica_indeterminada("buena ciencia")

Eso sí. El artículo dice:



Es decir, menor índice (en media) y a mayores también menos presión (otro factor). Entiendo que por presión se refiere a conflictos de intereses. Pero de eso pregúntale a #0 que sabe más.


El problema que tengo con este artículo es que no me parece relevante. No le veo suficiente importancia como para indagar si lo que dice es cierto o no. El índice de impacto mide impacto del medio de publicación, no calidad de ciencia. Puestos a criticar, veo de mucho mayor interés criticar el sistema de evaluación científica que da tanta importancia al índice y a la evaluación de curriculums al peso, más que en la pre-concepción errónea derivada de las consecuencias de este tipo de evaluaciones.

En mi opinión, la revista la hacen sus revisores. Puede haber tendencias en todos los aspectos. Puede haber revistas de indices altos con revisores que pasan de todo, sobre todo si hay "un nombre" que suena en los firmantes. Artículos con "un nombre" muchas veces inflan el impacto. Y puede haber revistas de índices muy modestos donde los revisores meten mucha caña.

v

#2 #7
Bueno, se me olvidaba. En la misma linea:

Si lo de "calidad de ciencia" lo miden en base a cuantos artículos se retractan o falsean. Claro:
1) A mayor conflicto de interés peor
2) Si pasa el filtro de los revisores es que "hay un engaño mayor" que no se puede destapar sin repetir el experimento.
3) Puestos a engañar, mejor a lo grande no? Para que vas a pufar en un Q4? Quieres impacto mediático.

Recuerda que por el conflicto de interés + mala ciencia, no queremos buscar la verdad sino crear una ilusión de "opinión científica"; lo que no es que no es más que pseudociencia encubierta. La peor de todas las pseudociencias si me permitís.

jmmulet

Una de las críticas más interesantes que he leído al factor de impacto y a la forma de evaluar la calidad de un artículo científico.