Hace 6 años | Por aiounsoufa a elconfidencial.com
Publicado hace 6 años por aiounsoufa a elconfidencial.com

La universidad española ha endurecido tanto los criterios para alcanzar el puesto de catedrático que 23 de los científicos y científicas que ganaron el premio Nobel en los últimos diez años no pasarían el corte. Los nuevos criterios fueron introducidos el mes pasado por la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA) pero no generaron ruido —más allá de la comunidad académica—

Comentarios

mcguin

#16 ¿Y quien es nosotros según tu? ¿El dueño privado de la universidad? ¿Una empresa? ¿Un millonario "filantropo"? Los políticos al menos representan (o deberían) a los ciudadanos.

m

#43 Las universidades deberían estar gestionadas desde dentro de las universidas con comites independientes o cualquier mededia que se deba tomar para no centralizar el poder.

Comento sin saber mucho, pero si hay universidades que funcionan, no hay motivo para pensar que las nueatras no pueden funcionar.

x

#54 eso pasa ahora en los departamentos, y por eso ser un pelota es lo mejor para ser profesor universitario.

y

#43 Los políticos representan a la mayoría en el mejor de los casos. ¿porqué tenemos que acordar de forma mayoritaria cualquier cosa? Vamos a democratizarlo todo, votemos cuantas veces tienes permitido respirar por segundo ¿no?

Nosotros es cualquiera. Porque alguien sea dueño de una universidad, empresario o filántropo no va a tener menos derechos legalmente que tú. ¿que no te gusta su empresa? Móntate la tuya o no le compres productos y servicios. Vive y deja vivir, no obligues a terceros sin su consentimiento. hakuna matata

e

#43 yo nunca he elegido a un político, y mucho menos a un rector o a un decano.de modo que ya me contaréis a quien representan,

D

#16 De estalinista nada, muy nuestro.

y

#58 estalinista en el sentido de altamente regulado y con poca influencia de los consumidores (mercado), que son los estudiantes.

fooBar

#60 El "mercado" de la universidad es la sociedad, no solo los estudiantes.

t

#60 Para mí eso es neoliberal.

y

#65 pues tienes un cacao de cojones

D

#16 ¿Estalinista?.... esto es el chiringuito español de toda la vida,.... y muy español.

SalsaDeTomate

#1 Pues como los profesores de educación no universitaria a la hora de conseguir sexenios.

T

#5 No sé dónde entiendes eso. Lo que está pasando es que la gente que se está acreditando a catedrático (no son catedráticos, se acreditan para poder optar a serlo) tienen más currículum que esos 23 "premios Nobel". Y a pesar de que han puesto unas condiciones muy estrictas, sigue habiendo mucha gente que las cumple.
Por no hablar de los que son ya catedráticos, que hay muchísimos que las cumplen más que de sobra (igual que hay muchos que no, ya que en su momento los requerimientos eran otros).

s

#8 Tienen más CV? Claro, según el baremo de la ANECA. Pregunta en cualquier otro país, a ver cuál de los dos te dicen que tiene mejor CV. Y aunque haya muchos que lo cumplan, es un indicativo de calidad?

T

#24 Es un indicativo de que lo que dice #5 no tiene sentido.

PD: cuando digo CV me refiero al CV ANECA porque es de lo que se está hablando aquí. Si en términos generales tienen mejor o peor currículum habría que verlo caso a caso y sin un baremo creo que no nos podríamos de acuerdo.

D

#24 No discuto lo que dices, supongo que hay mejores formas de evaluar la calidad científica de un investigador, pero el problema es que si no son métodos objetivos al final no valen nada.

De hecho creo que en general estamos cayendo en la trampa de que la calidad científica se mide por sus resultados.

s

#44 Mi sugerencia: medir tus 5 mejores publicaciones de los últimos 5 años. Es lo más ecuánime. Si sólo tienes una tiene que ser buenísima, y no compites contra CVs de 100 publicaciones. Y si tienes muchas, no te será complicado encontrar 5 que sean buenas, si tu trabajo lo es. Hay un balance entre número de publicaciones y su calidad. El sistema actual sólo va al peso.

zhensydow

#8 no digo que no sean buenos, ni inteligentes ni den clases magistrales de calidad. Solo que para ganar un premio Nobel de ciencias hace falta dedicar mucho tiempo a investigar cosas novedosas. Y la Universidad española esta pensada para quitar todo el tiempo posible a los investigadores para que hagan otras cosas.

Sin entrar a hablar de los concursos pre-asignados a gente del lugar.

T

#27 En ese caso tengo que darte la razón, lo entendí por otro lado.

En cuanto a los concursos pre-asignados a la gente del lugar. Ese es un problema que se da y al que no es tan fácil darle solución porque es un mal endémico en muchos ámbitos. De todas formas hay que tener en cuenta que no por ser un candidato "del lugar" tiene por fuerza que ser malo.

T

#34 Primero te pido disculpas por el negativo, ha sido dedazo con el móvil. De hecho tu comentario me parece interesante.

Hay mucha tela que cortar y voy a ir por partes ya que tengo un punto de vista algo diferente al tuyo.
Efectivamente cuando dije que tienen un mejor currículum me refería a mejor currículum con el baremo de ANECA, porque es ese criterio el que se está discutiendo aquí. Entrar en si se da más valor o menos a tal cosa o a otra es un campo controvertido porque cada uno tendrá su propio criterio "que se debería seguir". Planteas si es justo dar igual valor a la generación de conocimiento que a su aplicación, la vieja disyuntiva de "ciencia básica vs ciencia aplicada", para mi la disyuntiva es diferente y debería ser entre "buena y mala ciencia". Yo creo que un artículo que genera conocimiento debe valer lo mismo que una aplicación de dicho conocimiento, porque está claro que para aplicar el conocimiento primero tienes que generarlo.

Me llama la atención tu intento de menospreciar la publicación de un artículo (independientemente de que sea Q1 o Q4), debemos ser de áreas muy distintas porque a mi me cuenta mucho más de un mes en publicar uno. Aunque la revista tenga revisión rápida, eso no implica que te lo vayan a aceptar. A veces, después de una primera revisión, pueden pedirte más trabajo para sustentar tu hipótesis (experimentos extra que piden los referee), etc. Pero lo que obvias, por alguna razón, es el tiempo que lleva generar los datos para tener un artículo publicable que en mi caso, no suele bajar de 2 años. Además decir que lo puedes tener pagando a una revista... ignoro si hay revistas Q1 que aceptan publicar por el mero hecho de pagar los derechos de publicación, pero lo que suele suceder en el área que yo conozco es que el artículo primero pasa un filtro del editor (filtro difícil de pasar), y luego se somete a una revisión por pares. Si pasas el filtro y la revisión es positiva el artículo está aceptado, y en algunos casos hay que pagar, bien derechos de publicación, o bien pagas para hacerlo de acceso abierto a todo el mundo. Pero desde luego no pagas y publicas, al menos en revistas serias.

Te aseguro que en mi área no se puede hacer esa división de cuatro o cinco artículos que tú has mencionado de una sola aportación. Hay dos opciones, publicas datos originales, y más te vale que sean muy relevantes si quieres un Q1, o bien publicar una revisión, que también pasa un proceso de revisión por pares y que tienes que haber demostrado una amplia experiencia en la materia para que te lo acepten en algún sitio decente. Como ya te he dicho, imagino que somos de áreas muy distintas.

Estoy muy de acuerdo en que no es lo mismo número que calidad, de ahí que se haga distinción entre artículos Q1, Q2, etc.

Cambiar las cifras de artículos que has de conseguir desde luego que hace que cumplir el critero ANECA sea más difícil, si no fuera así nadie estaría quejándose y simplemente estaríamos pensando en cómo conseguir el dinero suficiente para poder pagar a esas revistas Q1 que en un mes te dan tu publicación previo pago.

Para mi el problema de base es cambiar los criterios de una forma tan radical. Le has dicho a la gente que hay que jugar con una reglas, han estado ajustándose a esas reglas (no por gusto, sino por necesidad), y de repente le dices que eso ya no vale, ahora es esto otro. Tampoco creo que el baremo deba ser inamovible, pero en caso de cambiarlo hay que hacerlo de tal manera que no afecte tanto a la gente que ha estado durante años intentado cumplir los criterios anteriores.

YHBT

#71 Hay una gran diferencia entre el todo y una parte.

Me vas a permitir que haga una pequeña introducción para aquellos que no conocen el ámbito de las publicaciones científicas.

De entrada para que una publicación científicia sea considerada debe ser publicada en una revista indexada. Que esté indexada significa que forma parte de un catálogo reconocido que las da una valoración llamada «factor de impacto». Existen dos índices principales: JCR y SCI.

El factor de impacto mide la relevancia de un medio en función del número de citas que se han realizado a artículos publicados en ese medio en un periodo de tiempo que suele limitarse a los últimos cinco años. Este valor, como es lógico, se actualiza cada año, y se hace aplicado al año anterior. Es decir, que si publicas algo en un medio en diciembre de 2017 y el índice se actualiza en junio de 2018, el factor de impacto que se contabiliza para tu artículo no es el que tenía el medio en diciembre de 2017, sino el que se calcule en el nuevo índice de junio de 2018 (aplicable desde junio de 2017, de ahí la actualización anual).

La distribución en cuartiles (Q4 a Q1), es simplemente dividir ese índice en cuatro, de manera que los que forman parte del cuartil superior (con mayor factor de impacto) se dice que son de primer cuartil, o Q1, y los que forman parte del cuartil inferior (con menor factor de impacto) se dice que son de cuarto cuartil o Q4. Por eso tiene mayor relevancia lograr una publicación en un medio de primer cuartil.

Por otra parte está la revisión. La revisión se realiza por «voluntarios» que no cobran por ella, y que la realizan en su «tiempo libre». Hablamos de científicos que supuestamente tienen conocimiento experto en el área de la materia que se revisa, y que son contactados por el editor del medio solicitándoles la revisión en un plazo determinado. Por ejemplo, para uno de los medios rápidos de primer cuartil que decía en mi anterior comentario, cuando me solicitan la revisión de un artículo me dan un plazo máximo de dos semanas. En dos semanas debería ser capaz de, en mi tiempo libre, revisar el texto, analizar su calidad, verificar sus resultados, y dar una valoración que pudiera ser constructiva para los autores de cara a una posible solicitud de cambios.

Eso no quiere decir que funcione así para todos los medios. Hay medios que como revisor te dan tiempo más que suficiente para hacer toda la revisión necesaria. Esto, por supuesto, alarga el proceso de revisión, y por tanto el de publicación.

Que se revise rápido no significa que se publique rápido, pero va asociado. Si la revisión está en dos semanas, y sólo se piden cambios menores, se puede llegar a tener una publicación final en como mucho un par de meses. Yo, hablando de experiencia propia, en este medio he logrado publicar en menos de mes y medio porque de los tres revisores sólo uno ha pedido cambios menores, y se cumplieron en el mismo día que nos lo solicitaron.

Casualmente estos medios que ofrecen revisión rápida suelen ser los que cobran por publicar. No digo que si pagas te publican, porque no es así. Pero si yo quiero publicar en el medio mencionado de ejemplo tengo que pagar 1800 euros (tras el proceso de revisión, una vez aceptado el artículo). Cifra que se puede reducir considerablemente si casualmente accedo a revisar artículos para ese medio con las condiciones mencionadas.

Y casualmente otros medios que no ofrecen revisión rápida, y que pueden tardar hasta dos años en publicar algo, no suelen cobrar por la publicación, salvo que se quiera hacer abierta.

Dices que no se puede separar tan fácilmente el trabajo, y supongo que depende de cada área. Yo, por supuesto, puedo hablar de la mía, no de las de otros.

También dices que de lo que se quejan es del cambio de criterio repentino de la ANECA, cuando al menos lo que yo llevo escuchando desde que me dedico a la investigación es una queja constante precisamente a los criterios de la ANECA (el cambio repentino por supuesto que afecta a las opciones de acreditación, pero molesta más si además ese cambio no tiene criterio digamos de calidad, sino de cantidad).

Pues bien, por ponerte algunos ejemplos tomados de mi área, este año Thompson Reuters ha cambiado la fórmula por la que se calcula el factor de impacto en las publicaciones indexadas en JCR. Esto ha hecho que, por ejemplo, el medio de primer cuartil que mencionaba antes, y que tenía un factor de impacto de 2.4 para 2015 obtuviera un factor de impacto de 2.7 para 2016 (el de 2017 se calculará a mediados de 2018). Mientras que el principal medio de la categoría que más me interesa como investigador en ese mismo periodo haya cambiado el factor de impacto de 8 a 17.

Este cambio, por supuesto, también nos afecta. Este cambio puede causar que después de dedicar tiempo a la publicación de un artículo en un medio que era Q1 en 2015 y 2016, logres su publicación en 2017 y cuando se calcule su factor de impacto para 2017 en 2018 acabe bajando a Q2 (o peor, directamente a Q3, que ya lo he visto anteriormente).

Luego tienes lo que te decía de dividir los resultados en diferentes publicaciones. El principal medio de mi categoría, el que te decía antes que tiene un factor de impacto de 17 para 2016 (y primero de su categoría), se centra precisamente en surveys. No vale cualquier survey, por supuesto: tienen que tener una cierta calidad.

Curiosamente el propio medio menciona en su descripción que recomienda a sus autores que consideren el envío del capítulo del estado del arte de sus respectivas tesis para considerar su publicación como artículos.

¿Y cómo es posible que un medio que sólo publica surveys tenga un factor de impacto tan elevado? Porque si son buenos surveys, van a ser citados ampliamente. Y si tienen muchas citas, como eso es lo que se valora al calcular el factor de impacto, este valor sube.

Este medio además es gratuito para publicar. ¿Por qué no se publica más en él? Porque el tiempo promedio de espera para obtener una publicación es de año y medio, pudiendo fácilmente extenderse a cerca de tres años.

Y aquí viene la siguiente gracia. En los nuevos programas de doctorado, con una dedicación a tiempo completo hay que depositar la tesis en un plazo máximo de tres años. Para poder depositar la tesis hay que tener ahora mismo al menos un Q1 y un Q3 (evidentemente dos Q1, e incluso dos Q2, son suficientes). Si hacer el estudio del estado del arte par ami tesis me lleva parte del primer año (como poco), ¿cómo voy a tenerla publicada en este medio a tiempo para cumplir con ese criterio, que por cierto también establece la ANECA?

Al final busco medios de publicación rápida. Mi grupo de investigación acaba manteniendo una lista de medios verificados de publicación rápida que se actualiza cada año. Y nos centramos principalmente en esos medios.

Esto tiene su contrapartida. Yo, por ejemplo, quería haber enviado hace un año y medio un par de artículos a una nueva revista del IEEE que aun no estaba indexada, pero que tenía toda la pinta de acabar siéndolo. El responsable de mi grupo de investigación no quería hacerlo, porque para la ANECA esas publicaciones no existirían, y nos limitaría la posibilidad de publicar ese mismo contenido en otras revistas indexadas.

Lo que ha ocurrido es que en la actualización de los índices de 2017 ese medio ha entrado en la lista directamente al Q1 de su categoría. ¿Por qué? Porque evidentemente otros autores, de otros países que tienen otros criterios distintos a los de la ANECA, sí han publicado en ese medio, y han citado a artículos de ese medio, resultando en su entrada en el índice.

En resumen, la ANECA parece estar desconoctada del resto del mundo. Y eso va a hacer que sigan cambiando los criterios cada dos o tres años (para que no chirríe demasiado la maquinaria).

Y los investigadores españoles, lejos de tirar del cambio, es decir, de hacer que ANECA siga el cambio que consideramos necesario, vamos detrás, siguiendo los cambios que la ANECA establece cada cierto tiempo.

En fin, que luego nos extrañamos que muchos investigadores españoles se busquen la vida en otros países, o de que si se quedan en España lo hagan siendo los mejores en los criterios que les pide la ANECA (no hay otra forma), pero apenas tengan resultados visibles y transferibles, ya que eso no se valora por la ANECA.

T

#75 Efectivamente no hay que confundir la parte con el todo, en otras palabras no generalizar la particularidad.
En mi área es extremadamente difícil publicar algo en dos meses como tú comentas. Si nos ceñimos al proceso de revisión, solo ocurriría si te lo aceptan a la primera (cosa que ocurre de manera anecdótica, sobre todo si vamos a revistas de cierta solvencia) y es una revista con un proceso rápido de revisión. Lo normal es de almenos 6 a 12 meses. Pero el proceso de revisión no es lo más largo, lo peor en términos de tiempo es obtener los datos para poder enviar algo bueno a publicar. Como te dije antes, no se suele bajar de 2 años en tener datos consistentes y relevantes, con lo que al final estamos hablando de unos 3 años para un artículo. Lo que tú llamas survey, que en mi área se llaman review, sí pueden ser más rápidos porque estamos hablando de escritura más revisión (unos 6 meses en total), pero estas publicaciones son las menos y sobre todo vamos a artículos de investigación.

Por eso me parece sangrante que digas que dos meses y si eres avispado tienes 3, 4 o 5. Eso no es lo general, por lo que veo ocurrirá en algunas áreas, pero en muchas otras la realidad es bastante distinta. Esa es mi gran "pero" a tu primer comentario.

Con respecto a la ANECA, para mi el cambio de criterio radical de criterio a uno mucho más duro es un problema muy grave, porque como he dicho hay mucha gente que ha estado jugando (por obligación) a un juego y a la hora de sacar partido a ese juego les dicen que ahora el juego es otro y con ese nuevo juego están fuera del tablero.
Otro cantar es si la base del criterio está bien o no, ahí tendríamos para empezar y no parar, porque cada quien va a tener un "mejor criterio" que proponer. Con lo que tú dices hay algo en lo que no estoy de acuerdo, ya que la ANECA no solo habla de número de artículos sino también de calidad de los artículos ya que del número que da hay una proporción que deben ser del primer primer decil o del primer cuartil (el criterio en número y calidad varía entre áreas), por lo que sí se tiene en cuenta la calidad de las publicaciones.

En todo el mundo se tienen en cuenta los índices de impacto para clasificar a las revistas, no somo solo los españoles lo que queremos publicar en Nature, Science o PNAS. Se tienen en cuenta para acceder a plazas, para conseguir financiación, etc. Probablemente en cada sitio con sus particularidades de siempre basándose en el índice de impacto (que luego lleva a Qs y Ds) como criterio de calidad. Por tanto una revista que no esté indexada va a tener un volumen y calidad de publicaciones (por lo general, con honrosas excepciones como la cuentas) muy bajo, y eso es así porque no hay manera que se considere fiable de valorar lo bueno o malo que es un artículo que se publica en ellas.

De tu última frase además tengo que decirte, que la visibilidad de un artículo lo mide la revista en que está publicado y eso lo tiene en cuenta la ANECA. La transferibilidad es algo difícil, por no decir imposible de medir, pero a menudo también está implicito en la aceptación en una o otra revista.

YHBT

#77 En tu proceso te olvidas de algo importante: la continuidad.

Es cierto que para lograr una publicación debes tener un trabajo previo realizado (con o sin resultados, en entornos reales o simulados, depende del contexto de lo que estemos hablando, pero siempre hace falta un trabajo previo realizado). Y tú estás contando que el periodo de publicación empieza a contar desde el día uno en el que inicias tu trabajo previo.

Pero, ¿tú trabajo de investigación no tiene continuidad? Quiero decir, ¿cuándo terminas un trabajo de investigación saltas a otro sin relación con el anterior y por tanto sin continuarlo de ninguna forma?

Porque una vez que inicias esa dinámica es precisamente ese primer esfuerzo el que influye en tu primera publicación, pero no debería tener el mismo peso en las siguientes, ya que supuestamente tu trabajo de investigación debería tender a tener cierta continuidad.

No te discuto que no siempre es posible establecer una continuidad directa entre investigaciones sucesivas, ya que salvo que se sea muy afortunado y de cuente con financiación exclusiva dedicada a la investigación de base en un área concreta, lo normal es que los fondos de financiación provengan de proyectos que tienen unos objetivos concretos.

Pero lo ideal es que intentemos buscar esa continuidad.

Repito que no puedo generalizar, pero sí puedo hablar de mi caso. De mi primer proyecto de investigación en mi etapa predoctoral saqué dos artículos (ambos en primer cuartil) y una ponencia en un congreso. Los dos artículos siguieron la dinámica descrita: estudio y propuesta en un artículo, desarrollo y análisis de resultados en otro artículo. Sé que no es lo común, sé que lo ideal es que cada artículo cubra por completo toda la fase de estudio, propuesta, experimentación y análisis de resultados. Pero si hay publicaciones en primer cuartil en mi sector que aceptan esa división, y por lo que se me mide es por número de artículos publicados (baremados por cuartiles), ¿no es poco práctico juntar todo en un único artículo?

Para ese primer artículo, utilizando tu criterio de medida, puedes decir que dediqué un año entre el estudio, la propuesta, la experimentación y los resultados. Yo quería precisamente meter todo en un mismo artículo, pero mientras más fuentes consultaba para prepararlo, más me encontraba con la dinámica descrita. Así que decidí probar (no sin la bronca inicial de mi director de investigación).

Aquél primer artículo fue la sorpresa para todo el grupo de investigación (yo mismo incluido) porque no sólo fue aceptado, sino que además sólo nos pidieron cambios menores en la estructura del texto (ni siquiera en el inglés, sino en la estructura, nada más). El primer manuscrito se envió al medio a comienzos de noviembre, y a mediados de diciembre ya estaba publicado (previo pago de 1800 euros).

El siguiente artículo, completando el anterior, lo enviamos a los tres meses... ¡y lo mismo! Quizás tenga mucha suerte, quizás mi nivel escribiendo sea muy alto, o quizás este medio emplee revisores que en dos semanas no puedan probar todo lo que se les envía y las revisiones no sean de suficiente nivel. Pero el medio sigue siendo de primer cuartil, lleva siéndolo muchos años seguidos (aun con cambios en la forma de calcular el factor de impacto). Quizás es que algo esté podrido en el sistema de publicaciones científicas.

Lo que sí que no es un quizás, sino algo que puedo garantizar es que a mí se me evalúa por la cantidad de artículos publicados (baremados por cuartiles). Y si un medio es reconocido internacionalmente, forma parte del primer cuartil, y me publican rápido y con cierta facilidad varios artículos que deberían ser uno solo, ¿por qué no debería de hacerlo?

Cuando terminamos con ese proyecto de investigación empecé con otro que pude relacionar con cierta facilidad con mi línea previa. Eso me permitió no tener que esperar un año (o dos) a tener resultados, y en año y medio tenía publicados tres artículos (y una ponencia en un congreso): uno con la propuesta, otro con los resultados, simulados y reales en un contexto, y otro con los resultados en otro contexto añadiendo cambios sobre el modelo propuesto en los artículos previos. Los tres artículos fueron todos de primer cuartil, todos aprobados para su publicación tras cambios menores, todos publicados en un periodo inferior a dos meses desde que se enviaron al medio (uno de ellos publicado dentro del mismo mes).

Y yo no soy el más prolífico de mi grupo. Tengo un compañero que antes de que yo iniciara esta forma de publicar en mi grupo lo que hacía era lanzar variaciones de un mismo artículo a múltiples medios de diferentes ramas, de manera que para cada versión el análisis de los resultados se enfocaba en la rama concreta de cada publicación. Y conseguía varias publicaciones, divididas entre primer y segundo cuartil.

Con esto lo único que pretendo ilustrarte es que lo que cuento no es por imaginación: lo he hecho, y con los resultados que he contado. Mi pequeño corazoncito científico no se siente muy a gusto con ello: él cree que la ciencia no debería medirse así. Pero mi espinita racional que aprendió que hay una diferencia entre hacer las cosas bien y cumplir unos trámites me devuelve a la realidad de que si estas son las condiciones que se piden para evaluarme, ¿por qué hacer otra cosa que me va a dar peores resultados de evaluación?

Créeme cuando te digo que intento que la parte forzada por ese juego establecido por la ANECA mantenga una cierta relación con la parte idealista de lo que creo que debería ser una correcta labor científica. Pero no es fácil. Especialmente cuando la posibilidad de optar a fondos de financiación está más relacionada con lo primero que con lo segundo.

Ahora bien, y este es un juego interesante, otra cosa que he aprendido durante estos años como investigador es que existe un cierto uso del lenguaje bastante... político.

Hablas por ejemplo de que también se mide la calidad de las revistas. Pero, ¿qué es la calidad, sino el grado de cumplimiento de unos requisitos? ¿Qué requisitos se utilizan para medir la calidad de las revistas? ¿Podrías explicarlos? Porque ya lo he hecho antes: se establece un factor de impacto, se ordenan las revistas por factor de impacto, y se divide la lista en cuatro partes. Las de factor de impacto más elevado forman el primer cuartil, y así sucesivamente (esto ya lo expliqué en mi anterior comentario).

¿Y qué es ese factor de impacto? Una fórmula que pone en relación el número de artículos publicados en un periodo (cinco años es lo habitual) y el número de artículos publicados que han sido citados en ese periodo. La fórmula de Thompson Reuters (JCR) no era pública hasta la actualización del índice para 2016, y es en esencia lo descrito (algo que de hecho ya se sabía).

En otras palabras, si un artículo es citado muchas veces para criticar sus resultados, el factor de impacto del medio aumenta... ¡porque aumentan las citas! Y lo que es peor, el valor de impacto del artículo (que no se suele usar, pero también existe) ¡también aumenta porque está siendo citado!

De nuevo no hablo de conjeturas. El caso que menciono en particular corresponde a un artículo que no es de mi área, pero que sí ha logrado que un medio pase a estar indexado en JCR (y en SCI), con un factor de impacto interesante (no es Q1, pero sí Q2), y que gente que no se lee ni el artículo ni las citas que lo mencionan crea que lo que en él se concluye sea válido... ¡cuando precisamente las citas lo que hacen es desmentirlo! [NOTA: Se trata de un artículo sobre siniestralidad en accidentes de tráfico en un contexto determinado, que como indico no se trata de mi área, pero que lo encontré buscando información sobre algo relacionado a un tema que trata]

Es decir, que si aceptamos el factor de impacto como el requisito utilizado para la medir la calidad, aceptamos que un artículo que ha sido desmentido por otros que lo citan... ¡es de gran calidad!

El problema, efectivamente, no se limita a España. Los factores de impacto y otros indicadores de calidad son empleados a nivel internacional. Pero cada país, e incluso cada entidad, los toma de una forma.

Así, por ejemplo, las quejas sobre la dudosa confiabilidad del factor de impacto de los índices JCR ha hecho que en 2017 Thompson Reuters haya hecho pública su fórmula... que casualmente da factores de impacto muy diferentes a los que venía dando hasta ahora (basta comparar los índices de 2016 y 2015).

También ha hecho que muchas entidades que usaban JCR como referencia estén empezando a valorar más el SCI (como es el caso de la ANECA).

O que grupos de universidades y centros de investigación estén negándose a publicar en revistas (y a citarlas) que tradicionalmente tenían buen factor de impacto (primer o segundo cuartil), por cuestionar la forma en la que se revisan los artículos que se publican en ellas. Algo que ha venido motivado, entre otras cosas, por encontrarse aceptados para su publicación artículos de muy deficiente nivel.

¿Y por qué ocurre esto? Somos investigadores, somos científicos, ¿por qué no hacemos un análisis?

Si para que un medio tenga un buen factor de impacto tiene que cumplir que publique mucho y se le cite mucho, ¿no se le está diciendo que es adecuado que rebaje el nivel de las revisiones (de forma no muy descarada) y promueva la cita entre medios del mismo grupo editorial?

Al final tenemos lo mismo que está pasando en España con la ANECA: cada quien juega al juego que le plantean, con las reglas de juego que le plantean. Eso no da necesariamente un buen resultado, pero son los requisitos que se piden.

Repito que por supuesto no digo que en otros países no tengan también sus historias, que sé que las tienen. Vamos, que no me las imagino: algunas las conozco. Pero donde ahora realizo mi investigación, y donde me gustaría que se mejorase la investigación en España. Y por eso hablo de lo que ocurre en España.

T

#78 Yo te he hablado de lo que ocurre en otros países porque tú has dicho "En resumen, la ANECA parece estar desconoctada del resto del mundo", cuando se rige por lo mismo que en todos sitios, el índice de impacto.
Que por cierto sé cómo se calcula y lo que significa, no te agradecí tu explicación porque pensé que lo explicabas por si alguien no lo sabía. No es mi caso, lo sé bien. Y hay más de 4 divisiones, existen también los deciles. En mi área se pide que un cierto número de artículos de los que pide la ANECA sean de primer decil.

Tengo claro que tu área es muy diferente a la mía, yo no puedo publicar primero lo que voy a hacer, luego lo que he hecho y luego una modificación de lo que he hecho. Si tú puedes me parece perfecto, sigues las reglas de juego marcado.
En mi caso el factor limitante en cuanto al tiempo se refiere es la parte de experimentación. Pueden ser años hasta que tienes unos datos relevantes que puedan ser publicables, luego lo de menos es publicarlos, entrarán con algún que otro sofocón pero si son buenos entran. Un artículo en mi área (y en otras muchas) requiere mucho trabajo, horas de laboratorio, repeticiones, cosas que no salen, etc. Por eso generalizar decir que en 2 meses tienes un artículo y si eres avispado 3 o 4, me parece sangrante. Cierto que luego has dicho que en tu área, pero al principio lo has dicho como si fuera lo normal cuando no lo es, eso quiero que quede claro, no lo es.

Continudad, como chiste no me parece ni regular. Lo que menos hay en la investigación en España ,cuando ya has pasado la época predoctoral y antes de tener plaza, es continuidad. La realidad de los investigadores es la de tener la casa a cuestas, con familia incluida, la de mudarse de país como otros se mudan al barrio de al lado, y la de contratos de un año renovables. Continudad.
Justamente se busca la acreditación de la ANECA para tener esa continudad, pero antes ni para chiste. La ANECA es un otro que mira de reojo con sus baremos y criterios, pero no es mala idea para poner trabas a que entre el de la casa, entrará, pero si cumple unos mínimos.

Medir la calidad científica es complicado, que se tenga como criterio si la revista donde has publicado ha sido citada en otras investigaciones no me parece malo del todo. Mide si tu investigación ha sido relevante en tu campo, o incluso en otros campos. Está claro que se puede dar el caso de tener impacto por citas negativas, pero no me intentes decir que es algo habitual, son casos anecdóticos y no son la norma. La norma es que las revistas con buen impacto solo aceptan trabajos que le aseguren mantener ese impacto, y por tanto publicaciones de calidad. Nature, Science o PNAS no son lo que son porque tengan muchas citas negativas, y lo que se publica en ellas suelen ser trabajos de calidad.

Los trabajos buenos se citan mucho, lo que se cita mucho es bueno. Esa es la norma, lo demás son excepciones. Por tanto el indice de impacto (a falta de un método mejor) es una herramienta que permite conocer la calidad de lo que se publica. Si la ANECA tiene en cuenta esto (que lo tiene porque un número de trabajos han de cumplir estos requisitos) está estableciendo criterios de calidad además de número.

YHBT

#79 PRIMERO. La mención a la continuidad es con respecto a la línea de investigación. Creo que con el ejemplo expresado en el anterior comentario eso estaba claro (veo que para ti no).

Es decir, que si has empezado una investigación sobre A, cuando terminas tu investigación sobre A obteniendo algo que te permite extender A a A', puedas continuar investigando sobre A o sobre A', o como poco sobre algo relacionado con A o A' que hayas tocado durante tu investigación.

Si por el contrario cuando termines con A generando A' tu siguiente trabajo de investigación va a ser sobre Z (nada que ver con A), y no es por decisión personal sino por necesidad laboral, entonces sí, claro que es normal que tras una investigación exista un parón de publicaciones hasta tener algo de la siguiente.

De nuevo no digo que no ocurra lo segundo, que ocurre (y con demasiada frecuencia para mi gusto). Digo que si tienes la suerte de que te ocurra lo primero (situación ideal), ese parón no debería ser tan dilatado (e incluso no tendría porqué existir), ya que existe esa continuidad (de línea de investigación).

(No me vengas ahora con la movilidad, que esa es otra cuestión, muy importante también, pero otra cuestión al fin y al cabo).

SEGUNDO. Aclara el concepto que tienes de «calidad». Lo estás confundiendo con el concepto de «nivel».

Calidad es el grado de cumplimiento de unos requisitos. Esa es la definición formal, y es la que se aplica en cualquier campo profesional, incluida la investigación (no hay otra forma de hacerlo).

El factor de impacto no es una medida de calidad en sí misma. Es un índice que mide el impacto (si quieres alcance) que tiene un medio. Y por eso se calcula tomando como referencia el número de artículos publicados que son citados y el número de artículos que son publicados.

Repito, somos científicos, hagamos una valoración analítica.

Su un medio tiene 3000 publicaciones en el periodo a evaluar y en ese periodo cada publicación ha sido citada 2 veces, su factor de impacto será 2 (6000/3000).

Si el mismo medio en ese periodo, con esas mismas publicaciones, tiene una publicación que ha sido citada 1000 veces (que en periodo reducido no es moco de pavo), y el resto no han sido citadas, su factor de impacto será de 1.333 (3999/3000).

¿Qué artículo tiene más valor? ¿Uno del primer ejemplo que ha sido citado dos veces? ¿Uno del segundo ejemplo que no ha sido citado? ¿El del segundo ejemplo que ha sido citado 1000 veces?

Porque no nos vamos a engañar. Es cierto que la tendencia normal estadística es que a un determinado factor de impacto el número de citas por artículo tienda al dado por el factor de impacto. Pero sabes tan bien como yo que no tiene porqué ser así.

Dicho de otra forma, cuando se pide como requisito la publicación de artículos en medios con elevado factor de impacto, se pide simplemente que se logre la publicación en esos medios. No se dice absolutamente nada de la capacidad ni del nivel del investigador ni de la investigación.

Por supuesto publicar en un medio de alto nivel de impacto no es fácil. Pero tampoco todos los medios de alto nivel de impacto tienen unas condiciones tan exquisitas.

Y cuando la ANECA pide la cantidad de publicaciones en medios de impacto (baremados por cuartil), lo que hace es establecer la calidad de los investigadores por la cantidad de publicaciones (baremadas por cuartil).

Es una trampa lingüística. Coloquialmente no entendemos por calidad que algo cumpla requisitos. Si los requisitos de algo son una mierda, y alguien los cumple, no decimos, coloquialmente, que tiene un alto grado de calidad... pero sí la tiene, pues cumple esos requisitos de mierda.

Ya puestos la ANECA podría poner en sus requisitos unos niveles de índice h, índice i10 o índice g, que al menos miden valores propios de las publicaciones de cada autor, y no de los medios en los que han sido publicados.

TERCERO. Medir la calidad de cualquier cosa es establecer unos requisitos y comparar el grado de cumplimiento de esos requisitos. No te hagas otros líos.

Si quieres evaluar las contribuciones científicas de una serie de candidatos primero hay que establecer unos requisitos. Y eso es lo que hace la ANECA, y lo que tendría que hacer quien quisiera hacer esa evaluación.

Criticar los requisitos, que es lo que algunos hacemos, no es criticar que se hagan evaluaciones, sino la forma en la que se hacen.

Creo que medir sólo (o fundamentalmente) la cantidad de publicaciones y la valoración de los medios en los que se han publicado no es un indicador suficiente (de hecho creo que es impreciso). Y creo además que este indicador, como otros establecidos por la ANECA, promueven un tipo de actividad investigadora que no es la que al final ofrece los mejores resultados, tanto de cara a la propia investigación como de cara a los investigadores (quienes además de la movilidad que mencionas se ven forzados muchas veces a la adaptabilidad necesaria a nuevas líneas de investigación).

Creo que se deben establecer unos indicadores, por supuesto. Y que esos indicadores deben buscar dos cosas:

1.- Valorar mejor las contribuciones científicas de los candidatos.
2.- Fomentar las actividades que permitan mejorar tales contribuciones, así como su transferencia.

Entiendo que lo de la transferencia a los de la ciencia base les suena a matar a la ciencia base. Y acepto que es así cuando tal transferencia está mal entendida. Al fin y al cabo si desarrollas un nuevo conocimiento que no se transfiere a otras personas (no usos, personas), es como si no lo hubieras desarrollado.

Hay transferencias (como las transferencias de tecnología y explotación de resultados) que pueden parecer más fáciles de medir. Pero no por ello son los únicos tipos de transferencia.

Y las publicaciones son en sí una forma de transferencia... del conocimiento. ¡Pero no la única!

Si al final nuestros mejores candidatos están más con un pie fuera que dentro, si sus resultados se transfieren más fuera que dentro, ¿no será porque el criterio para tenerlos dentro está equivocado?

CUARTO. Por supuesto que en todo el mundo se valoran y evalúan los resultados. ¿Lo hacen igual que la ANECA?

No confundas a la gente, por favor.

La ANECA establece los criterios para España. En algunos criterios estaremos de acuerdo y en otros no. Algunos criterios serán comunes a los usados en otros países y otros no.

Para mí la pregunta fundamental es ¿qué queremos de la investigación española, realizada en España, en los próximos 10, 15 y 20 años (incluso 30)?

¿Queremos apoltronados que sean expertos en la tramitación burocrática para la consecución de proyectos de investigación europeos que permitan seguir creando investigadores que en su mayoría abandonen la carrera de investigación o tengan que migrar al extranjero?

¿O queremos investigadores preocupados en generar conocimiento, con el apoyo necesario para hacer su transferencia necesaria según el contexto y el área?

Si queremos lo primero está claro: los criterios actuales de la ANECA son perfectos.

Si queremos lo segundo, entonces a los criterios de la ANECA les falta (y en mi opinión les sobra) algo.

Corolario. No es que nuestros investigadores sean mejores o peores que los que trabajan fuera de España. Es simplemente que cumplen unos requisitos diferentes, y se preparan para ellos, pues son los que se les exigen.

T

#80 Claro porque cuando te mueves de sitio continúas con tu linea de investigación.

El factor de impacto no mide la calidad sensu stricto, a lo que me refiero (pensaba que estaba claro) es que da una idea de la calidad de la revista o del artículo. Luego puedes hacerte todas las pajas mentales que quieras y jugar con el sentido formal y no formal hasta completar 50000 caracteres.

Está claro que Nature tiene un factor de impacto cercano a 40 porque hay un puñado de artículos con 1000.000.000 de citas mientras que los demás tienen 1 o 2 por año. De nuevo quieres convertir en norma lo que no es más que anecdótico. A efectos prácticos eso que comentas no se da (quiero decir que se da tan poco que no es significativo, para que me entiendas).

Se pueden usar muchas otras herramientas de evaluación, como el índice h y similares, pero éstos tampoco son perfectos.

Pedir un número de publicaciones y que de ellas una proporción sean del primer decil o el primer cuartil no me parece tan mala manera de hacerlo. El cambio radical de criterio es lo que no me parece serio.

Como comentario adicional te aconsejo que evites las definiciones y las lecciones de maestrillo de tres al cuarto, porque además de dilatar innecesariamente el comentario, le da un tufillo pedante que tira para atrás.

Por último yo no intento confundir a nadie, lo que he dicho es que el factor de impacto se usa como criterio de calidad de las publicaciones aquí y en la China Popular (o como criterio que da una idea de la calidad, no te me vayas a enfadar). Además, no te engañes esto solo estamos leyendo tú y yo, no creo que nadie (además de mi mismo como directamente implicado) aguante tu aparente incapacidad de síntesis.

YHBT

#81 ¡Qué perra te ha dado con Nature (lo entiendo, es por contextualizar)!

En JCR el último factor de impacto publicado para Nature, correspondiente al año 2016 (publicado en junio de 2017) es de 40.137

El periodo de cómputo aplicado para calcular el factor de impacto de 2016 abarca 2014 y 2015. En ese tiempo en Nature se publicaron un total de 1763, contabilizándose un total de 70 761 citas a artículos publicados en ese mismo periodo.

En el momento de realizarse el cálculo del factor de impacto para 2016 (repito, en 2017) los artículos más citados de 2014 y 2015 de Nature superan con facilidad las 500 citas. Sin embargo esta cifra no es ni de lejos la moda estadística (la media va a ser precisamente el factor de impacto).

En ese mismo periodo se publican artículos en Nature, cumpliendo con todos sus criterios de revisión, que aun a fecha de hoy no alcanzan ni las diez citas (he encontrado varios que ni siquiera han sido citados una sola vez).

Cuando se te requiere haber publicado en el primer cuartil (o decil ya que quieres marcar la diferencia), y haces mención a haber publicado en Nature, más allá de haber superado su proceso de revisión, ¿qué más me quieres decir sobre tu contribución científica? ¿Me estás diciendo que tiene impacto porque lo tiene el medio en el que ha sido publicado tu artículo? ¿Me estás diciendo que tiene visibilidad?

Y luego te pones a consultar, y resulta que sí, ha sido publicado en Nature, pero en dos años no ha obtenido ninguna cita (o muy pocas). Y no, no es lo extraño: eso es precisamente lo normal, es decir, que si el factor de impacto es de X, el número de citas de tu publicación sea inferior a X, salvo que tengas una publicación realmente impactante por sí misma. Y en ese caso, ¿estás realmente conforme con que tu publicación sea reconocida sólo porque ha sido publicada en un medio con un factor de impacto de X?

Creo, corrígeme si me equivoco, que cuando se trata de evaluar a candidatos individuales, se debería considerar el aporte individudal de cada candidato.

El factor de impacto de un medio mide... ¡el impacto del medio, no del individuo que publica en él!

¡Claro que no hay índices perfectos! Lo que al menos yo estoy comentando es que se deberían emplear otros criterios en lugar de recurrir a índices que no miden la capacidad del individuo ni promueven una actividad investigadora con resultados y transferencias (que ya he matizado por activa y por pasiva que no tienen que ser limitadas a la explotación de los resultados).

Eso no acabaría con los factores de impacto. Al fin y al cabo los autores queremos ser citados con más frecuencia, y por tanto buscamos una mayor visibilidad, que es más probable en un medio de alto factor de impacto. ¡Pero no se nos debería evaluar por el medio, sino por nuestro trabajo!

Si tú te encuentras cómodo en ese juego, adelante. Yo juego con las mismas regñas, pero no estoy de acuerdo con ellas, y así lo digo.

PD1: Tu línea de investigación no debería ser exclusiva de tu lugar de trabajo (lo que daría para otro debate). No es extraño que un investigador migre para precisamente poder continuar con su línea de investigación. Pero bueno, tú a lo tuyo.

PD2: Sigues confundiendo «calidad» con otra cosa.

PD3: Hay cosas que para que se entiendan bien no se pueden sintetizar más. Es bueno ser breve, conciso, e ir al grano. Pero no es bueno ignorar aquello que puede ser necesario para que se comprenda correctamente lo que se explica sólo porque al incluirlo el mensaje queda... largo.

PD4: Ese «tufillo pedante» me sale cuando tengo que responder por tercera vez a la repetición del mismo argumento porque quien me replica no se ha tomado la molestia si quiera de leer. Descuida, que si Menéame me ofreciera la posibilidad de enlaces a partes de mis comentarios anteriores, a partir de mi segunda respuesta mis mensajes se resumirían mucho... enlazando a respuestas que ya están dadas.

PD5: Por cerrar, descuida, que todos, más tarde o más temprano, aprendemos que cuando otros establecen las reglas, o jugamos a ellas o perdemos. La única diferencia está entre aquellos quienes parecéis estar cómodos con las reglas existentes (aunque sean causa, al menos parcial, de los males de los que os quejáis en ocasiones), y los que queremos cambiarlas, con mejor o peor acierto.

T

#82 El tufillo pedante lo tienes desdel el primer comentario.
Igual que tus aires de superioridad.
La capacidad de síntesis queda bien demostrada por tus 5 PDs en un comentario.

Hay muchas cosas que comparto contigo, como la evaluación individual, aunque no me convence ninguna manera de hacerlo.

De todas maneras me gustaría que me dijeras qué es "lo mio" de tu primer PD. Se ve que voy a lo mio y no estaría de más que ya que haces esa acusación, me dijeras a qué voy.

vet

En mi facultad en lugar de cuadro académico había un árbol genealógico.

D

#28 Entiendo que un árbol solo tiene dependencias, las universidades son más bien un grafo o una maraña. lol Ya ni se trata de ver el parentesto sino de contar cuantos tienes.

T

# 2 El problema es que las reglas del juego acaban de cambiarlas, había otras diferentes, la gente ha jugado a esas y de repente se encuentran con el pastel.
Y no es solo para catedrático, con Profesor Titular han hecho lo mismo.
PD: que alguien se lo diga a AdvocatusDiaboli (comentario 2) que se ve me tiene ignorado

D

#6 Es la nueva forma de debatir de meneame, te ignoro para que no puedas replicarme y parezca que te he hecho un ¡zasca!

D

#11 O que no puedas votarme negativo y así no me sancionen durante días y no pueda ni comentar.... se está convirtiendo en el chiringuito de unos cuantos.

D

los científicos y científicas

celyo

Un compañero de universidad ya se lo toma como un videojuego donde tienes que ir consiguiendo trofeos.

Lo peor es que van cambiando los criterios cada cierto tiempo, y los aplican sin mucha lógica.

D

#9
Lo peor es que van cambiando los criterios cada cierto tiempo, y los aplican sin mucha lógica.

Sí, como en un vídeo juego. lol

p

nosotros jugamos en otra liga

anxosan

No me extraña nada, por lo que yo conozco de la Universidad en España.

Por otra parte, alguna vez me ha dado por hacer un análisis parecido con las normativas urbanísticas y de habitabilidad, en relación a las viviendas más icónicas de la historia de la arquitectura. Así es fácil comprobar que mientras son legales los engendros más horteras y arquitectónicamente deficientes; la casa Mairea, la villa Saboya, Fallingwater, la casa Farnsworth,... serían ilegales por no cumplir urbanísticamente o incluso porque no cumplen las normas de habitabilidad en algún aspecto.

T

#4 La normativa no es de la Universidad sino de ANECA

ChukNorris

Los premio Nobel son para cientififuchos sin experiencia ni trayectoria acreditada.

Cualquiera puede ganar un premio nobel en un golpe de suerte.

T

#12 Que se lo digan a Obama

D

Tragar sables hasta la empuñadura, en cambio, te da cátedra automáticamente.

T

#18 Sin ANECA me da que ni por esas. Aunque ahora que lo pienso es gracioso aquellos que hayan tragado y tragado, y luego le hayan cambiado los criterios a última hora

YHBT

#30 ¿Qué comparación? Porque aquí estamos haciendo dos comparaciones, aunque parezca sólo una.

La primera comparación, la que entiendo que pretende la noticia, es la de comparar las diferencias entre el criterio de evaluación de la ANECA, y el seguido por otras entidades académicas y científicas de otros países.

Esa comparación no es absurda, ya que pone de manifiesto porqué el trabajo científico en España tiene otros resultados diferentes a los que se obtienen en otros países.

La segunda comparación, la que entiendo que es a la que haces referencia, es la de méritos de los catedráticos y aspirantes a catedráticos frente a premios Nobel.

Esa comparación no es que sea absurda, es que carece de sentido ya que se parte de sistemas de evaluación diferentes. ¿Cómo se podría decir que un catedrático español es mejor o peor que un premio Nobel extranjero, si la forma en la que se evalúa a cada uno es diferente?

D

Entiendo la crítica, pero también me resulta absurdo comparar contextos tan diferentes, si ellos hubieran jugado bajo esas reglas del juego seguramente se las podrían arreglar para sacar esos o más artículos. Está claro que cualquier legislación o norma siempre tiende a deformar la realidad y eso puede propiciar que se tienda a publicar por publicar.

Por otra parte, también me parece que es obvio que se busca una forma de cribar, al menos me da la impresión de que ahora hay muchos científicos de mucho nivel por todo el mundo, y me parece más complicado hacer descubrimientos revolucionarios. Es como cuando se pone en contexto los records de los juegos olímpicos, si los medallistas olímpicos del otras épocas participaran ahora (con las mismas marcas) pues a lo mejor ni clasifican...

Tampoco puedo decir si es mucho o poco, pero si me da la impresión de que son criterios excesivos, lo que no sé es que tan exclusivo debería ser la acreditación a catedrático.

D

#14 No necesariamente, pero sí creo que perjudicaría sus investigaciones, o al menos influiría en ellas.

PS: No me pierdas en tu comentario, insisto que podemos tener todo tipo de opiniones sobre lo que pasaría, pero no tiene sentido hacer esa comparación.

N

#21 lo que no tiene sentido es cribar con un parámetro que solo significa cantidad en lugar de calidad. ¿Valen más 300 articulos mediocres que 20 excelentes?

D

#52 Y no lo tiene, peor es que yo hablo de la comparación.

Abeel

#2 yo lo veo más como si para ser catedrático puntuara más (en tu analogía) que tuvieses marcas de corte en varios deportes. Es decir, como si no te bastara ser el campeón del mundo en cien metros lisos, sino que puntuara más ser decente en cien, doscientos, waterpolo, pimpón y judo, haciendo que sí, has trabajado muchos temas (publicado mucho) pero quizás no le dedicas el mismo tiempo a lo que te haría record (el descubrimiento que deriva en Nobel).

D

#22 No te preocupes, no me lo tomo como un ataque personal, y no discuto que el sistema sea más que criticable.

Aunque quizás me pierda en mi comentario original, mi principal crítica es la comparación que realizan. Hasta añadiría que siguen cayendo en la trampa que es intentar medir la calidad de un investigador por sus resultados.

D

#23 He leído tu comentario y estoy de acuerdo en muchas cosas, pero es que quiero aclarar que mi principal crítica es a lo absurda que es dicha comparación.

rojo_separatista

#49, el número de artículos indexados tiene un peso importante en todos los sistemas universitarios del mundo. He tenido esta discusión decenas de veces y aún estando deacuerdo con que no es perfecto, nadie me ha sabido dar una alternativa realista a el modelo actual.

s

#57 Tus 5 mejores publicaciones en tus 5 últimos años, para acceso a plazas. Algunas más (y algunos más años) para catedrático. Cualquier umbral al número de publicaciones que se pueden presentar sería mejor que ir a lo loco y publicar sin sentido.

Edito: no es del todo cierto. Te valoran publicaciones relevantes (en determinados campos hay congresos que valen más que las revistas). Que los artículos sean indexados no es tan común, y menos en el volumen que se manejan en España.

rojo_separatista

Sin ánimo de salir a defender la filosofía del "publish or perish" decir que también tiene narices que en 50 años de carrera científica, solo tenga 24 JCR.

D

#42 Lasde Albert Einstein se cuentan con los dedos de las manos. Según ls criterios de la Aneca no habría podido acceder ni a una plaza de profesor.
Una cuestión es el cisma que hay del mundo universitario con la industria. Para hacer carrera en la universidad, le tienes que dedicar toda tu vida. Cualquiera qe haya trabajado en una empresa o se haya dedicado a investigación aplicada lo tiene muy difícil.
No defiendo ni critico ningún sistema, pero es evidente que cuando ninguna de las uniersidades españolas aparecen ni en los 100 del ranking. Evidentemente algo falla.

Al_Gal

En relación a este tema os recomiendo ver un programa de Iñaki Gabilondo que se llama "Cuando yo no esté", el capítulo en el que entrevista a Neil Degrasse Tyson y hablan sobre ese tema. Me parece recordar que de Neil Degrasse decía que había más premios nobel en su instituto del Bronx de los que tenía España.

ChukNorris

#41 Es que su instituto del Brownx tiene 8 Nobel ...

K_os

En los països catalans, sin el C1 de catalán no les dejarían ni atender el bar de un instituto de secundaria.

R

Me suena a oferta de trabajo específica para enchufar a uno.

m

como en todo, primará la burocracia y el enchufismo. así, si hace falta "eso" para entrar, al "hijo de" ya lo irán preparando para que cumpla precisamente eso, y nada más.

s

#84 Tampoco quería decir eso. Pero sí tienes que saber como se implementan las cosas. Y si no sabes del tema, es mejor decirlo, y no pontificar sobre algo que no estás diciendo correctamente. No pasa nada por decir que no eres un experto. Y, en mi experiencia, raramente se hace.

Yo lo pensaba más por los SVM, y la forma que lo explican, que para mí no es la correcta.

D

Una pregunta a los que defienden o apoya en cierto sentido las tesis de la aneca...cuantos habeis realizado un proceso de acreditacion en este entidad?..porque el tramite es ciertamente lamentable..hasta llegar al punto de que cuando solicitas los baremos y normativas empleados ..te dan largas o te cuelgan el telefono directamente....

fperez

El único criterio es ser amigo del catedrático que ya esté.

powerline

Por eso España produce tanto premio Nobel. Concretamente 0 desde hace 60 años.

A

Yo creo que la falacia del argumento está en confundir lo siguiente: se puede ganar el Nobel sin ser catedrático, y se puede ser catedrático sin tener el Nobel. Muchos de estos Nobeles no era ni son catedráticos, o su equivalente.

La pregunta es: ¿tiene la ANECA capacidad para acreditar para una categoría profesional (como una cátedra) a aquel que tenga un Nobel aunque no llegue al mínimo de publicaciones? Esa es la verdadera cuestión sobre los criterios de evaluación y no estas comparaciones absurdas que dan titulares.

Y aquí venimos al segundo quid, que te acredites para una determinada posición no significa que tengas dicha categoría profesional, sólo dice que puedes optar a un concurso-oposición para obtenerla; es decir que ANECA podría llegar a reconocer a alguien dicha categoría pero luego hay que opositar para finalmente tener dicho puesto. La Universidad (en la LOU, la LOMLOU, o cualquiera de las anteriores) es en realidad la que no tiene mecanismos de reconocimiento de la excelencia permitiendo que personas excepcionales que obtengan en Nobel u otro premio (Principe de Asturias, Jaume I, Cervantes) tengan un puesto a la altura del reconocimiento sin pasar por la oposición.

D

Normal que no generase ruido, si la mayoría de la gente normal no sabe ni para que vale un catedrático.

D

Mi pregunta desde fuera.
Aunque no son incompatibles, no tienen porque ser simultáneas. Mejor si lo son, claro.
¿queremos una universidad que forme los mejores médicos, ingenieros, historiadores... o queremos la universidad quie haga los mejores descubrimientos en el campo de la medicina, la ingeniería, la historia...?
A la hora de contestar, recordad que los descubrimientos están rápidamente a disposición de todos los maestros.

waterbear

#35 En mi experiencia en la universidad vi a profesores que se dedicaban más a su faceta docente y otros a la investigadora. De hecho los méritos de investigación se recompensan con reducción de horas de docencia. Así que yo creo que hay todo un espectro de combinaciones. No creo que sea útil ni el extremo del docente que presenta el mismo material anticuado, ni el científico puntero que no sabe comunicar. Lo ideal es tener gente que esté a la última sobre las novedades, las sepa divulgar a sus alumnos y les permita trabajar en campos avanzados.

D

#37 Añadiría que quizás es algo que se puede compatibilizar, seguramente haya personas que solo deberían ser investigadores y como mucho colaborar con que se impartan clases.

En cierta forma me parece infravalorar la enseñanza que alguien de clase sin formación pedagógica, o por lo menos sin un apoyo en ese sentido.

s

#35 #37 En mi experiencia, están totalmente relacionadas. Te pongo un ejemplo muy de moda ahora: el deep learning. Cada vez que he escuchado a un profesor que no investiga hablar sobre el tema, y explicar su funcionamiento, se me ha caído el alma a los pies. Suelto un par de frases molonas, y a otra cosa.

Si no estás a la última, no dominas el tema. Y si no dominas el tema, no puedes formar de la mejor manera a nadie.

waterbear

#73 Creo que entiendo el fondo de lo que dices. Pero no creo que se pueda ser tan tajante. Hay muchos niveles de "dominar el tema". Un profesor que haya trasteado con TensorFlow va a estar en mejor posición que otro que conozca el tema de oídas. Pero tampoco creo que podamos decir que o has trabajado en el equipo de AlphaGo o no vales para dar clase de esto.

D

el sistema educativo español es de lo peor que hay en el mundo, desde abajo hasta arriba

D

Más de una vez se me ha criticado en Menéame mi visión de la ciencia actual en la mayor parte de Europa: un montón de dinero tirado en gente que solo se preocupa en publicar cosas, inservibles pero publicables, y en ir a conferencias a ponerse finos de canapés. Y encima se venden a sí mismos como a los salvadores de la humanidad.

D

Es como decir que Steve Jobs que no tuvo título universitario no podría ser catedrático de una universidad de empresas. Pues no. Vaya noticia. O que los fp informáticos no pueden ser profesores de universidad aunque sean mejores técnicamente que muchos ingenieros.

TrolB612

La noticia se podia cambiar por esta: "Estos 23 futbolistas ganadores del balon de oro nunca podrian jugar en 1º division"

D

Decir universidad y españa en una misma frase es un sinsentido.