Más de un 60% de los experimentos realizados por equipos de investigación o en la industria internacional fallan (no producen ningún resultado) y quedan olvidados. Aunque estos experimentos “secundarios” puedan considerarse frustrantes, generan gran cantidad de conocimiento de alto nivel. ”The All Results Journals”
#3:
Es realmente frustrante intentar repetir un experimento y repetir los mismos errores, eso obstaculiza enormemente el avance de las investigaciones. Siempre me he preguntado porqué no comentan en los artículos los pasos en falso que han dado.
Bien por la revista!
#12:
En una investigación científica se plantea una cuestión y se crea un experimento que pueda responder la pregunta. Para esa pregunta se aventura un hipotético resultado, la hipótesis que tendremos que confrontar con nuestros datos obtenidos siguiendo el método científico. Por lo tanto, el resultado de un experimento científico puede ser:
Sí --> Los datos avalan la hipótesis que hemos propuesto. Es decir, la explicación que hemos propuesto es correcta o la respuesta a nuestra pregunta es sí.
No --> Los datos refutan la hipótesis propuesta. Por lo tanto, la explicación que habíamos propuesto es incorrecta o bien la respuesta a nuestra pregunta es no.
No lo sé --> Los resultados no son concluyentes porque o hemos planteado mal el experimento (por ejemplo la falta de un control) o porque la técnica que hemos usado no es adecuada o quizá hemos planteado mal la pregunta.
Evidentemente, un "sí" o "no" son buenos resultados mientras que un "no lo sé" es malo en cuanto no añade conocimiento.
El problema en las revistas es que muchas veces es fácil camuflar un "no lo sé" por un "no", por lo cual muchas revistas tienden a no aceptar esa clase de resultados. Al mismo tiempo, los científicos pasamos un mal rato tratando de explicar por qué hemos tenido un "no" y sobre todo por qué es un "no lo sé", por lo que mucha gente se evita enviar esos resultados.
La aparición de esa revista es una buena noticia. Espero que sean rigurosos y no se convierta en un basurero de malas investigaciones camufladas.
Es realmente frustrante intentar repetir un experimento y repetir los mismos errores, eso obstaculiza enormemente el avance de las investigaciones. Siempre me he preguntado porqué no comentan en los artículos los pasos en falso que han dado.
En una investigación científica se plantea una cuestión y se crea un experimento que pueda responder la pregunta. Para esa pregunta se aventura un hipotético resultado, la hipótesis que tendremos que confrontar con nuestros datos obtenidos siguiendo el método científico. Por lo tanto, el resultado de un experimento científico puede ser:
Sí --> Los datos avalan la hipótesis que hemos propuesto. Es decir, la explicación que hemos propuesto es correcta o la respuesta a nuestra pregunta es sí.
No --> Los datos refutan la hipótesis propuesta. Por lo tanto, la explicación que habíamos propuesto es incorrecta o bien la respuesta a nuestra pregunta es no.
No lo sé --> Los resultados no son concluyentes porque o hemos planteado mal el experimento (por ejemplo la falta de un control) o porque la técnica que hemos usado no es adecuada o quizá hemos planteado mal la pregunta.
Evidentemente, un "sí" o "no" son buenos resultados mientras que un "no lo sé" es malo en cuanto no añade conocimiento.
El problema en las revistas es que muchas veces es fácil camuflar un "no lo sé" por un "no", por lo cual muchas revistas tienden a no aceptar esa clase de resultados. Al mismo tiempo, los científicos pasamos un mal rato tratando de explicar por qué hemos tenido un "no" y sobre todo por qué es un "no lo sé", por lo que mucha gente se evita enviar esos resultados.
La aparición de esa revista es una buena noticia. Espero que sean rigurosos y no se convierta en un basurero de malas investigaciones camufladas.
La publicación constante de artículos en “The All Results Journals” proporciona una optimización del gasto tanto económico como de recursos humanos en el campo de la investigación científica actual. “The All Results Journals” ofrece la oportunidad de publicar resultados que hasta la fecha quedaban guardado en el cajón y que, perfectamente, pueden utilizarse para justificación de esfuerzos (proyectos) ante distintas administraciones nacionales o internacionales. Además este tipo de revistas podría también ayudar a completar la formación del personal investigador novel de esta otra forma: antes de empezar cualquier proyecto de investigación, los investigadores seniors podrían recomendar a estos el escribir una pequeña revisión sobre los experimentos que no han salido en ese campo particular. Este artículo podrían presentarlo en “The All Results Journals” los propios investigadores noveles, aprendiendo de esta forma (y siempre bajo la tutela del investigador principal) otro elemento decisivo en el mundo académico como es la búsqueda bibliográfica, la presentación, envió de artículos y el proceso de revisión por pares. De esta forma los investigadores noveles tendrían una formación mucho mas completa y útil para su desarrollo profesional.
Cuando Thomas Alva Edison (1847-1931) inventó la bombilla, no le salió a la primera, sino que realizó más de mil intentos, hasta el punto de que uno de los discípulos que colaboraba con él en el taller le preguntó si no se desanimaba ante tantos fracasos. Y aquí entra la cuestión de la percepción del error, porque Edison respondió: "¿Fracasos? No sé de qué me hablas. En cada descubrimiento me enteré de un motivo por el cual una bombilla no funcionaba. Ahora ya sé mil maneras de no hacer una bombilla".
Pero hay un problema con los resultados negativos que sin duda conoceis. Cuando un resultado es positivo demuestra que existen diferencias estadísticamente significativas entre los tratamientos, y ojo, independientemente de si éstas van a favor o en contra de la hipótesis del experimentador. Sin embargo, cuando un resultado es negativo y no se han encontrado dichas diferencias esto puede deberse a dos causas: o bien no existen tales diferencias o bien hemos hecho mal el experimento (con errores etc). El método científico no hace posible saber cuál de estas posibilidades es la real, y esta es la verdadera razón de fondo que hace que se prefiera publicar resultados positivos (el famoso bias). Esto lo pone cualquier manual clásico de metodología de la investigación, pero de todas maneras a mí me parece bien que exista esta revista, su filosofía me recuerda a la de "Medical Hypothesis" (pero esa es otra historia, je)
Sea como sea es importante, para no cometer los mismos errores, o trabajar sobre ellos, que como ya se ha dicho, a veces son más importantes que un resultado puntual.
Esto ha pasado multitud de veces en el campo de la informática: imaginas un nuevo algoritmo, bastante complejo, por supuesto, que soluciona un problema en tiempo o espacio de órdenes más reducidos. Entonces implementas, feliz y orgulloso de ti mismo y tu mente privilegiada. Cuando llegan las pruebas, ves que el castillo de naipes comienza a desmoronarse, el rendimiento no es el que preveías en el estudio teórico, etc. En la programación paralela, por ejemplo, suelen pasar este tipo de cosas
Y por cierto, uno de mis sueños húmedos más recurrentes consiste en que viajo atrás en el tiempo, localizo al matemático Fisher y lo mato antes de que, arbitrariamente, se nos fosilice ese "alpha = .05" de las narices. ¿Por qué no alpha = .07? ¡Tendría el despacho lleno de resultados para publicar! ¡Maldita sea!
...Desde hace algún tiempo estoy empeñado en pasarme a la estadística Bayesiana, con el objetivo apenas disimulado de encontrar formas de vender lo que era invendible. Obviamente, fracasaré en esta empresa tan egoísta (y absurda). Pero, en el transcurso de mi aventura, quizá habré aprendido a usar una herramienta mucho más útil y sensata que la dichosa estadística frecuentista, la de las "hipótesis nulas" que motiva precisamente esta revista.
#5 Realmente no creo que el experimento fallase. Demostraron la inexistencia del éter cósmico. Quizá no era lo que pretendían encontrar, pero demostraron algo. Yo entiendo que un experimento falla cuando sus resultados ni demuestran ni descartan la hipótesis de partida.
Comentarios
De los errores también se aprende y mucho.
Es realmente frustrante intentar repetir un experimento y repetir los mismos errores, eso obstaculiza enormemente el avance de las investigaciones. Siempre me he preguntado porqué no comentan en los artículos los pasos en falso que han dado.
Bien por la revista!
YUJUUUUU ya voy a poder publicar todos los resultados de mi tesis!!!
En una investigación científica se plantea una cuestión y se crea un experimento que pueda responder la pregunta. Para esa pregunta se aventura un hipotético resultado, la hipótesis que tendremos que confrontar con nuestros datos obtenidos siguiendo el método científico. Por lo tanto, el resultado de un experimento científico puede ser:
Sí --> Los datos avalan la hipótesis que hemos propuesto. Es decir, la explicación que hemos propuesto es correcta o la respuesta a nuestra pregunta es sí.
No --> Los datos refutan la hipótesis propuesta. Por lo tanto, la explicación que habíamos propuesto es incorrecta o bien la respuesta a nuestra pregunta es no.
No lo sé --> Los resultados no son concluyentes porque o hemos planteado mal el experimento (por ejemplo la falta de un control) o porque la técnica que hemos usado no es adecuada o quizá hemos planteado mal la pregunta.
Evidentemente, un "sí" o "no" son buenos resultados mientras que un "no lo sé" es malo en cuanto no añade conocimiento.
El problema en las revistas es que muchas veces es fácil camuflar un "no lo sé" por un "no", por lo cual muchas revistas tienden a no aceptar esa clase de resultados. Al mismo tiempo, los científicos pasamos un mal rato tratando de explicar por qué hemos tenido un "no" y sobre todo por qué es un "no lo sé", por lo que mucha gente se evita enviar esos resultados.
La aparición de esa revista es una buena noticia. Espero que sean rigurosos y no se convierta en un basurero de malas investigaciones camufladas.
Tods los "inventores" han copiado de alguien mas o han seguido experiementos pasados.
Asi que veo muy bien que muestren resultados, bien por la revista!
El experimento fallido más famoso de la historia
http://es.wikipedia.org/wiki/Experimento_de_Michelson_y_Morley#El_experimento_fallido_m.C3.A1s_famoso_de_la_historia
La publicación constante de artículos en “The All Results Journals” proporciona una optimización del gasto tanto económico como de recursos humanos en el campo de la investigación científica actual. “The All Results Journals” ofrece la oportunidad de publicar resultados que hasta la fecha quedaban guardado en el cajón y que, perfectamente, pueden utilizarse para justificación de esfuerzos (proyectos) ante distintas administraciones nacionales o internacionales. Además este tipo de revistas podría también ayudar a completar la formación del personal investigador novel de esta otra forma: antes de empezar cualquier proyecto de investigación, los investigadores seniors podrían recomendar a estos el escribir una pequeña revisión sobre los experimentos que no han salido en ese campo particular. Este artículo podrían presentarlo en “The All Results Journals” los propios investigadores noveles, aprendiendo de esta forma (y siempre bajo la tutela del investigador principal) otro elemento decisivo en el mundo académico como es la búsqueda bibliográfica, la presentación, envió de artículos y el proceso de revisión por pares. De esta forma los investigadores noveles tendrían una formación mucho mas completa y útil para su desarrollo profesional.
Cuando Thomas Alva Edison (1847-1931) inventó la bombilla, no le salió a la primera, sino que realizó más de mil intentos, hasta el punto de que uno de los discípulos que colaboraba con él en el taller le preguntó si no se desanimaba ante tantos fracasos. Y aquí entra la cuestión de la percepción del error, porque Edison respondió: "¿Fracasos? No sé de qué me hablas. En cada descubrimiento me enteré de un motivo por el cual una bombilla no funcionaba. Ahora ya sé mil maneras de no hacer una bombilla".
Pero hay un problema con los resultados negativos que sin duda conoceis. Cuando un resultado es positivo demuestra que existen diferencias estadísticamente significativas entre los tratamientos, y ojo, independientemente de si éstas van a favor o en contra de la hipótesis del experimentador. Sin embargo, cuando un resultado es negativo y no se han encontrado dichas diferencias esto puede deberse a dos causas: o bien no existen tales diferencias o bien hemos hecho mal el experimento (con errores etc). El método científico no hace posible saber cuál de estas posibilidades es la real, y esta es la verdadera razón de fondo que hace que se prefiera publicar resultados positivos (el famoso bias). Esto lo pone cualquier manual clásico de metodología de la investigación, pero de todas maneras a mí me parece bien que exista esta revista, su filosofía me recuerda a la de "Medical Hypothesis" (pero esa es otra historia, je)
Muchas veces se aprende más de un fracaso que de una victoria.
#5 Un fiasco que les valió nada menos que un premio Nobel. ¡Para que luego digan de Obama!
VIVA EL ERROR!!!
#2 En Ciencia; ahora bien, en política...
Y es que la ciencia no son los resultados sino el proceso.
Sea como sea es importante, para no cometer los mismos errores, o trabajar sobre ellos, que como ya se ha dicho, a veces son más importantes que un resultado puntual.
Esto ha pasado multitud de veces en el campo de la informática: imaginas un nuevo algoritmo, bastante complejo, por supuesto, que soluciona un problema en tiempo o espacio de órdenes más reducidos. Entonces implementas, feliz y orgulloso de ti mismo y tu mente privilegiada. Cuando llegan las pruebas, ves que el castillo de naipes comienza a desmoronarse, el rendimiento no es el que preveías en el estudio teórico, etc. En la programación paralela, por ejemplo, suelen pasar este tipo de cosas
#10 Me lo vas a contar a mí, que de cada 100 experimentos que hago, me salen significativos 5... NOTA: trabajo con un alpha = .05
Y por cierto, uno de mis sueños húmedos más recurrentes consiste en que viajo atrás en el tiempo, localizo al matemático Fisher y lo mato antes de que, arbitrariamente, se nos fosilice ese "alpha = .05" de las narices. ¿Por qué no alpha = .07? ¡Tendría el despacho lleno de resultados para publicar! ¡Maldita sea!
...Desde hace algún tiempo estoy empeñado en pasarme a la estadística Bayesiana, con el objetivo apenas disimulado de encontrar formas de vender lo que era invendible. Obviamente, fracasaré en esta empresa tan egoísta (y absurda). Pero, en el transcurso de mi aventura, quizá habré aprendido a usar una herramienta mucho más útil y sensata que la dichosa estadística frecuentista, la de las "hipótesis nulas" que motiva precisamente esta revista.
#22 Es lo que tiene empalmar postdoc tras postdoc, siempre en precario: ¡que es mucho tiempo!
massive dinamics
A mi me parece increíble que esto no existiera antes, la verdad.
¿algún día llegaremos a saberlo todo?
#19 Me flipa más que tengas financiación sufi como para hacer 100 experiments, eso sí que es molar jajajaja (do I need to say I'm ironic?)
#5 Realmente no creo que el experimento fallase. Demostraron la inexistencia del éter cósmico. Quizá no era lo que pretendían encontrar, pero demostraron algo. Yo entiendo que un experimento falla cuando sus resultados ni demuestran ni descartan la hipótesis de partida.
#23 Pues mira que yo llevo ya dos años en el mismo experimento... y lo que me queda . Es lo que tiene la física, supongo.