emulenews

#6,#7,#8 Hay dos cuestiones separadas e importantes.

Por un lado, la posible observación de modos B primordiales gracias a Planck. Mucho menos sensible que BICEP2, los buscará en un 70% del cielo, un área unas 30 veces mayor que la ventana de BICEP2. Si el valor de r > 0,05 (BICEP2 apunta a r > 0,1) entonces Planck los observará. Pero si r < 0,05 será incapaz.

Y por otro lado, la colaboración entre Planck y BICEP2 para tratar de estimar (estadísticamente) la contribución del polvo galáctico en la ventana de BICEP2 con objeto de limpiar la señal y desvelar los modos B primordiales. El proceso es muy complicado por las grandes diferencias en sensibilidad entre Planck y BICEP2. Si la contribución del polvo a la señal de BICEP2 es menor de un 80%, se podría limpiar desvelando modos B en la señal de BICEP2 (con r < 0,1). Pero si la contribución del polvo es mayor, la limpieza será casi imposible.

Para acabar, sobre BICEP2, la verdad, Planck va a poder aportar bastante poco. En primavera se espera la publicación de los datos de Keck (5 detectores tipo BICEP2, que durante un año han funcionado a 2 frecuencias). Lo más relevante sobre BICEP2 vendrá gracias a Keck. Pero nadie espera que sea concluyente. Seguramente tendremos que esperar a los datos de BICEP3 en 2017.

Lo siento, la ciencia va despacio.

emulenews

#3 la pizarra no era usada por la NASA. La hizo fabricar el fotógrafo de LIFE para hacer una foto "estéticamente" atractiva.

emulenews

#10 el tiempo de ejecución del memalgoritmo es polinomial (lineal, de hecho). Lo que sería no polinomial es el tiempo de simularlo en un ordenador convencional.

El problema de la memcomputación es que no es escalable. La razón es que hay que distinguir entre un número exponencial de frecuencias en un intervalo finito del espectro. Obviamente hay límites físicos que impiden escalar el sistema más allá de los "problemas de juguete". Se puede imaginar un sistema que amplifique la diferencia entre las frecuencias cercanas de interés, pero no está demostrado que esta amplificación se pueda realizar con un número polinomial de recursos.

#11 cuidado, no se trata de una computación paralela con un número exponencial de procesadores. El número de procesadores crece linealmente. Lo que crece de forma exponencial es el número de estados (frecuencias en este caso) en cada procesador.


#11 dice "no es P igual a NP según la definición original de ambas clases". Obviamente dicha frase la has copiado del primer párrafo de mi artículo. ¿"titulares gancho"? Sí, lo acepto, está copiado del titular del artículo técnico...

emulenews

#5 se puede simular en un ordenador normal (igual que un ordenador cuántico también se puede simular), pero se pierde la eficiencia del no determinismo y se pierde la "magia" memcomputacional (ya no hay prueba de que NP=P).

emulenews

#1 hoy todos los físicos pensamos que el modelo estándar es un desscripción "efectiva" de la realidad, es decir, no es la teoría definitiva, porque hay muchas cosas que sabemos que no explica. Por tanto, la realidad es más complicada que la descrita por el modelo estándar. La teoría definitiva podría ser más sencilla, pero predecir más cosas, o ser más complicada, no la conocemos aún.

emulenews

Si a alguien le interesa mi opinión sobre el trabajo científico "Sobre los axiones que podría haber observado XMM-Newton de la ESA" http://francis.naukas.com/2014/10/21/sobre-los-axiones-que-podrian-haberse-observado-en-el-sol/

emulenews

En mi opinión, este Premio Nobel ha querido premiar a Nakamura (que aparece en todas las quinielas desde 2002). Lo que en mi opinión molesta a Holonyak es que le acompañe Akasaki; de la época de Akasaki hay muchos que podrían haber acompañado a Nakamura, incluido el propio Holonyak. Si el premio hubiera sido sólo a Nakamura creo que Holonyak no estaría molesto.

emulenews

#7 la verdad, no sé qué pensaron, pero creo que les cegó tener 7 sigmas sin polvo en una región en la que parecía que no había polvo; supongo que pensaron que aunque hubiera algo de polvo podrían perder algunas sigmas, pero 7 son una barbaridad y se sentían muy seguros.

Como en el caso de OPERA, seguro que hay detalles personales entre los jefes que han llevado a la situación actual. Por fortuna en ciencia se aprende de los errores y la comunidad modera todos los excesos. Las decisiones de cambiar el diseño del Keck-array sobre la marcha y de colaborar con Planck son muy positivas. Creo que el año próximo serán consideradas como una gran decisión que nunca se hubiera tomado sin el "fiasco" de las 7 sigmas. Un error grave "acientífico" convertido en un gran acierto "científico".

emulenews

#5 La asociación entre 5 sigmas y un descubrimiento es muy perniciosa. Confunde a muchos expertos.

Cuando se obtienen indicios a 3 sigmas, y luego a 4, para acabar con 5 sigmas, los acontecimientos son muy diferentes a cuando se obtienen indicios a 5 sigmas y luego a 7 sigmas. Hay expertos que se confunden con esto.

La observación de algo por primera vez es sólo eso, la primera observación. Las sigmas que tenga no significan nada (lo que ves muy claro depende de lo claro que lo quieras ver). Hasta que haya una nueva observación con más sigmas no significa nada. Los medios y los expertos que buscan eco mediático confunden muchas veces el progreso científico con ser famosos y ver su foto en el New York Times.

Pero son personas y debemos aceptar que actúan como tales. La ciencia la hacen personas. Dentro de 50 años cuando leamos los libros de historia de la ciencia sobre los grandes descubrimientos de nuestra época actual nos gustará disfrutar sabiendo que fueron personas (aunque ahora mismo nos moleste que sean personas como nosotros, con sus virtudes y sus defectos).

emulenews

Este tipo de cuestiones son muy instructivas. Por ejemplo, ¿cuántas hormigas hay en tu casa? La respuesta se puede estimar sabiendo cuántas has visto durante la última semana.

emulenews

En sentido estricto, duplicada por 17 minutos, pero no soy yo la persona más adecuada para indicarlo.

emulenews

#3, leí que había llegado a Tenerife el sábado 13, pero parece que llegó el viernes 12. He cambiado la entrada.

emulenews

#35 ¡Cuidado con la wikipedia! El "Grupo Local" no es un cúmulo galáctico. Es un grupo de galaxias que pertenece a un cúmulo galáctico, llamado desde hace mucho tiempo "Cúmulo de Virgo". Por supuesto, este cúmulo debe pertenecer a un supercúmulo y en algunos sitios de la web le llaman "Supercúmulo de Virgo". Pero, cuidado, llamar a dos cosas con el mismo nombre no es adecuado y los astrofísicos no suelen hacerlo. Nuestro supercúmulo no tenía nombre y quienes llamaban supercúmulo de Virgo al supercúmulo que contenía al cúmulo de Virgo ignoraban la diferencia entre supercúmulo y cúmulo.

Por ello, ahora que hemos determinado los cúmulos galácticos (entre ellos el de Virgo) que pertenecen a nuestro supercúmulo galáctico ha habido que ponerle un nombre nuevo.

emulenews

#45 He escrito una entrada en mi blog aclarando (espero) estos puntos y cómo funciona el experimento.

emulenews

#45 No, no te confundas, no lo están. En el experimento de Zeilinger y su grupo, el haz verde incidente está polarizado horizontalmente respecto al eje del cristal no lineal NL1 de tal forma que los dos fotones (rojo y amarillo) que lo abandonan están polarizados horizontalmente; por tanto su estado no está entrelazado, sino que es un estado producto (o separable) tipo Hr>Ha>. Si el fotón verde incidente tuviera una polarización a 45º respecto al eje del cristal NL1 entonces los fotones rojo y amarillo estarían entrelazados (estado entrelazado tipo Bell Hr>Ha>+Vr>Va>).

¿Has leído el artículo técnico? Está en ArXiv y es gratis. Tienes que leer los primeros párrafos de la introducción.