Un artículo conjunto de Emmanuel Candés y Terence Tao frenó en seco la carrera por ver quién tiene más megapixeles y de paso, mejoró la vida a miles de pacientes
#16:
#6#7#9#11 He estado leyendo más sobre este tema y la verdad que mejor irse a la fuente original de la técnica (http://web.media.mit.edu/~guysatat/singlepixel/ ) porque resulta algo sensacionalista decir que "revoluciona la cámara de tu móvil" o con bastante imprecisiones, pero no me voy a meter en ello, ya que siendo un medio generalista con periodista generalista no podemos esperar más.
Para entender la técnica de compressed sensing en fotografía creo que hay que empezar por explicar en que entorno surge, es en las cámaras de 1px con arduino que muestran en la foto del artículo (que no es una cámara que haga uso de esta técnica) es simplemente un sensor de 1px montado sobre dos servos que se van moviendo y tomando la información pixel a pixel https://www.youtube.com/watch?v=x0bb9r98WQ0
#6:
No me he leido la técnica de sampleo aún, pero como fotógrafo aficionado no me parece correcta esta afirmación:
"¿Para qué recopilar todos esos píxeles si luego vamos a descartar los que no sean esenciales? ¿No sería más sencillo que la cámara capturara sólo aquella información que va a necesitar?"
Si la vas a pasar a un formato comprimido puedo tomar barco como animal acuatico, ¿pero si estás tomando la foto en RAW? Perder información no es una opción.
Según el artículo lo que hace es descartar información "no esencial":
"Lo que hace esta técnica es utilizar un puñado de puntos clave en la imagen para lograr reconstruirla a posteriori con el uso de algoritmos y computación. Así, han logrado imágenes con la misma calidad pero una milésima parte de la información necesaria para una fotografía en alta definición."
Básicamente lo que hace el formato JPG, guardar puntos clave y mediante algoritmos suponer la otra información. ¿En qué mejora esto la posibilidad de utilizar sensores con menor resolución? Según entiendo con la noticia lo que hace es utilizar menos buffer y ganaría en velocidad de escritura pero no en calidad, de hecho empeoraría. La afirmación que hacen "las diferencias entre una fotografía que pesa 4 megas y su equivalente comprimido son imperceptibles a simple vista" es de alguien que ha comprimido bastante poco en JPG, en un ordenador o móvil quizás no se aprecie (que si se aprecia) la diferencia de calidad de una foto de 4MB o una de 200KB pero cuando tienes que ampliar o imprimir eso de "imperceptible a simple vista" lo dejamos para mañana.
Ahora me voy a leer el artículo de "Compressed sensing" a ver si es que el autor del artículo no se lo ha leido y faltan detalles.
En el artículo no se entra en detalles sobre las técnica del "sampleo" de imágenes, así que me he dado un paseo por el artículo de Wikipedia que enlaza la noticia y ahora siento pavor imaginando ser el entrevistador, intentando tener una conversación con tal genio matemático.
#2 A veces es un reto gigante entrevistar a gente que está tan por encima intelectualmente y más cuando encima te toca entrar en la materia que más domina...
#3 Por eso yo intento simplificar mis explicaciones y adaptarme a un nivel general lo suficientemente bajo para que la mayoría de la población logre entenderme si se esfuerzan un poquito.
No me he leido la técnica de sampleo aún, pero como fotógrafo aficionado no me parece correcta esta afirmación:
"¿Para qué recopilar todos esos píxeles si luego vamos a descartar los que no sean esenciales? ¿No sería más sencillo que la cámara capturara sólo aquella información que va a necesitar?"
Si la vas a pasar a un formato comprimido puedo tomar barco como animal acuatico, ¿pero si estás tomando la foto en RAW? Perder información no es una opción.
Según el artículo lo que hace es descartar información "no esencial":
"Lo que hace esta técnica es utilizar un puñado de puntos clave en la imagen para lograr reconstruirla a posteriori con el uso de algoritmos y computación. Así, han logrado imágenes con la misma calidad pero una milésima parte de la información necesaria para una fotografía en alta definición."
Básicamente lo que hace el formato JPG, guardar puntos clave y mediante algoritmos suponer la otra información. ¿En qué mejora esto la posibilidad de utilizar sensores con menor resolución? Según entiendo con la noticia lo que hace es utilizar menos buffer y ganaría en velocidad de escritura pero no en calidad, de hecho empeoraría. La afirmación que hacen "las diferencias entre una fotografía que pesa 4 megas y su equivalente comprimido son imperceptibles a simple vista" es de alguien que ha comprimido bastante poco en JPG, en un ordenador o móvil quizás no se aprecie (que si se aprecia) la diferencia de calidad de una foto de 4MB o una de 200KB pero cuando tienes que ampliar o imprimir eso de "imperceptible a simple vista" lo dejamos para mañana.
Ahora me voy a leer el artículo de "Compressed sensing" a ver si es que el autor del artículo no se lo ha leido y faltan detalles.
#6 Yo he entendido lo mismo que tú. Creo que la novedad es que la compresión de la imagen la hace directamente el hardware del sensor. Esto puede optimizar mucho el tratamiento de la imagen dentro de la cámara, pero a costa de la fidelidad de la imagen. Supongo que habrá ámbitos de aplicación donde se pueda renunciar a un poco de fidelidad de la imagen, a cambio de poder procesar más imágenes en el mismo tiempo o con la misma memoria.
#7 No tengo ni idea de todo este tema, pero tal y como lo cuentas, a mí me parece un retroceso. Si hace la compresión el hardware directamente no tienes la posibilidad de volver atrás. A mí dame la imagen lo más grande y con la mayor información posible, que yo ya la adaptaré para cada uso que quiera darle.
#6#7#9#11 He estado leyendo más sobre este tema y la verdad que mejor irse a la fuente original de la técnica (http://web.media.mit.edu/~guysatat/singlepixel/ ) porque resulta algo sensacionalista decir que "revoluciona la cámara de tu móvil" o con bastante imprecisiones, pero no me voy a meter en ello, ya que siendo un medio generalista con periodista generalista no podemos esperar más.
Para entender la técnica de compressed sensing en fotografía creo que hay que empezar por explicar en que entorno surge, es en las cámaras de 1px con arduino que muestran en la foto del artículo (que no es una cámara que haga uso de esta técnica) es simplemente un sensor de 1px montado sobre dos servos que se van moviendo y tomando la información pixel a pixel
#6 Totalmente de acuerdo contigo. Como en casi todos los artículos de divulgación científica el autor del artículo no se entera de nada y acaba contando una milonga de tres pares de cojones.
#6Básicamente lo que hace el formato JPG, guardar puntos clave y mediante algoritmos suponer la otra información. ¿En qué mejora esto la posibilidad de utilizar sensores con menor resolución?
Lo mejora porque estos algoritmos, al contrario que los que utiliza jpeg no "suponen" la informacion. La capturan con la misma fiabilidad pero con menor numero de puntos de captura, que es distinto. La mejor forma de entenderlo es olvidarse de la óptica (momentaneamente) y centrarse en que las matemáticas llevan años rompiendo barreras "físicas". El diámetro del objetivo ya no es necesariamente un limite para la minima resolucion disponible, independientemente de la resolucion del sensor, por ejemplo.
/Si no te convence, mírate el brutal aceleramiento de la calidad de la astrofotografia en la última década. Con tiempo y sapiencia, hoy cualquier amateur puede capturar imagenes astronómicas desde la terraza de una gran ciudad con instrumentacion bien modesta que rivalizan con las que conseguían solo los mejores observatorios del planeta hace 25 o 30 años.
Para lo que no sean expertos en procesamiento de imagen, JPEG se basa en descomponer la imagen en pequeños bloques de 8x8 píxeles y aplicar una transformada en frecuencia conocida como DCT-II. Esto hace que tengamos 64 coeficientes de frecuencias. Las más bajas corresponden a variaciones muy suaves (digamos, un degradado de color) y las más rápidas o altas a texturas y ruido. JPEG minimiza las altas frecuencias.
En compressed sending lo que se hace es calcular una transformada en frecuencia de la imagen y tomar coeficientes aleatorios. Eso es importante: aleatorios. Si se toman suficientes, es posible reconstruir perfectamente o suficientemente bien la imagen con un algoritmo de optimización.
Esto es importante para los TAC, donde se irradia a los pacientes. Con esta técnica se toman menos muestras y se reconstruye la imagen, con menos riesgo para la persona.
Una cosa es que por ejemplo importe más la calidad óptica (calidad del sensor óptico, por ejemplo que no meta excesivo ruido a la imagen) que los megapixeles (resolución). Pero si tu tienes una imagen basado en el mismo sensor de 1.000.000 de pixeles es imposible que una de 100.000 pixeles sea mejor. Es como si dijésemos que el formato MP3 es mejor que el formato WAV (datos puros).
Y de hecho lo que hace es eso un muestreo como cuando se pasa un archivo de WAV a MP3. Siendo que dependiendo del bitrate y de la frecuencia de muestreo cogeremos más o menos puntos, para construir este archivo MP3. Cuanto más alto sea el bitrate más se parecerá al original, y obviamente ocupará más.
Una onda analógica (por ejemplo senoidal) tiene infinitos valores. Si cogemos x valores de dicha onda, podremos tener una resultante parecida al original, cuantos más valores más parecida, pero nunca será como la original. Por eso es imposible que si tienes (o en este caso se deban capturar o generar) 1.000.000 de puntos y coges 100.000 tenga la misma calidad.
De hecho si alguien vio una foto en formato RAW de alguna cámara, por ejemplo el formato de Canon (Canon RAW 2) .CR2 ocupan una barbaridad, porque son datos puros o crudos. Es como comparar ese WAV de 50 MB con el MP3 que ocupará unos 4-5 MB (ejemplo, y dependiendo de su calidad claro)
Lo siento pero no lo compro, y menos con imagénes médicas que se pueden usar para diagnosticar.
Si algo se ha conseguido con el Big Data, para el que no sepa de que va, es procesar ingentes cantidades de datos ejem.... anónimos... (me entra risa)... para sacar tendencias interesantes que antes eran imposibles de obtener, o se obtenían únicamente a nivel científico con super ordenadores dedicados en areas muy concretas.
Ahora, nos están diciendo que para ahorrar, vamos a coger un muestreo de píxeles y usar un algoritmo para reconstruir la imagen, osea, inventársela.
Comentarios
Hay https://es.wikipedia.org/wiki/Terence_Tao hay meneo. 👍
nadie va a decir nada de la pose del fulano en la foto?
En el artículo no se entra en detalles sobre las técnica del "sampleo" de imágenes, así que me he dado un paseo por el artículo de Wikipedia que enlaza la noticia y ahora siento pavor imaginando ser el entrevistador, intentando tener una conversación con tal genio matemático.
#2 A veces es un reto gigante entrevistar a gente que está tan por encima intelectualmente y más cuando encima te toca entrar en la materia que más domina...
#3 Por eso yo intento simplificar mis explicaciones y adaptarme a un nivel general lo suficientemente bajo para que la mayoría de la población logre entenderme si se esfuerzan un poquito.
Soy experto en uso del lenguaje apropiado
No me he leido la técnica de sampleo aún, pero como fotógrafo aficionado no me parece correcta esta afirmación:
"¿Para qué recopilar todos esos píxeles si luego vamos a descartar los que no sean esenciales? ¿No sería más sencillo que la cámara capturara sólo aquella información que va a necesitar?"
Si la vas a pasar a un formato comprimido puedo tomar barco como animal acuatico, ¿pero si estás tomando la foto en RAW? Perder información no es una opción.
Según el artículo lo que hace es descartar información "no esencial":
"Lo que hace esta técnica es utilizar un puñado de puntos clave en la imagen para lograr reconstruirla a posteriori con el uso de algoritmos y computación. Así, han logrado imágenes con la misma calidad pero una milésima parte de la información necesaria para una fotografía en alta definición."
Básicamente lo que hace el formato JPG, guardar puntos clave y mediante algoritmos suponer la otra información. ¿En qué mejora esto la posibilidad de utilizar sensores con menor resolución? Según entiendo con la noticia lo que hace es utilizar menos buffer y ganaría en velocidad de escritura pero no en calidad, de hecho empeoraría. La afirmación que hacen "las diferencias entre una fotografía que pesa 4 megas y su equivalente comprimido son imperceptibles a simple vista" es de alguien que ha comprimido bastante poco en JPG, en un ordenador o móvil quizás no se aprecie (que si se aprecia) la diferencia de calidad de una foto de 4MB o una de 200KB pero cuando tienes que ampliar o imprimir eso de "imperceptible a simple vista" lo dejamos para mañana.
Ahora me voy a leer el artículo de "Compressed sensing" a ver si es que el autor del artículo no se lo ha leido y faltan detalles.
#6 Yo he entendido lo mismo que tú. Creo que la novedad es que la compresión de la imagen la hace directamente el hardware del sensor. Esto puede optimizar mucho el tratamiento de la imagen dentro de la cámara, pero a costa de la fidelidad de la imagen. Supongo que habrá ámbitos de aplicación donde se pueda renunciar a un poco de fidelidad de la imagen, a cambio de poder procesar más imágenes en el mismo tiempo o con la misma memoria.
#7 No tengo ni idea de todo este tema, pero tal y como lo cuentas, a mí me parece un retroceso. Si hace la compresión el hardware directamente no tienes la posibilidad de volver atrás. A mí dame la imagen lo más grande y con la mayor información posible, que yo ya la adaptaré para cada uso que quiera darle.
#6 #7 #9 #11 He estado leyendo más sobre este tema y la verdad que mejor irse a la fuente original de la técnica (http://web.media.mit.edu/~guysatat/singlepixel/ ) porque resulta algo sensacionalista decir que "revoluciona la cámara de tu móvil" o con bastante imprecisiones, pero no me voy a meter en ello, ya que siendo un medio generalista con periodista generalista no podemos esperar más.
Para entender la técnica de compressed sensing en fotografía creo que hay que empezar por explicar en que entorno surge, es en las cámaras de 1px con arduino que muestran en la foto del artículo (que no es una cámara que haga uso de esta técnica) es simplemente un sensor de 1px montado sobre dos servos que se van moviendo y tomando la información pixel a pixel
#6 Totalmente de acuerdo contigo. Como en casi todos los artículos de divulgación científica el autor del artículo no se entera de nada y acaba contando una milonga de tres pares de cojones.
#6 Básicamente lo que hace el formato JPG, guardar puntos clave y mediante algoritmos suponer la otra información. ¿En qué mejora esto la posibilidad de utilizar sensores con menor resolución?
Lo mejora porque estos algoritmos, al contrario que los que utiliza jpeg no "suponen" la informacion. La capturan con la misma fiabilidad pero con menor numero de puntos de captura, que es distinto. La mejor forma de entenderlo es olvidarse de la óptica (momentaneamente) y centrarse en que las matemáticas llevan años rompiendo barreras "físicas". El diámetro del objetivo ya no es necesariamente un limite para la minima resolucion disponible, independientemente de la resolucion del sensor, por ejemplo.
/Si no te convence, mírate el brutal aceleramiento de la calidad de la astrofotografia en la última década. Con tiempo y sapiencia, hoy cualquier amateur puede capturar imagenes astronómicas desde la terraza de una gran ciudad con instrumentacion bien modesta que rivalizan con las que conseguían solo los mejores observatorios del planeta hace 25 o 30 años.
Revolucionó. Se dice revolucionó. El artículo induce a pensar que es algo nuevo.
Para lo que no sean expertos en procesamiento de imagen, JPEG se basa en descomponer la imagen en pequeños bloques de 8x8 píxeles y aplicar una transformada en frecuencia conocida como DCT-II. Esto hace que tengamos 64 coeficientes de frecuencias. Las más bajas corresponden a variaciones muy suaves (digamos, un degradado de color) y las más rápidas o altas a texturas y ruido. JPEG minimiza las altas frecuencias.
En compressed sending lo que se hace es calcular una transformada en frecuencia de la imagen y tomar coeficientes aleatorios. Eso es importante: aleatorios. Si se toman suficientes, es posible reconstruir perfectamente o suficientemente bien la imagen con un algoritmo de optimización.
Esto es importante para los TAC, donde se irradia a los pacientes. Con esta técnica se toman menos muestras y se reconstruye la imagen, con menos riesgo para la persona.
Una cosa es que por ejemplo importe más la calidad óptica (calidad del sensor óptico, por ejemplo que no meta excesivo ruido a la imagen) que los megapixeles (resolución). Pero si tu tienes una imagen basado en el mismo sensor de 1.000.000 de pixeles es imposible que una de 100.000 pixeles sea mejor. Es como si dijésemos que el formato MP3 es mejor que el formato WAV (datos puros).
Y de hecho lo que hace es eso un muestreo como cuando se pasa un archivo de WAV a MP3. Siendo que dependiendo del bitrate y de la frecuencia de muestreo cogeremos más o menos puntos, para construir este archivo MP3. Cuanto más alto sea el bitrate más se parecerá al original, y obviamente ocupará más.
Una onda analógica (por ejemplo senoidal) tiene infinitos valores. Si cogemos x valores de dicha onda, podremos tener una resultante parecida al original, cuantos más valores más parecida, pero nunca será como la original. Por eso es imposible que si tienes (o en este caso se deban capturar o generar) 1.000.000 de puntos y coges 100.000 tenga la misma calidad.
De hecho si alguien vio una foto en formato RAW de alguna cámara, por ejemplo el formato de Canon (Canon RAW 2) .CR2 ocupan una barbaridad, porque son datos puros o crudos. Es como comparar ese WAV de 50 MB con el MP3 que ocupará unos 4-5 MB (ejemplo, y dependiendo de su calidad claro)
Salu2
Era algo que tenía que llegar más pronto que tarde
Lo siento pero no lo compro, y menos con imagénes médicas que se pueden usar para diagnosticar.
Si algo se ha conseguido con el Big Data, para el que no sepa de que va, es procesar ingentes cantidades de datos ejem.... anónimos... (me entra risa)... para sacar tendencias interesantes que antes eran imposibles de obtener, o se obtenían únicamente a nivel científico con super ordenadores dedicados en areas muy concretas.
Ahora, nos están diciendo que para ahorrar, vamos a coger un muestreo de píxeles y usar un algoritmo para reconstruir la imagen, osea, inventársela.
Es increíble las imágenes que captan los drones. El único inconveniente de momento es el tema de las baterías de los drones que están muy limitadas.