Hace 6 años | Por --469159-- a elconfidencial.com
Publicado hace 6 años por --469159-- a elconfidencial.com

Un artículo conjunto de Emmanuel Candés y Terence Tao frenó en seco la carrera por ver quién tiene más megapixeles y de paso, mejoró la vida a miles de pacientes

Comentarios

Spirograph
P

nadie va a decir nada de la pose del fulano en la foto?

drone

En el artículo no se entra en detalles sobre las técnica del "sampleo" de imágenes, así que me he dado un paseo por el artículo de Wikipedia que enlaza la noticia y ahora siento pavor imaginando ser el entrevistador, intentando tener una conversación con tal genio matemático.

robertovazquezmarin

#2 A veces es un reto gigante entrevistar a gente que está tan por encima intelectualmente y más cuando encima te toca entrar en la materia que más domina...

D

#3 Por eso yo intento simplificar mis explicaciones y adaptarme a un nivel general lo suficientemente bajo para que la mayoría de la población logre entenderme si se esfuerzan un poquito.

Soy experto en uso del lenguaje apropiado

ElPerroDeLosCinco

#6 Yo he entendido lo mismo que tú. Creo que la novedad es que la compresión de la imagen la hace directamente el hardware del sensor. Esto puede optimizar mucho el tratamiento de la imagen dentro de la cámara, pero a costa de la fidelidad de la imagen. Supongo que habrá ámbitos de aplicación donde se pueda renunciar a un poco de fidelidad de la imagen, a cambio de poder procesar más imágenes en el mismo tiempo o con la misma memoria.

HyperBlad

#7 No tengo ni idea de todo este tema, pero tal y como lo cuentas, a mí me parece un retroceso. Si hace la compresión el hardware directamente no tienes la posibilidad de volver atrás. A mí dame la imagen lo más grande y con la mayor información posible, que yo ya la adaptaré para cada uso que quiera darle.

a

#6 Totalmente de acuerdo contigo. Como en casi todos los artículos de divulgación científica el autor del artículo no se entera de nada y acaba contando una milonga de tres pares de cojones.

perico_de_los_palotes

#6 Básicamente lo que hace el formato JPG, guardar puntos clave y mediante algoritmos suponer la otra información. ¿En qué mejora esto la posibilidad de utilizar sensores con menor resolución?

Lo mejora porque estos algoritmos, al contrario que los que utiliza jpeg no "suponen" la informacion. La capturan con la misma fiabilidad pero con menor numero de puntos de captura, que es distinto. La mejor forma de entenderlo es olvidarse de la óptica (momentaneamente) y centrarse en que las matemáticas llevan años rompiendo barreras "físicas". El diámetro del objetivo ya no es necesariamente un limite para la minima resolucion disponible, independientemente de la resolucion del sensor, por ejemplo.

/Si no te convence, mírate el brutal aceleramiento de la calidad de la astrofotografia en la última década. Con tiempo y sapiencia, hoy cualquier amateur puede capturar imagenes astronómicas desde la terraza de una gran ciudad con instrumentacion bien modesta que rivalizan con las que conseguían solo los mejores observatorios del planeta hace 25 o 30 años.

Sofrito

Revolucionó. Se dice revolucionó. El artículo induce a pensar que es algo nuevo.

outofmemory

Para lo que no sean expertos en procesamiento de imagen, JPEG se basa en descomponer la imagen en pequeños bloques de 8x8 píxeles y aplicar una transformada en frecuencia conocida como DCT-II. Esto hace que tengamos 64 coeficientes de frecuencias. Las más bajas corresponden a variaciones muy suaves (digamos, un degradado de color) y las más rápidas o altas a texturas y ruido. JPEG minimiza las altas frecuencias.
En compressed sending lo que se hace es calcular una transformada en frecuencia de la imagen y tomar coeficientes aleatorios. Eso es importante: aleatorios. Si se toman suficientes, es posible reconstruir perfectamente o suficientemente bien la imagen con un algoritmo de optimización.
Esto es importante para los TAC, donde se irradia a los pacientes. Con esta técnica se toman menos muestras y se reconstruye la imagen, con menos riesgo para la persona.

Nova6K0

Una cosa es que por ejemplo importe más la calidad óptica (calidad del sensor óptico, por ejemplo que no meta excesivo ruido a la imagen) que los megapixeles (resolución). Pero si tu tienes una imagen basado en el mismo sensor de 1.000.000 de pixeles es imposible que una de 100.000 pixeles sea mejor. Es como si dijésemos que el formato MP3 es mejor que el formato WAV (datos puros).

Y de hecho lo que hace es eso un muestreo como cuando se pasa un archivo de WAV a MP3. Siendo que dependiendo del bitrate y de la frecuencia de muestreo cogeremos más o menos puntos, para construir este archivo MP3. Cuanto más alto sea el bitrate más se parecerá al original, y obviamente ocupará más.

Una onda analógica (por ejemplo senoidal) tiene infinitos valores. Si cogemos x valores de dicha onda, podremos tener una resultante parecida al original, cuantos más valores más parecida, pero nunca será como la original. Por eso es imposible que si tienes (o en este caso se deban capturar o generar) 1.000.000 de puntos y coges 100.000 tenga la misma calidad.

De hecho si alguien vio una foto en formato RAW de alguna cámara, por ejemplo el formato de Canon (Canon RAW 2) .CR2 ocupan una barbaridad, porque son datos puros o crudos. Es como comparar ese WAV de 50 MB con el MP3 que ocupará unos 4-5 MB (ejemplo, y dependiendo de su calidad claro)

Salu2

robertovazquezmarin

Era algo que tenía que llegar más pronto que tarde

l

Lo siento pero no lo compro, y menos con imagénes médicas que se pueden usar para diagnosticar.
Si algo se ha conseguido con el Big Data, para el que no sepa de que va, es procesar ingentes cantidades de datos ejem.... anónimos... (me entra risa)... para sacar tendencias interesantes que antes eran imposibles de obtener, o se obtenían únicamente a nivel científico con super ordenadores dedicados en areas muy concretas.

Ahora, nos están diciendo que para ahorrar, vamos a coger un muestreo de píxeles y usar un algoritmo para reconstruir la imagen, osea, inventársela.

C

Es increíble las imágenes que captan los drones. El único inconveniente de momento es el tema de las baterías de los drones que están muy limitadas.