Google Brain está un poco más cerca de lograr esa famosa despixelización que hasta ahora parece estrictamente restringida a la pequeña pantalla y alguna que otra película inadvertidamente próxima al género de la ciencia ficción. Puesto que no es posible generar información visual fidedigna a partir de una fotografía sin apenas detalles investigadores de Google Brain [...] han utilizado dos redes neuronales para componer imágenes extraordinariamente parecidas a las originales a partir del examen de fotos visualmente similares.
#1:
Los aficionados al porno japonés están de enhorabuena.
#11:
#4 No, porque ese algoritmo de inteligencia artificial no reconstruye la imagen, no añade más detalle real, sino que literalmente se inventa una nueva imagen basada en la de baja resolución. Lo hace comparando la imagen de mala calidad con una gran cantidad de imágenes parecidas y añade detalle basándose en las otras imágenes.
Sigue siendo muy útil e interesante pero teniendo siempre claro lo que hace. Pues puedes intentar restaurar una imagen de la comunión de tu abuelo y acabar con esto:
#9:
#8 pero seguro que aun les queda para llegar al nivel "CSI"
#5:
#1 A mí me ha recordado (levemente) a un videojuego muy popular de un punto que tenía que ir recortando pantalla con una araña y que al final salía una "modelito" en paños menores con la resolución, más o menos, del resultado de las imágenes pixeladas (Fantasia, reconvertido en mejores imágenes en New Fantasia años más tarde).
La de sueños onerosos que me habría evitado si le hubieran aplicado este filtro a esas maquinitas... serían en HD fijo.
#1 A mí me ha recordado (levemente) a un videojuego muy popular de un punto que tenía que ir recortando pantalla con una araña y que al final salía una "modelito" en paños menores con la resolución, más o menos, del resultado de las imágenes pixeladas (Fantasia, reconvertido en mejores imágenes en New Fantasia años más tarde).
La de sueños onerosos que me habría evitado si le hubieran aplicado este filtro a esas maquinitas... serían en HD fijo.
#48 Bueno, ese es el original, el padre de todos, pero al fin al final del articulo de wiki veras que hay enlances para todas las version y sabores que se han hecho del mismo
#33#16 Jajajaja, vaya reunión de viejunos nos hemos echado en un rato. Isangi, estoy buscando el que dices porque yo también lo tenía. En cuanto lo pille te lo pongo por aquí
Esto es literalmente ciencia ficción haciéndose realidad. Poca broma. En muchos casos (especialmente las caras) la reconstrucción es acojonante. Y no sólo porque esté muy bien y sean muy coherentes si no porque, incluso cuando no acierta, completa la imagen de una manera tan imaginativa como "lógica". Me pregunto como "crea" lo que no sabe a ciencia cierta que esté ahí... Pura caja negra. El futuro es ahora...
#7 no es ciencia ficción, es un programa que se inventa una imagen a partir de otra, pero la imagen final no tiene porqué coincidir con la realidad....
#15 Esos no tienen pérdida de calidad. Simplemente están codificados, por lo que si los decodificas correctamente, conseguirás la imagen emitida, sin pérdidas.
Me suena que se cogían las líneas, y las desordenaban, por lo que solo tienes que reordenarlas.
#20 Una cosa es que no se use como prueba en el juicio y otra diferente que sirva para iniciar una investigación y conseguir otras pruebas partiendo de una suposición basada en eso.
#36 Ya se meten bastantes pifiadas con los retratos robots como para permitir que de una imagen a otra que cambie bastante, valga ni para iniciarse con ella una investigación.
No, lo de CSI es una fantasmada y dudo que consigan algo ni similar, porque cuanto más se aumenta una imagen desde una resolución pequeña más cantidad de pixeles deben intercalarse para aumentar su resolución y que la posibilidad de un pixel mal puesto es mayor cuantos más se intercalen o se introduzcan en la imagen para hacerla más grande.
google la mejor empresa de publicidad del mundo. Sobre todo cuando se publicita a si misma.
Las imagenes que se inventa tambien son pixeladas. Menos pixeladas pero muy pixeladas. Y algunas se parecen al original literalmente como un huevo a una castaña.
"El 10% de los observadores humanos eran incapaces de distinguir la imagen generada artificialmente mediante técnicas predictivas de aquella tomada con una cámara (ground truth). (algun humano ciego habria en el experimento) Como referencia, los investigadores de Google señalan que alcanzar un 50% hubiera supuesto engañar totalmente a los sujetos."
Como que engañar al 50% seria engañar totalmente a los sujetos ?
Pero a quien quieres engañar google?
#4 No, porque ese algoritmo de inteligencia artificial no reconstruye la imagen, no añade más detalle real, sino que literalmente se inventa una nueva imagen basada en la de baja resolución. Lo hace comparando la imagen de mala calidad con una gran cantidad de imágenes parecidas y añade detalle basándose en las otras imágenes.
Sigue siendo muy útil e interesante pero teniendo siempre claro lo que hace. Pues puedes intentar restaurar una imagen de la comunión de tu abuelo y acabar con esto:
De donde no hay no se puede sacar. Lo que si puede hacer google es inventarse información para rellenar (o sea, a partir de patrones parecidos, deducir cosas y poner lo que cree que puede haber debajo). Obviamente, cuanto más pixelado más alejado de la realidad saldrá el resultado de aplicar esta técnica y cuanta más información tenga desde el principio mejores resultados obtendrá. Pero milagros a Lourdes.
#19 Si bien lo que dices es cierto, aplicar "de dónde no hay no se puede sacar" puede hacer que se nos escapen cosas. A veces "hay" donde menos lo esperas.
#31 Si hablamos de fotos y en cámaras estándar y móviles, ni hay información de profundidad del desenfoque, ni hay audios, ni hay canales más allá de las frecuencias del rojo, verde y azúl (salvo quizá algo de infrarojo si no hay filtros por medio). Que haya cámaras que obtengan más información por otros medios (dos lentes, sensores con mayor capacidad de captación de espectro radioeléctrico, etc) y pueda usarse para complementar la información pura y dura que son puntos de diferente color ya es otra historia y ahí el procesamiento de la señal si podría servir para complementar y mejorar la información (al fin y al cabo tienes más de una fuente de datos y mucha información redundante para rellenar vacíos entre ambas).
Que se pueda coger una imagen y transformar su información no implica que se pueda sacar más información de la que tiene. Puedes hilar más fino y a partir de la información que hay deducir o inventar la que no hay, pero nunca más.
Por otro lado, ¿de qué te sirve el audio a la hora de reconstruír una imágen? y como imagen hablamos de pixels en un espacio bidimensional, que es lo que hay en ficheros de imágenes estándar y lo que usará google. No de las señales que llegan a la cámara ni nada por el estilo. Y aunque fueran las propias señales del espectro electromagnético, el audio está muy lejos del espectro visible, no deberían aportar información valiosa ni servir para corregir señal de éste.
#45 Hablaba de la aplicación general del principio "de dónde no hay no se puede sacar", no estaba hablando de este paper en concreto. De ahí que dijera que lo que decías es cierto y que los ejemplos que puse son "no relacionados con este paper". Simplemente quería decir que es un principio que es correcto, pero que hay que aplicar con cuidado porque a veces hay información donde no la esperas.
Busca en su base de datos y extrapola.
Y si su bases de datos (memoria) incluye todas las fotos de personas que pueda encontrar, pues igual hasta puede reconocer quién es exactamente y extrapola con los datos reales de la persona.
Seguro que hay muchas imágenes distintas que al pixelar dan la misma imagen final. Otra cosa es que el sistema sea capaz de elegir entre las fotos que al final darían ese resultado y no otras, como la foto de un culo o de un coche color carne, pero sacar datos de donde no hay es imposible.
Una de las fotos, que parece una habitacion o algo asi, esta como tomada con la camara desnivelada. El algoritmo no solo la recompone, sino que ademas la nivela. Con un par. Solo que el original no es asi. Solo le habran enseñado fotos de habitaciones bien tomadas y corrige la toma.
Si solo le enseñan fotos de guapos/as y le meto la mia pixelada hasta me saca guapo a mi. (bueno igual conmigo no lo consigue, pero con la de otro no tan feo seguro)
Sensacionalista: decir "Google Brain aprende..." es como decir "La Universidad de Vic aprende...". Si el estudio estuviera firmado por investigadores de la Universidad de Vic, eso debería leerse en el título, y seguro en este caso empezaría de otro modo. Todo lo que huela a Google Brain, o Deep Brain, o Deep Mind, o Deep Learning, es fantástico. Pero sólo es humo para posicionar a Google como líder tecnológico, ocultando que es, principalmente, una empresa de publicidad.
Tras leer el paper todavía no me queda claro que no estén usando el mismo conjunto para entrenamiento y para test... si no usan el mismo conjunto, los resultados son bastante impresionantes. Si sí usan el mismo conjunto para ambas fases, pues bueno, teniendo en cuenta que la base de datos de caras que usan es de 200 000 caras que recupere la correcta a partir de 8x8 pixels tiene su punto, pero habría que ver cómo se comporta cuando le metes las caras los millones de personas de un país si lo que quieres es reconocer a alguien.
#28 Hombre, dudo mucho que Google utilice el mismo conjunto para entrenamiento y test ... eso serviría de poco y los resultados, con el suficiente entretamiento, acabarían siendo idénticos. De hecho los resultados se parecen mucho al real, pero en algunos casos no tiene nada que ver, cosa lógica. Yo creo que para reconocimiento puede sacar varias rostros muy diferentes que encajen en el patrón y ayudaría a identificar ... aunque no tendría valor legal ...
Comentarios
Los aficionados al porno japonés están de enhorabuena.
#1 A mí me ha recordado (levemente) a un videojuego muy popular de un punto que tenía que ir recortando pantalla con una araña y que al final salía una "modelito" en paños menores con la resolución, más o menos, del resultado de las imágenes pixeladas (Fantasia, reconvertido en mejores imágenes en New Fantasia años más tarde).
La de sueños onerosos que me habría evitado si le hubieran aplicado este filtro a esas maquinitas... serían en HD fijo.
#5 Era este para ser más exactos
#6 Coño llevo años buscando como se llama la versión no porno de este videojuego...
¿Sabeis como se llama?
Yo lo tenia en win3.1 creo y era un vicio muy entretenido.
#32 Gals Panic
#41 Parecido si, pero sin chicas y apostaría que mas moderno(mejores graficos)...
#32 Qix
https://en.wikipedia.org/wiki/Qix
#44 Mas moderno que eso...
#48 Bueno, ese es el original, el padre de todos, pero al fin al final del articulo de wiki veras que hay enlances para todas las version y sabores que se han hecho del mismo
#58 Gracias, buscooo
#32 Vicio pero viiiiciooo, aunque me quedo con la versión guarrilla... tiene más, cómo decirlo, chicha
#32 Yo pasé buena parte de la infancia con el Xonix en un viejo Amstrad heredado
#5 Gals Panic, por si te da por buscar la ROM. Eso si te vas a desilusionar, de niño en la recreativa esas japonesas parecían diosas .
#14 Muchas gracias, pero esa era la versión japo del tema, a mí me molaban las europeas, jijijijiji...
#5 silk en PC
#16 Habia una versión bastante mas nueva creo, sobrw windows 3.1 creo no sabrás el nombre?
#33 #16 Jajajaja, vaya reunión de viejunos nos hemos echado en un rato. Isangi, estoy buscando el que dices porque yo también lo tenía. En cuanto lo pille te lo pongo por aquí
#54 Jajaja la nostàlgia...
#16 ¿Volfield? Es bajo una capa de algo así como tecnológico, a ver si he acertado ^_^
¡¡¡AirXonix y Espacio Xonix... al final alguno debe ser!!!
Construye no reconstruye imágenes.
Esto es literalmente ciencia ficción haciéndose realidad. Poca broma. En muchos casos (especialmente las caras) la reconstrucción es acojonante. Y no sólo porque esté muy bien y sean muy coherentes si no porque, incluso cuando no acierta, completa la imagen de una manera tan imaginativa como "lógica". Me pregunto como "crea" lo que no sabe a ciencia cierta que esté ahí... Pura caja negra. El futuro es ahora...
#7 no es ciencia ficción, es un programa que se inventa una imagen a partir de otra, pero la imagen final no tiene porqué coincidir con la realidad....
#7 En realidad, como dice #11, el titulo correcto seria: Google Brain aprende a "reconstruir" imágenes pixeladas utilizando redes neuronales.
Porque no reconstruye nada, se la inventa.
Al fin le podrá sacar partido a mis viejos VHS grabados del C+... 👍
#15 Esos no tienen pérdida de calidad. Simplemente están codificados, por lo que si los decodificas correctamente, conseguirás la imagen emitida, sin pérdidas.
Me suena que se cogían las líneas, y las desordenaban, por lo que solo tienes que reordenarlas.
Se parecen tanto las fotos originales a lo que inventa el software... Eso mismo lo podría hasta hacer yo.
De un único pixel amarillo, ¿Que personaje de los Simpsons obtiene?
#13 homer, es el que más sale.
Aplicas un filtro Xor al pixelar para mezclar dos imágenes, o le añades algo de ruido, y carretera.
Se lo pones crudo crujiente al Gúguelbrein.
Esperemos que esa "técnica" no se use para la persecución de delitos, porque de la foto original a lo que sale, por meterle pixeles, pués...
Salu2
#20 Una cosa es que no se use como prueba en el juicio y otra diferente que sirva para iniciar una investigación y conseguir otras pruebas partiendo de una suposición basada en eso.
#36 Ya se meten bastantes pifiadas con los retratos robots como para permitir que de una imagen a otra que cambie bastante, valga ni para iniciarse con ella una investigación.
No, lo de CSI es una fantasmada y dudo que consigan algo ni similar, porque cuanto más se aumenta una imagen desde una resolución pequeña más cantidad de pixeles deben intercalarse para aumentar su resolución y que la posibilidad de un pixel mal puesto es mayor cuantos más se intercalen o se introduzcan en la imagen para hacerla más grande.
Salu2
google la mejor empresa de publicidad del mundo. Sobre todo cuando se publicita a si misma.
Las imagenes que se inventa tambien son pixeladas. Menos pixeladas pero muy pixeladas. Y algunas se parecen al original literalmente como un huevo a una castaña.
"El 10% de los observadores humanos eran incapaces de distinguir la imagen generada artificialmente mediante técnicas predictivas de aquella tomada con una cámara (ground truth). (algun humano ciego habria en el experimento) Como referencia, los investigadores de Google señalan que alcanzar un 50% hubiera supuesto engañar totalmente a los sujetos."
Como que engañar al 50% seria engañar totalmente a los sujetos ?
Pero a quien quieres engañar google?
Los de las series de la tele, tenían razón!
#4 era tecnologia secreta
#8 pero seguro que aun les queda para llegar al nivel "CSI"
#9 Y aún más lejos de Red Dwarf http://www.dailymotion.com/video/x2qlmuy
#9
#4 No, porque ese algoritmo de inteligencia artificial no reconstruye la imagen, no añade más detalle real, sino que literalmente se inventa una nueva imagen basada en la de baja resolución. Lo hace comparando la imagen de mala calidad con una gran cantidad de imágenes parecidas y añade detalle basándose en las otras imágenes.
Sigue siendo muy útil e interesante pero teniendo siempre claro lo que hace. Pues puedes intentar restaurar una imagen de la comunión de tu abuelo y acabar con esto:
#11 looool
🌿
#11 Eso es, salvando las distancias, lo que hace Google Traslate cuando traduce párrafos del inglés al castellano
#11 Además lo hace bien cuando las imágenes tienen una mínima resolución, no con cualquier imagen.
Pero si con esto consiguen reducir el tráfico de datos por la red, bienvenido sea.
De donde no hay no se puede sacar. Lo que si puede hacer google es inventarse información para rellenar (o sea, a partir de patrones parecidos, deducir cosas y poner lo que cree que puede haber debajo). Obviamente, cuanto más pixelado más alejado de la realidad saldrá el resultado de aplicar esta técnica y cuanta más información tenga desde el principio mejores resultados obtendrá. Pero milagros a Lourdes.
#19 Si bien lo que dices es cierto, aplicar "de dónde no hay no se puede sacar" puede hacer que se nos escapen cosas. A veces "hay" donde menos lo esperas.
, hasta puedes sacar imagen de audio (https://www.schneier.com/blog/archives/2015/06/tempest_attack.html), y algún ejemplo más hay por ahí...Ejemplos no relacionados con este paper son: se puede estimar información de profundidad del desenfoque (http://www.timzaman.com/wp-content/uploads/2012/01/DEPTH-FROM-BLUR_ZAMAN_TIM_WEB1.pdf), se puede sacar información de audio de la imagen de un video (
#31 Si hablamos de fotos y en cámaras estándar y móviles, ni hay información de profundidad del desenfoque, ni hay audios, ni hay canales más allá de las frecuencias del rojo, verde y azúl (salvo quizá algo de infrarojo si no hay filtros por medio). Que haya cámaras que obtengan más información por otros medios (dos lentes, sensores con mayor capacidad de captación de espectro radioeléctrico, etc) y pueda usarse para complementar la información pura y dura que son puntos de diferente color ya es otra historia y ahí el procesamiento de la señal si podría servir para complementar y mejorar la información (al fin y al cabo tienes más de una fuente de datos y mucha información redundante para rellenar vacíos entre ambas).
Que se pueda coger una imagen y transformar su información no implica que se pueda sacar más información de la que tiene. Puedes hilar más fino y a partir de la información que hay deducir o inventar la que no hay, pero nunca más.
Por otro lado, ¿de qué te sirve el audio a la hora de reconstruír una imágen? y como imagen hablamos de pixels en un espacio bidimensional, que es lo que hay en ficheros de imágenes estándar y lo que usará google. No de las señales que llegan a la cámara ni nada por el estilo. Y aunque fueran las propias señales del espectro electromagnético, el audio está muy lejos del espectro visible, no deberían aportar información valiosa ni servir para corregir señal de éste.
#45 Hablaba de la aplicación general del principio "de dónde no hay no se puede sacar", no estaba hablando de este paper en concreto. De ahí que dijera que lo que decías es cierto y que los ejemplos que puse son "no relacionados con este paper". Simplemente quería decir que es un principio que es correcto, pero que hay que aplicar con cuidado porque a veces hay información donde no la esperas.
Meneo relacionado "Amplía y mejora"
"Amplía y mejora"
youtube.com#0 por que has entrecomillado aprende? El verbo aprender es el correcto cuando se habla de deep learning en redes neuronales.
#18 de hecho las comillas deberían estar en "reconstruir", no en aprender
Siempre he teñido curiosidad (no homo)
Busca en su base de datos y extrapola.
Y si su bases de datos (memoria) incluye todas las fotos de personas que pueda encontrar, pues igual hasta puede reconocer quién es exactamente y extrapola con los datos reales de la persona.
Seguro que hay muchas imágenes distintas que al pixelar dan la misma imagen final. Otra cosa es que el sistema sea capaz de elegir entre las fotos que al final darían ese resultado y no otras, como la foto de un culo o de un coche color carne, pero sacar datos de donde no hay es imposible.
Y lo que bien que nos hubiera venido esto cuando aquellas pelis de cana+
Me imagino que será capaz de aumentar la resolución (detalle) de una imagen, ya que al final todo se resume a pixeles
#10 sin ánimo de ofender: Troll? ni idea de informática? mal explicado? o genio que yo no entiendo?
ENHANCE!
Vaya una panda, un tenedor, UN TENEDOR!! arriba y abajo
#3 funciona mejor con un peine
Una de las fotos, que parece una habitacion o algo asi, esta como tomada con la camara desnivelada. El algoritmo no solo la recompone, sino que ademas la nivela. Con un par. Solo que el original no es asi. Solo le habran enseñado fotos de habitaciones bien tomadas y corrige la toma.
Si solo le enseñan fotos de guapos/as y le meto la mia pixelada hasta me saca guapo a mi. (bueno igual conmigo no lo consigue, pero con la de otro no tan feo seguro)
Sensacionalista: decir "Google Brain aprende..." es como decir "La Universidad de Vic aprende...". Si el estudio estuviera firmado por investigadores de la Universidad de Vic, eso debería leerse en el título, y seguro en este caso empezaría de otro modo. Todo lo que huela a Google Brain, o Deep Brain, o Deep Mind, o Deep Learning, es fantástico. Pero sólo es humo para posicionar a Google como líder tecnológico, ocultando que es, principalmente, una empresa de publicidad.
Un momento... ¿ Cómo que Google Brain ? Vaya nombre le han puesto, ya podemos irnos preparando...
Tras leer el paper todavía no me queda claro que no estén usando el mismo conjunto para entrenamiento y para test... si no usan el mismo conjunto, los resultados son bastante impresionantes. Si sí usan el mismo conjunto para ambas fases, pues bueno, teniendo en cuenta que la base de datos de caras que usan es de 200 000 caras que recupere la correcta a partir de 8x8 pixels tiene su punto, pero habría que ver cómo se comporta cuando le metes las caras los millones de personas de un país si lo que quieres es reconocer a alguien.
#28 Hombre, dudo mucho que Google utilice el mismo conjunto para entrenamiento y test ... eso serviría de poco y los resultados, con el suficiente entretamiento, acabarían siendo idénticos. De hecho los resultados se parecen mucho al real, pero en algunos casos no tiene nada que ver, cosa lógica. Yo creo que para reconocimiento puede sacar varias rostros muy diferentes que encajen en el patrón y ayudaría a identificar ... aunque no tendría valor legal ...
#28 Si usan la misma base creo que hasta yo sabria programarlo... (y me considero en el 5% de los peores programadores del mundo)