Hace 7 años | Por --480494-- a elotrolado.net
Publicado hace 7 años por --480494-- a elotrolado.net

Google Brain está un poco más cerca de lograr esa famosa despixelización que hasta ahora parece estrictamente restringida a la pequeña pantalla y alguna que otra película inadvertidamente próxima al género de la ciencia ficción. Puesto que no es posible generar información visual fidedigna a partir de una fotografía sin apenas detalles investigadores de Google Brain [...] han utilizado dos redes neuronales para componer imágenes extraordinariamente parecidas a las originales a partir del examen de fotos visualmente similares.

Comentarios

NotVizzini

#6 Coño llevo años buscando como se llama la versión no porno de este videojuego...

¿Sabeis como se llama?

Yo lo tenia en win3.1 creo y era un vicio muy entretenido.

D

#32 Gals Panic

NotVizzini

#41 Parecido si, pero sin chicas y apostaría que mas moderno(mejores graficos)...

NotVizzini

#44 Mas moderno que eso...

xpectral

#48 Bueno, ese es el original, el padre de todos, pero al fin al final del articulo de wiki veras que hay enlances para todas las version y sabores que se han hecho del mismo

NotVizzini

#58 Gracias, buscooo

ÆGEAN

#32 Vicio pero viiiiciooo, aunque me quedo con la versión guarrilla... tiene más, cómo decirlo, chicha lol lol lol

R

#32 Yo pasé buena parte de la infancia con el Xonix en un viejo Amstrad heredado

M

#5 Gals Panic, por si te da por buscar la ROM. Eso si te vas a desilusionar, de niño en la recreativa esas japonesas parecían diosas .

ÆGEAN

#14 Muchas gracias, pero esa era la versión japo del tema, a mí me molaban las europeas, jijijijiji...

antuan

#5 silk en PC roll

NotVizzini

#16 Habia una versión bastante mas nueva creo, sobrw windows 3.1 creo no sabrás el nombre?

ÆGEAN

#33 #16 Jajajaja, vaya reunión de viejunos nos hemos echado en un rato. Isangi, estoy buscando el que dices porque yo también lo tenía. En cuanto lo pille te lo pongo por aquí

NotVizzini

#54 Jajaja la nostàlgia...

ÆGEAN

#16 ¿Volfield? Es bajo una capa de algo así como tecnológico, a ver si he acertado ^_^

¡¡¡AirXonix y Espacio Xonix... al final alguno debe ser!!!

D

Esto es literalmente ciencia ficción haciéndose realidad. Poca broma. En muchos casos (especialmente las caras) la reconstrucción es acojonante. Y no sólo porque esté muy bien y sean muy coherentes si no porque, incluso cuando no acierta, completa la imagen de una manera tan imaginativa como "lógica". Me pregunto como "crea" lo que no sabe a ciencia cierta que esté ahí... Pura caja negra. El futuro es ahora...

Varlak_

#7 no es ciencia ficción, es un programa que se inventa una imagen a partir de otra, pero la imagen final no tiene porqué coincidir con la realidad....

redscare

#7 En realidad, como dice #11, el titulo correcto seria: Google Brain aprende a "reconstruir" imágenes pixeladas utilizando redes neuronales.

Porque no reconstruye nada, se la inventa.

robustiano

Al fin le podrá sacar partido a mis viejos VHS grabados del C+... 👍

frg

#15 Esos no tienen pérdida de calidad. Simplemente están codificados, por lo que si los decodificas correctamente, conseguirás la imagen emitida, sin pérdidas.

Me suena que se cogían las líneas, y las desordenaban, por lo que solo tienes que reordenarlas.

D

Se parecen tanto las fotos originales a lo que inventa el software... Eso mismo lo podría hasta hacer yo.

jaspeao

De un único pixel amarillo, ¿Que personaje de los Simpsons obtiene?

D

#13 homer, es el que más sale.

D

Aplicas un filtro Xor al pixelar para mezclar dos imágenes, o le añades algo de ruido, y carretera.
Se lo pones crudo crujiente al Gúguelbrein.

Nova6K0

Esperemos que esa "técnica" no se use para la persecución de delitos, porque de la foto original a lo que sale, por meterle pixeles, pués...

Salu2

NotVizzini

#20 Una cosa es que no se use como prueba en el juicio y otra diferente que sirva para iniciar una investigación y conseguir otras pruebas partiendo de una suposición basada en eso.

Nova6K0

#36 Ya se meten bastantes pifiadas con los retratos robots como para permitir que de una imagen a otra que cambie bastante, valga ni para iniciarse con ella una investigación.

No, lo de CSI es una fantasmada y dudo que consigan algo ni similar, porque cuanto más se aumenta una imagen desde una resolución pequeña más cantidad de pixeles deben intercalarse para aumentar su resolución y que la posibilidad de un pixel mal puesto es mayor cuantos más se intercalen o se introduzcan en la imagen para hacerla más grande.

Salu2

e

google la mejor empresa de publicidad del mundo. Sobre todo cuando se publicita a si misma.

Las imagenes que se inventa tambien son pixeladas. Menos pixeladas pero muy pixeladas. Y algunas se parecen al original literalmente como un huevo a una castaña.

"El 10% de los observadores humanos eran incapaces de distinguir la imagen generada artificialmente mediante técnicas predictivas de aquella tomada con una cámara (ground truth). (algun humano ciego habria en el experimento) Como referencia, los investigadores de Google señalan que alcanzar un 50% hubiera supuesto engañar totalmente a los sujetos."

Como que engañar al 50% seria engañar totalmente a los sujetos ?
Pero a quien quieres engañar google?

P

Los de las series de la tele, tenían razón!

adria

#4 era tecnologia secreta

vomitologo

#9 Y aún más lejos de Red Dwarf http://www.dailymotion.com/video/x2qlmuy

D

#9

hierba

#11 looool

🌿

thingoldedoriath

#11 Eso es, salvando las distancias, lo que hace Google Traslate cuando traduce párrafos del inglés al castellano

elvecinodelquinto

#11 Además lo hace bien cuando las imágenes tienen una mínima resolución, no con cualquier imagen.

Pero si con esto consiguen reducir el tráfico de datos por la red, bienvenido sea.

meneandro

De donde no hay no se puede sacar. Lo que si puede hacer google es inventarse información para rellenar (o sea, a partir de patrones parecidos, deducir cosas y poner lo que cree que puede haber debajo). Obviamente, cuanto más pixelado más alejado de la realidad saldrá el resultado de aplicar esta técnica y cuanta más información tenga desde el principio mejores resultados obtendrá. Pero milagros a Lourdes.

j

#19 Si bien lo que dices es cierto, aplicar "de dónde no hay no se puede sacar" puede hacer que se nos escapen cosas. A veces "hay" donde menos lo esperas.

Ejemplos no relacionados con este paper son: se puede estimar información de profundidad del desenfoque (http://www.timzaman.com/wp-content/uploads/2012/01/DEPTH-FROM-BLUR_ZAMAN_TIM_WEB1.pdf), se puede sacar información de audio de la imagen de un video (

, hasta puedes sacar imagen de audio (https://www.schneier.com/blog/archives/2015/06/tempest_attack.html), y algún ejemplo más hay por ahí...

meneandro

#31 Si hablamos de fotos y en cámaras estándar y móviles, ni hay información de profundidad del desenfoque, ni hay audios, ni hay canales más allá de las frecuencias del rojo, verde y azúl (salvo quizá algo de infrarojo si no hay filtros por medio). Que haya cámaras que obtengan más información por otros medios (dos lentes, sensores con mayor capacidad de captación de espectro radioeléctrico, etc) y pueda usarse para complementar la información pura y dura que son puntos de diferente color ya es otra historia y ahí el procesamiento de la señal si podría servir para complementar y mejorar la información (al fin y al cabo tienes más de una fuente de datos y mucha información redundante para rellenar vacíos entre ambas).

Que se pueda coger una imagen y transformar su información no implica que se pueda sacar más información de la que tiene. Puedes hilar más fino y a partir de la información que hay deducir o inventar la que no hay, pero nunca más.

Por otro lado, ¿de qué te sirve el audio a la hora de reconstruír una imágen? y como imagen hablamos de pixels en un espacio bidimensional, que es lo que hay en ficheros de imágenes estándar y lo que usará google. No de las señales que llegan a la cámara ni nada por el estilo. Y aunque fueran las propias señales del espectro electromagnético, el audio está muy lejos del espectro visible, no deberían aportar información valiosa ni servir para corregir señal de éste.

j

#45 Hablaba de la aplicación general del principio "de dónde no hay no se puede sacar", no estaba hablando de este paper en concreto. De ahí que dijera que lo que decías es cierto y que los ejemplos que puse son "no relacionados con este paper". Simplemente quería decir que es un principio que es correcto, pero que hay que aplicar con cuidado porque a veces hay información donde no la esperas.

Uzer

Meneo relacionado "Amplía y mejora"

Hace 7 años | Por ccguy a youtube.com
Publicado hace 7 años por ccguy a youtube.com

JungSpinoza

#0 por que has entrecomillado aprende? El verbo aprender es el correcto cuando se habla de deep learning en redes neuronales.

Varlak_

#18 de hecho las comillas deberían estar en "reconstruir", no en aprender

Gnomo

Siempre he teñido curiosidad (no homo)

capitan__nemo

Busca en su base de datos y extrapola.
Y si su bases de datos (memoria) incluye todas las fotos de personas que pueda encontrar, pues igual hasta puede reconocer quién es exactamente y extrapola con los datos reales de la persona.

D

Seguro que hay muchas imágenes distintas que al pixelar dan la misma imagen final. Otra cosa es que el sistema sea capaz de elegir entre las fotos que al final darían ese resultado y no otras, como la foto de un culo o de un coche color carne, pero sacar datos de donde no hay es imposible.

mefistófeles

Y lo que bien que nos hubiera venido esto cuando aquellas pelis de cana+

e

Me imagino que será capaz de aumentar la resolución (detalle) de una imagen, ya que al final todo se resume a pixeles

NotVizzini

#10 sin ánimo de ofender: Troll? ni idea de informática? mal explicado? o genio que yo no entiendo?

D

ENHANCE!

a

Vaya una panda, un tenedor, UN TENEDOR!! arriba y abajo

Varlak_

#3 funciona mejor con un peine

e

Una de las fotos, que parece una habitacion o algo asi, esta como tomada con la camara desnivelada. El algoritmo no solo la recompone, sino que ademas la nivela. Con un par. Solo que el original no es asi. Solo le habran enseñado fotos de habitaciones bien tomadas y corrige la toma.
Si solo le enseñan fotos de guapos/as y le meto la mia pixelada hasta me saca guapo a mi. (bueno igual conmigo no lo consigue, pero con la de otro no tan feo seguro)

D

Sensacionalista: decir "Google Brain aprende..." es como decir "La Universidad de Vic aprende...". Si el estudio estuviera firmado por investigadores de la Universidad de Vic, eso debería leerse en el título, y seguro en este caso empezaría de otro modo. Todo lo que huela a Google Brain, o Deep Brain, o Deep Mind, o Deep Learning, es fantástico. Pero sólo es humo para posicionar a Google como líder tecnológico, ocultando que es, principalmente, una empresa de publicidad.

D

Un momento... ¿ Cómo que Google Brain ? Vaya nombre le han puesto, ya podemos irnos preparando...

j

Tras leer el paper todavía no me queda claro que no estén usando el mismo conjunto para entrenamiento y para test... si no usan el mismo conjunto, los resultados son bastante impresionantes. Si sí usan el mismo conjunto para ambas fases, pues bueno, teniendo en cuenta que la base de datos de caras que usan es de 200 000 caras que recupere la correcta a partir de 8x8 pixels tiene su punto, pero habría que ver cómo se comporta cuando le metes las caras los millones de personas de un país si lo que quieres es reconocer a alguien.

luiggi

#28 Hombre, dudo mucho que Google utilice el mismo conjunto para entrenamiento y test ... eso serviría de poco y los resultados, con el suficiente entretamiento, acabarían siendo idénticos. De hecho los resultados se parecen mucho al real, pero en algunos casos no tiene nada que ver, cosa lógica. Yo creo que para reconocimiento puede sacar varias rostros muy diferentes que encajen en el patrón y ayudaría a identificar ... aunque no tendría valor legal ...

NotVizzini

#28 Si usan la misma base creo que hasta yo sabria programarlo... (y me considero en el 5% de los peores programadores del mundo)