Hace 3 años | Por sorrillo a elotrolado.net
Publicado hace 3 años por sorrillo a elotrolado.net

El paper publicado por Facebook Research describe el uso de redes neuronales para introducir una imagen a muy baja resolución y reconstruirla con hasta dieciséis veces más píxeles, generando de nuevo los detalles perdidos mediante una inteligencia artificial entrenada con imágenes nativas a alta resolución. Dicho de forma muy simplificada, el ordenador o visor autónomo renderiza en realidad una imagen a baja resolución que después es escalada a alta resolución mediante IA.

Comentarios

aunotrovago

Eso me sirve para el pornillo vintage?

clavícula

¿No había una imagen más fea?

aunotrovago

#1 Fíjate en la palabra Berlin

alexwing

#3 Me parece demasiado increíble, puede que sumando todos los frames, haciendo extrapolación de la información de todos ellos pueda llegar a componer Berlin, pero vamos con la información de un solo frame es imposible.

Por lo que me mosquea que eso se pueda ejecutar en un juego en tiempo real.

k

Te cargas los efectos de las normales. Para juegos con colores planos es la leche, pero no para un last of us. Lo de Berlín es trampa seguro.

sorrillo

#5 Lo de Berlín es trampa seguro.

La entrada es una imagen en movimiento por lo que no basta con fijarse en un único fotograma si no que la red neuronal puede utilizar varios fotogramas para descifrar el contenido original.

Lo que nosotros vemos como "ruido" que no permite entender las letras es un ruido que solo se produciría de esa forma si en la imagen original aparece BERLIN, si apareciera OSLO el ruido sería distinto.

En este otro vídeo de YouTube se puede ver algo parecido y puede ayudar a comprender el proceso:

[ENG]

Nota: no he sableado el comentario de EOL, allí también lo escribí yo.

k

#6 aún así, una cosa son las demos, pero la realidad es mucho más puñetera.