Hace 2 años | Por bastardos a xataka.com
Publicado hace 2 años por bastardos a xataka.com

Si una cosa se le está dando cada vez mejor a la inteligencia artificial es la generación de imágenes. Basándose en un modelo inicial las inteligencias...

Comentarios

Aergon

#3 Querras decir Blade Runner

Tuatara

#5 En realidad eso es bastante realista, más teniendo en cuenta que era el futuro. Yo en muchos trabajos utilizo imágenes con resolución variable incluida. Es decir, puedo tener un archivo de 4000x4000 que contiene dentro, en un área específica, una imagen de otros 4000x4000.
Imagina un gran paredón de roca caliza de un ortomosaico hecho con un drone, y dentro de éste, tengo un plano detalle de una planta rupícola de otros 4000x4000 que puede incluir resolución incluso de sus estructuras florales.
Eso me permite tener una imagen de alta resolución de una zona interesante, formando parte de una imagen de baja resolución que sólo me interesa como ubicación.

Entre un salto y otro podría hacer falta un pequeño reprocesado para que el programa extraiga esa info, de ahí ese retraso de renderizado.

Todo es genial aunque luego en la práctica te envían un pdf de 900 megas con una imagen que te tumba el ordenador cada vez que quieres abrirla...

pedrobz

#12 Pues no, no es realista. Tu no trabajas con una imagen, trabajas con un fichero que contiene las 3 imágenes, la maquina de Blade Runner trabaja con una imagen química (parece una antigua polaroid) y el grano del papel (la resolución) es todo lo que hay. Aparte que la maquina también comete otro error, usa el reflejo del espejo para ver "detrás" de un objeto, cosa que es imposible en una imagen bidimensional (y no dicen que sea especial como un holograma o algo así)

Tuatara

#23 Nop, en realidad es una única imagen Y te digo más... es realista que vea lo que hay detrás del objeto. No sabemos cómo hicieron esa foto, podría contener una información similar a la fotogrametría. E incluso sin tenerlo... a partir de una imagen 2D hoy día ya hay técnicas que permiten una separación en capas y una reconstrución volumétrica.
Yo mismo, personalmente, he utilizado con éxito ese tipo de técnicas para análisis de riesgo costero...

Aergon

#23 me has recordado que hay teorias para dar y tomar sobre esa escena y cómo se podría realizar. Las conclusiones van en la linea de interpretar la luz como si se usase un sonar con el que descifrar las partes ocultas de la imagen por como distorsionan la luz que rebota desde ellas en las partes que si son visibles de la imagen

SirMcLouis

#5 Podéis poner algo que no tenga la calidad de una patata?

gracias!

JungSpinoza

#5 Lo mas impresionante es que impresora funciona a la primera.

#3 Y no olvides que además, eran capaces de realizarlo sin esfuerzo ni tiempo de proceso ni nada de nada.

¡En CSI tenían equipos capaces de hacer palidecer a los ordenadores cuánticos y jamas lo apreciamos lo bastante!

D

#1 Si no sirve para eso no es útil.

j

#1 considerando como ha sido publicado en muchos sitios que habitualmente la IA está sesgada a favor de las personas blancas y perjudica a negros y asiáticos, es posible que no funcione correctamente.

Igualmente, viendo el vídeo de ejemplo debo decir que la chica negra lo hace bastante bien. Quizás esta vez se hayan preocupado de tener imágenes de entrenamiento más representativas respecto a lo que suele haber

E

#29 son caras.

No que sean onerosas, es que se ha entrenado con rasgos faciales.

mudit0

#1 A mí me gustaría que despixelara el pr0n, y que de un fotograma (o de una foto de una actriz, o de mi prima) generara una película X entera. Y si tiene golpes de humor, mejor.

mr_x

#1 A veces es más conveniente mantener ciertos píxeles.

caramelosanto

#45 Ya llegó el policia de los pixeles politicamente correctos.

H

#1 estamos hechos todos con el mismo patrón lol

DeepBlue

#6 Aquí las imágenes de los personajes de Street Fighter alteradas mediante esto

m

#14: Pues a la chica la ha birlado los pendientes.

tusitala

Ahora ya no nos podemos reír cuando pase en las películas.

Joder__soy_yo

#9 qué gusto da leer comentarios de gente que entiende el meollo de la situación
mis dieses

(eres programador, no?)

g

#38 Investigador y profesor universitario en vision por computador e inteligencia artificial

Tenemos ahora mismo un proyecto justo en este campo, evaluar si los metodos generativos (GANs y tal) sirven para generar datos útiles para complementar las bases de datos con pacientes, a ser posible manteniendo la privacidad (es decir, sin que generemos siempre el tumor del mismo paciente).

Desafortunadamente, no tenemos nada claro que se pueda hacer con el conocimiento actual.

Joder__soy_yo

#40 yo soy de la misma opinión que tu, no creo que sirva para el diagnóstico, hay muchas entradas distintas que pueden dar la misma salida, aunque de todas formas, la regeneración que calcula la IA puede ser MUY buena:

Así como encontrar el origen de 1 pixel (la matriz de 16x16 píxeles de la imagen en alta resolución), a priori, puede parecer muy complicado que sea veraz, hay que tener en cuenta que la IA puede tener en cuenta también los píxeles adyacentes, descartando un montón de matrices 16x16 que serían válidas, pero inválidas para las matrices adyacentes.

Supongo que esta reflexión ya la debéis haber tenido en cuenta.

Tanto pequeño detalle es necesario en medicina? No les interesa saber si hay manchas, con qué tono, en qué cantidad, etc, y no tanto la forma exacta de cada una de las manchas?

g

#42 No digo que no sean utiles. Depende del caso de uso, como todo.
La segmentación de tejidos de forma tan precisa como sea posible es definitivamente importante.

Es posible que los algoritmos de superresolucion sean utiles en muchos casos, pero en cualquier caso, siempre están limitados cuanto más lejos estés de la distribución general que has usado para entrenar.

Al final todo esto es un mundo !

J

#4 Exactamente, ese es el problema, que es una imagen "inventada", y para muchas cosas puede ser util, pero en si misma tampoco puede ser una prueba. Mientras no se olvide eso, no hay problema.

Por ejemplo, utilizar una imagen de mala calidad de una cámara para hacer un retrato "robot", que al fin y al cabo es conceptualmente lo mismo: una imagen "inventada". Y que se use preguntar a los testigos o buscar fotos parecidas en redes sociales. Eso podría ser util, pero luego habría que filtrar sospechosos e investigar si se obtienen otras pruebas que sí sean concluyentes.

M

#4 A saber no, seguro, usa la información que tiene y la que no tiene se la inventa con los datos que tiene de la imagen actual y de otras similares. Por ejemplo, si un pixel oculta un lunar muy posiblemente lo descubra por la diferencia de tonalidad con los adyacentes, pero si el lunar tiene una forma peculiar es imposible que adivine qué forma tiene. Por muy buena que sea no va a descubrir la imagen que se refleja en tus ojo a partir de una imagen en la que tus ojos son unos pocos pixeles, ni si tu lunar tiene los bordes irregulares o no en una imagen en la que un pixel es mucho más grande que todo tu lunar, tal vez detectará un lunar y se inventará un lunar, sin ningún parecido con el original, pero en el mismo sitio.

Varlak

#2 a ver, coge imágenes pixeladas y forman una cara en HD, otra cosa es que la cara se parezca mucho o poco a la original

Manolitro

#2 no sé yo si esto sirve para leer la matrícula del coche reflejada en las gafas de sol del asesino

mencabrona

¿El uso de esto? Efectivamente, mejorar fotografías tomadas por los usuarios es una aplicación directa y clara para esto. Por ejemplo para mejorar la resolución de las fotografías tomadas con cámaras móviles, que no siempre son las mejores. Sin embargo también puede ser de utilidad en otros sectores como la medicina para mejorar las fotografías médicas.

Y una leche... el uso va a ser buscar fotos de tías con las tetas pixeladas en instagram y ponerlas en alta resolución....

H

#15 Joder, si la IA lo que hace es rellenar con información plausible (se inventa algo que más o menos encaja), lo último que querría es aplocarlo a imágenes médicas…

fenix-
Nova6K0

Mucho bonito en las pruebas, pero la realidad es muy distinta. Siguen creyendo que puden convertir una foto de 32x32 en una de 4K sin deformar completamente la foto.

Saluos.

jo3l
jo3l

#18 Enhance!

e

Hace años que lo hacen en CSI

alpoza

Faltaría que mostrasen la imagen original en 1024x1024 para ver que ha invantado y que no sobre la fotografía... en cualquier caso impresionante.

Armandorev

#8 En el articulo te enlazan al blog que enlaza al paper donde tienen esas imagenes
https://iterative-refinement.github.io/

alpoza

#21 Doble redirección Lo miraré. Gracias.

Mandrago

Algo muy parecido hemos tenido hace muy poco delante de nuestras narices, pero siendo algo español no se le dio importancia, porque claro... podría ser publicidad, no como lo de Google, lo de Google no es publicidad y además son americanos y eso tiene que molar. Google bien, español... na. Y así con todo.
Upscaling extremo de foto carnets de famosos a UHD 4K

Hace 2 años | Por JOFRE a youtube.com

SalsaDeTomate

Esto ya lleva tiempo existiendo, los resultados suelen ser alucinantes.

Acuantavese

Y donde está la app para probarla?
Alguien conoce otras gratuitas?

David_OM

#10 Yo uso Topaz Gigapixel AI
No es gratuita, pero tiene un periodo de prueba de un mes.

C

Si se consiguen esos resultados en tiempo real y sin necesidad de mucha potencia de cálculo le veo bastantes posibilidades:

Almacenamiento de vídeos y fotos en 720p / 2000 píxeles pero salida en pantalla en 4k, etc. Para la memoria interna y para ahorrar coste de servidores de servicios de streaming sería un gran logro.

Procesamiento de gráficos en juegos en baja resolución y generación posterior de vídeo en alta resolución mediante chip gráfico específico.

E

#25 algo parecido hace el dlss no?