Cuando se trata de tomar una foto a través de una ventanilla del avión o de un hotel, lo más probable es que haya un montón de reflejos que aparecen en la imagen final que la arruinan. Ahora, sin embargo, Google y los investigadores del MIT han encontrado una manera de tomar estas fotos y eliminarlas de forma automática.
#21:
#17 pero que dices!!,
1. El primer tutorial es un auto stich, normalmente usado para Gigaphotos y pano.... con eso conseguiras una imáge en grande pero no eliminar/detectar las oclusiones
2. El segundo tutorial es de Content-aware para recuperar patrones, cielos, cesped etc...
3. Y en la tercera es para eliminar "glare" brillos, necesitas imagenes en RAW para recuperar la información.
Se nota que no lees los papers del Siggraph... #cuñao'
#6:
Los del MIT a veces son maestros en vender humo, y TechCrunch va detrás ciegamente. Este proceso está disponible en Photoshop desde hace ya dos ediciones, es decir, desde 2012.
No es más que un relleno/ajuste de niveles sobre una máscara alfa creada a partir del objeto/reflejo que molesta. Esto se puede hacer sobre una imagen única (en este caso con relleno inteligente) o con varias imágenes similares superpuestas que aumentan la información disponible al componerlas juntas.
No se si el MIT propone un sistema totalmente automático, pero en Photoshop incluso se puede programar una función para hacerlo con un par de clicks... así que que me expliquen la novedad.
#16:
#6 Deberías de ir ahí para iluminarlos, porque seguro que los del MIT, con sus 80+ premios Nobel y siendo una de las mejores universidades del mundo, no conocen el photoshop.
#2:
Simplemente impresionante, y con muchísimas posibilidades. Y al menos en los ejemplos de prueba funciona perfecto
#1:
Y todo ello... para que subas fotos echas al escaparate de las rosquillas.
#17 pero que dices!!,
1. El primer tutorial es un auto stich, normalmente usado para Gigaphotos y pano.... con eso conseguiras una imáge en grande pero no eliminar/detectar las oclusiones
2. El segundo tutorial es de Content-aware para recuperar patrones, cielos, cesped etc...
3. Y en la tercera es para eliminar "glare" brillos, necesitas imagenes en RAW para recuperar la información.
Se nota que no lees los papers del Siggraph... #cuñao'
Los del MIT a veces son maestros en vender humo, y TechCrunch va detrás ciegamente. Este proceso está disponible en Photoshop desde hace ya dos ediciones, es decir, desde 2012.
No es más que un relleno/ajuste de niveles sobre una máscara alfa creada a partir del objeto/reflejo que molesta. Esto se puede hacer sobre una imagen única (en este caso con relleno inteligente) o con varias imágenes similares superpuestas que aumentan la información disponible al componerlas juntas.
No se si el MIT propone un sistema totalmente automático, pero en Photoshop incluso se puede programar una función para hacerlo con un par de clicks... así que que me expliquen la novedad.
con esas herramientas en conjunto puedes hacer exactamente lo mismo que el algoritmo del MIT. Finalmente con esto puedes automatizar ciertas partes del proceso (como importar y combinar varias imágenes o ajustar niveles) para hacerlo mucho más rápido:
#16 Se nota que no sigues los papers del MIT. La gran mayoría son trabajos de fin de carrera de alumnos a los que les presta su firma el profesor/tutor de turno. No digo siempre, pero muchas veces llaman a algo por otro nombre o prometen una "revolución", y todas las revistas se lo tragan porque habla un profesor de renombre en el vídeo. Otra manía que tienen es proponer "aplicaciones" espectaculares pero totalmente potenciales que apelan directamente a los titulares de prensa.
#6 Deberías de ir ahí para iluminarlos, porque seguro que los del MIT, con sus 80+ premios Nobel y siendo una de las mejores universidades del mundo, no conocen el photoshop.
#6 No tienes ni idea... el relleno inteligente o content-Aware esta generado por un algoritmo que crea patrones, especialmente util en la creación de tileados y relleno, esto es calculo de motion interpixel por frame, es decir los vectores de movimiento por pixels.
Para determinar, por la diferencia de perspectiva que parte de la información es Foreground (reflejo u oclusión) y Background . Separando ambas imágenes y rellenando el Background con el material que obtiene cambiando la perspectiva (fijaros que busca siempre desplazar horizontal y verticalmente, para obtener el frame completo del Background).
Preparados para ver las imágenes ocultas, de los fotógrafos.!!
#18 Estoy totalmente de acuerdo con lo que dices, pero quería comentar dos detalles:
"un algoritmo que crea patrones"... No sé a qué te refieres con patrones, pero Content-Aware básicamente busca seams (cadenas de pixels conectados) de mínima energía (que aporten poca información en su entorno, digamos) y los replica/elimina. Vamos, eso es lo que hacía el paper original, igual a Photohop le han metido algo que desconozco.
En cuanto a moverse para obtener el frame de fondo completo, precisamente algo que me ha llamado la atención es que no lo hace siempre. O eso me parece. Por ejemplo, en las imagenes de
hay zonas que en todas las imágenes están bajo el reflejo. Y aún así luego separa bien Imagino que por la minimización que usan tras la proyección de los frames. Es bastante impresionante, la verdad.
El SIGGRAPH de este año viene MUY MUY bien en lo que respecta a papers (por este y por otros, lo digo)
#38 SI perdona, por un lado he hecho una traducción libre de pattern, me refiero a que es precisamente útil en zonas donde el contenido es caótico, cesped, cemento etc... o más solido como cielos etc... Es excelente a la hora de encontrar zonas de interes o complejas.
Si creo que tienes razon, tambien aplica algun tipo de reconstrucción en el reflejo, basado en el desplazamiento de los pixels.
Supongo que es una adaptación de los algoritmos que usan los programas con Nuke (The Foundry), Boujou, para tracking automático de la imagen. Algo que iniciaron los de RevisionFX y otros.
YES!
SIGGRAPH preview... Aunque estoy un poco frito de simuladores de liquidos...
#43 Yo acabe de RealFlow hasta los huevos... no quiero saber NADA, es un coñazo. Afortunadamente en Maya esta el Bifrost que es acojonantemente rapido, preciso y chulo.
#44 ¿Cuándo te hartó RealFlow? Lo digo porque el cambio de HYBRIDO a HYBRIDO2 es bastante notable, y ahora DYVERSO tiene buena pinta... aunque todo sea dicho, con esto tengo AÚN más sesgo porque conozco a la gente que hace RealFlow De Bifrost no he visto mucho aún. Sé que es la reencarnación de Naiad con Autodesk detrás y Naiad en cuanto a resultados ya era muy bueno... así que le echaré un ojo en algún momento, sí
#45 antes de eso 6 o 7 años. Cuando el cabron solo tenía un thread en la generación del mesh. Y los core no los usaba a tope. Me he pasado mas noches sin dormir por la cantidad de bugs y miserable interface de las que quisiera. Feo, inestable ... Que asco por dios
#45 sip, para simuladores de líquidos es lo mejor Naiad. Yo he hecho varios efectos complejos con el simulador de fluidos de Maya. Le pille el punto y las explosiones y humo me salían bastante bien. Lento como un mal bicho pero estable.
#49 No pensé que con #45 fuera a desviar tanto el tema de la noticia en sí, pero veo que tienes una opinión apasionada sobre RF Supongo que es bueno que haya diferentes software precisamente por esto, no a todos nos gusta lo mismo
#31 es coña no?, el detector de ironía lo tengo al minimo
Edit
Se para que es el filtro polarizado y para que se usa. Pero estamos hablando, después de la impresión. #32 el filtro polarizado también vale para cámaras digitales
#37 jooooder, ya lo se. Me refiero a tecnología digital por software. Para poder aplicarlo a cualquier foto aunque no la hayas tomado tu con tu filtro polarizador.
#31 Para usar el filtro lo tienes que rotar para cuadrar la polarización con el ángulo de los reflejos, ¿no? Con esto es simplemente hacer click y mover el móvil, bastante más rápido, y algo que, por ejemplo, tienes que hacer igual al hacer panorámicas. Y además recuperas la imagen del reflejo. Y funciona con oclusiones, como dices. Y te evitas poner un filtro al móvil, que ya bastante tochos son algunos
¿Google? Al final del video en los reconocimientos solo veo Microsoft.
Y no elimina los reflejos de una imagen, en una secuencia de imágenes al mover la camara discierne dos areas de la imagen una más proxima que se mueve más y una lejana que se mueve menos y las recompone independientemente.
Por lo que sirve también para eliminar otro tipo de obstáculos visuales como verjas u otros objetos próximos.
Comentarios
Que se lo pasen pero ya a JJ Abrams.
#3 En todo caso en post-producción, esperando que se descuide un momento
#17 pero que dices!!,
1. El primer tutorial es un auto stich, normalmente usado para Gigaphotos y pano.... con eso conseguiras una imáge en grande pero no eliminar/detectar las oclusiones
2. El segundo tutorial es de Content-aware para recuperar patrones, cielos, cesped etc...
3. Y en la tercera es para eliminar "glare" brillos, necesitas imagenes en RAW para recuperar la información.
Se nota que no lees los papers del Siggraph...
#cuñao'
Y todo ello... para que subas fotos echas al escaparate de las rosquillas.
#1 ¡Se dice cupcake!
#13 No era Muffin?
#20 No. Ahora se llevan los bagels.
#23 Donde se ponga un cronut...
#1 Se dice "hechas"... ya podrían himbentar un navegador que subrayara en rojo las palabras mal escritas...... oh, weit!!!
#35 Se escribe "Wait!"
#35 El problema es que ese navegador dará "echas" por buena, porque "echas mierda a los demás" es correcto.
Simplemente impresionante, y con muchísimas posibilidades. Y al menos en los ejemplos de prueba funciona perfecto
Los del MIT a veces son maestros en vender humo, y TechCrunch va detrás ciegamente. Este proceso está disponible en Photoshop desde hace ya dos ediciones, es decir, desde 2012.
No es más que un relleno/ajuste de niveles sobre una máscara alfa creada a partir del objeto/reflejo que molesta. Esto se puede hacer sobre una imagen única (en este caso con relleno inteligente) o con varias imágenes similares superpuestas que aumentan la información disponible al componerlas juntas.
No se si el MIT propone un sistema totalmente automático, pero en Photoshop incluso se puede programar una función para hacerlo con un par de clicks... así que que me expliquen la novedad.
#6 ¿Tienes algún enlace a un tutorial que explique como hacer eso?
#8 Claro. Apréndete esto
https://helpx.adobe.com/photoshop/using/combine-images-auto-blend-layers.html
después esto
https://helpx.adobe.com/photoshop/how-to/remove-objects-fix-flaws.html
y para los reflejos esto (hay más técnicas dependiendo de la imagen a tratar)
http://smallbusiness.chron.com/reduce-glare-photoshop-53884.html
con esas herramientas en conjunto puedes hacer exactamente lo mismo que el algoritmo del MIT. Finalmente con esto puedes automatizar ciertas partes del proceso (como importar y combinar varias imágenes o ajustar niveles) para hacerlo mucho más rápido:
https://helpx.adobe.com/photoshop/using/creating-actions.html
#16 Se nota que no sigues los papers del MIT. La gran mayoría son trabajos de fin de carrera de alumnos a los que les presta su firma el profesor/tutor de turno. No digo siempre, pero muchas veces llaman a algo por otro nombre o prometen una "revolución", y todas las revistas se lo tragan porque habla un profesor de renombre en el vídeo. Otra manía que tienen es proponer "aplicaciones" espectaculares pero totalmente potenciales que apelan directamente a los titulares de prensa.
#17 Y seguro que te conoces la tienda más barata donde comprar photoshop y la ruta más corta para llegar #cuñao
#17 Juro que no puedo creer que pretendas minimizar el invento del algoritmo del MIT con esos links. Por lo menos dinos que era una broma.
#17 ¿Y por qué no usar un filtro polarizado al hacer las fotos? Creo que es más fácil que todo eso
#6: La novedad es que en este caso se usan fotos reales para rellenar los objetos afectados por el reflejo, no se juega con los niveles.
#6 Deberías de ir ahí para iluminarlos, porque seguro que los del MIT, con sus 80+ premios Nobel y siendo una de las mejores universidades del mundo, no conocen el photoshop.
#16 Claro es que en el ACM son tontos y no leen sus papers antiguos (https://eqn.princeton.edu/2010/06/patchmatch/), http://gfx.cs.princeton.edu/pubs/Barnes_2009_PAR/index.php (paper original del content-aware).
@vivayo tu eres de los que ponen en el CV que saben photoshop, verdad?
#6 No tienes ni idea... el relleno inteligente o content-Aware esta generado por un algoritmo que crea patrones, especialmente util en la creación de tileados y relleno, esto es calculo de motion interpixel por frame, es decir los vectores de movimiento por pixels.
Para determinar, por la diferencia de perspectiva que parte de la información es Foreground (reflejo u oclusión) y Background . Separando ambas imágenes y rellenando el Background con el material que obtiene cambiando la perspectiva (fijaros que busca siempre desplazar horizontal y verticalmente, para obtener el frame completo del Background).
Preparados para ver las imágenes ocultas, de los fotógrafos.!!
#18 Estoy totalmente de acuerdo con lo que dices, pero quería comentar dos detalles:
hay zonas que en todas las imágenes están bajo el reflejo. Y aún así luego separa bien Imagino que por la minimización que usan tras la proyección de los frames. Es bastante impresionante, la verdad."un algoritmo que crea patrones"... No sé a qué te refieres con patrones, pero Content-Aware básicamente busca seams (cadenas de pixels conectados) de mínima energía (que aporten poca información en su entorno, digamos) y los replica/elimina. Vamos, eso es lo que hacía el paper original, igual a Photohop le han metido algo que desconozco.
En cuanto a moverse para obtener el frame de fondo completo, precisamente algo que me ha llamado la atención es que no lo hace siempre. O eso me parece. Por ejemplo, en las imagenes de
El SIGGRAPH de este año viene MUY MUY bien en lo que respecta a papers (por este y por otros, lo digo)
#38 SI perdona, por un lado he hecho una traducción libre de pattern, me refiero a que es precisamente útil en zonas donde el contenido es caótico, cesped, cemento etc... o más solido como cielos etc... Es excelente a la hora de encontrar zonas de interes o complejas.
SIGGRAPH preview... Aunque estoy un poco frito de simuladores de liquidos...Si creo que tienes razon, tambien aplica algun tipo de reconstrucción en el reflejo, basado en el desplazamiento de los pixels.
Supongo que es una adaptación de los algoritmos que usan los programas con Nuke (The Foundry), Boujou, para tracking automático de la imagen. Algo que iniciaron los de RevisionFX y otros.
YES!
#41 Jeje, bueno, yo igual estoy un poco sesgado, a mi los simuladores de líquidos me gustan especialmente Este me encantó ->
(aunque tengo mis dudas en cuanto a su velocidad y esas cosas).#43 Yo acabe de RealFlow hasta los huevos... no quiero saber NADA, es un coñazo. Afortunadamente en Maya esta el Bifrost que es acojonantemente rapido, preciso y chulo.
#44 ¿Cuándo te hartó RealFlow? Lo digo porque el cambio de HYBRIDO a HYBRIDO2 es bastante notable, y ahora DYVERSO tiene buena pinta... aunque todo sea dicho, con esto tengo AÚN más sesgo porque conozco a la gente que hace RealFlow De Bifrost no he visto mucho aún. Sé que es la reencarnación de Naiad con Autodesk detrás y Naiad en cuanto a resultados ya era muy bueno... así que le echaré un ojo en algún momento, sí
#45 antes de eso 6 o 7 años. Cuando el cabron solo tenía un thread en la generación del mesh. Y los core no los usaba a tope. Me he pasado mas noches sin dormir por la cantidad de bugs y miserable interface de las que quisiera. Feo, inestable ... Que asco por dios
#45 sip, para simuladores de líquidos es lo mejor Naiad. Yo he hecho varios efectos complejos con el simulador de fluidos de Maya. Le pille el punto y las explosiones y humo me salían bastante bien. Lento como un mal bicho pero estable.
#45 por cierto el splash de la ultima reel de RealFlow es de puta pena.
#49 No pensé que con #45 fuera a desviar tanto el tema de la noticia en sí, pero veo que tienes una opinión apasionada sobre RF Supongo que es bueno que haya diferentes software precisamente por esto, no a todos nos gusta lo mismo
#6 Premio cuñado del día
#6 Te iba a responder pero es que... simplemente mira el video, que lo explica mejor de lo que lo podría explicar yo.
Esto supondrá un grave problema para Iker Jiménez.
Sí espera se llama "Filtro Polarizado" y hace décadas que existe...
Vaaale que este tb elimina las "oclusiones" eso es otra cosa, pero los reflejos se quitan con el Filtro Polarizado de toa la vida
#31 coño pero hablamos de tecnología digital
#31 es coña no?, el detector de ironía lo tengo al minimo
Edit
Se para que es el filtro polarizado y para que se usa. Pero estamos hablando, después de la impresión.
#32 el filtro polarizado también vale para cámaras digitales
#37 jooooder, ya lo se. Me refiero a tecnología digital por software. Para poder aplicarlo a cualquier foto aunque no la hayas tomado tu con tu filtro polarizador.
#31 Para usar el filtro lo tienes que rotar para cuadrar la polarización con el ángulo de los reflejos, ¿no? Con esto es simplemente hacer click y mover el móvil, bastante más rápido, y algo que, por ejemplo, tienes que hacer igual al hacer panorámicas. Y además recuperas la imagen del reflejo. Y funciona con oclusiones, como dices. Y te evitas poner un filtro al móvil, que ya bastante tochos son algunos
Entre los nuevos captores que graban la noche como si fuese de dia y esto, las próximas generaciones de cámaras van a ser flipantes.
Bah, aficionados:
Mientras seas negro y el algoritmo de la foto "clara" no te tome por orangután...
#14 Hasta la borrosa sale bien...
¿Donde venden el algoritmo, que lo compro? ¿PCcomponentes?
Por fin las fotos en los museos valdrán para algo.
🎶 Algoritmooooooo, algoritmo de la nocheeeeeeeee… 🎶
Es el fin de Cuarto Milenio.
¿Esto hará que las cortinas no valgan para nada?
No sé vosotros, pero lo que yo entiendo es "Google e investigadores del MIT muestran un algoritmo que quita las marcas de agua de las fotos de pago"
Un conocido decía que si nos dejan a nosotros según que tecnología para que juguemos, la que tendrán ellos...
Dentro de poco salgan un algoritmo para quitar la ropa en las fotos
bufff... esa noticia es de mayo!!! http://wwwhatsnew.com/2015/05/11/mit-trabaja-en-algoritmo-para-eliminar-reflejos-en-fotografias/
#22 Ahora es cuando salen los papers del Siggraph.
¿Google? Al final del video en los reconocimientos solo veo Microsoft.
Y no elimina los reflejos de una imagen, en una secuencia de imágenes al mover la camara discierne dos areas de la imagen una más proxima que se mueve más y una lejana que se mueve menos y las recompone independientemente.
Por lo que sirve también para eliminar otro tipo de obstáculos visuales como verjas u otros objetos próximos.