Publicado hace 3 años por amgomez a news.developer.nvidia.com

Sintetizar vistas en 3D de una escena utilizando múltiples ángulos de cámara, cámaras y condiciones de iluminación es una tarea difícil para los modelos de visión por ordenador y un importante requisito previo para las aplicaciones de AR y VR. Un grupo de investigadores de Google Research y Google Brain están trabajando para resolver este problema mediante el desarrollo de modelos de aprendizaje profundo que pueden sintetizar complejas escenas de exteriores utilizando sólo colecciones no estructuradas de fotografías tomadas por usuarios.