Usando Inteligencia Artificial ahora podemos llevar el mundo real al digital en segundos. La tecnología NeRF se hizo popular en 2020, demostrando que una red neuronal podía crear una renderización volumétrica realista en 3D de un conjunto de imágenes. El problema, tardaba mucho: horas e incluso días. Pero el trabajo que vamos a estar probando hoy, consigue esto mismo pero en segundos. ¿Qué tan bien funciona y cómo se compara con las técnicas clásicas de fotogrametría? ¡Vamos a verlo!
#8:
#6 no sé si no has leído la noticia o si es que estás un poco pez en estos temas.
La idea aquí es que, en lugar de con X tecnología tomar medidas del entorno y en base a las medidas obtenidas representarlo en 3D, lo que hace la IA es una aproximación.
Imagínate a ti mismo a ojo haciendo un modelo 3D, sin medir nada, algo "parecido" saldría a la realidad, no? Pues eso es lo mismo pero la IA lo hace mejor que tú y en un tiempo que es mínimo.
Eso se consigue entrenando a la IA. ¿Cómo? Pues dependiendo pero hay muchas formas, una podría ser hacer una red neuronal que a partir de una imagen o serie de imágenes genere una representación 3D. Las primeras serán malas, ni reconocibles siquiera, pero para eso tienes otra IA (o humanos, aunque esto no es muy viable por lo general): la que comprara el resultado 3D de la primera con la imagen/imágenes originales y puntua el. Nivel de parecido. Cuando la IA ha hecho esto cientos de miles de veces, se vuelve tan buena con las aproximaciones que estas pueden sustituir las representaciones más exactas para muchos ámbitos (ejemplo: un mundo 3D para un videojuego ambientado en la ciudad XXX).
Esto se puede aplicar a decenas de cosas, por ejemplo hay aproximaciones de cálculos de Físicas. Imagina una IA a la que enseñas un montón de representaciones de movimiento del agua y quieres que la replique y de alguna forma vas puntuando en resultado hasta que llega un punto que la 'estimacion' de la IA es indistinguible de la realidad, por lo menos, a ojo humano aunque quizás no sea tan exacta matemáticamente.
#10:
#6 Para qué ver el vídeo si puedes dar un resumen y crítica del mismo antes de verlo, gracias a la red neuronal defectuosa y mal entrenada de tu cabeza.
#15:
Como diseñador 3D, esto me parece una pasada y me plantea incógnitas
¿Como pasar el módem de NeRF a un modelo renderizable? Pq está genial q saque tanta información, es una pasada, pero para representación 3D, eso consume ingentes cantidades de recursos q no están disponible actualmente.
La photogrametria, es más lenta, si. He llegado a hacer procesos de 12h para un terreno, pero es ussble después. Puedes medir. Calcular y colocar cosas.
Obtienes modelos fieles al original (usando fotografía, no frames de vídeo)
Y con un buen material PBR, puedes trabajar bien
Esta tecnología me parece q puede estar más enfocada a análisis forenses de zonas, pero par hacer un 3D de una vivienda... Nup
Interesante, a ver hacían donde va
Como diseñador 3D, esto me parece una pasada y me plantea incógnitas
¿Como pasar el módem de NeRF a un modelo renderizable? Pq está genial q saque tanta información, es una pasada, pero para representación 3D, eso consume ingentes cantidades de recursos q no están disponible actualmente.
La photogrametria, es más lenta, si. He llegado a hacer procesos de 12h para un terreno, pero es ussble después. Puedes medir. Calcular y colocar cosas.
Obtienes modelos fieles al original (usando fotografía, no frames de vídeo)
Y con un buen material PBR, puedes trabajar bien
Esta tecnología me parece q puede estar más enfocada a análisis forenses de zonas, pero par hacer un 3D de una vivienda... Nup
Interesante, a ver hacían donde va
#15 la aplicación de demostración dice que exporta a nube de puntos pero también exporta a geometría de triangulos. Supongo que ciertas cosas salen bien y otras no tanto. Puedes probar!
#22 si exporta a geometría, ya no tendrá los brillos y cambio de color del material. Aún así, si exporta una geometría decente de manera rápida, es bien
No puedes comparar la fotogrametría con las redes neuronales como él lo hace ya que la fotogrametría digital es un método de reconstrucción tridimensional orientado a tomar mediciones y es muy preciso y otro es una técnica de caja negra que te da un modelo 3D pero sin ningún rigor estadístico.
#7 Más que comparar entiendo que son soluciones distintas para aplicaciones distintas, para ingeniería o construcción vas a necesitar una nube de puntos con la que poder trabajar y para el entretenimiento quizás esta sea una solución suficiente
La fotogrametría tiene más años que la tos seca. Es cierto que ahora con el móvil con una Cámara LiDAR e incluso menos, es más fácil y casi automático. Pero colgarle la etiqueta de IA puntera a una cosa que puedes hacer con un Kinect viejo (40€ en Amazon) y el programa skannect (por los torrents anda) pues no se yo……
#6 no sé si no has leído la noticia o si es que estás un poco pez en estos temas.
La idea aquí es que, en lugar de con X tecnología tomar medidas del entorno y en base a las medidas obtenidas representarlo en 3D, lo que hace la IA es una aproximación.
Imagínate a ti mismo a ojo haciendo un modelo 3D, sin medir nada, algo "parecido" saldría a la realidad, no? Pues eso es lo mismo pero la IA lo hace mejor que tú y en un tiempo que es mínimo.
Eso se consigue entrenando a la IA. ¿Cómo? Pues dependiendo pero hay muchas formas, una podría ser hacer una red neuronal que a partir de una imagen o serie de imágenes genere una representación 3D. Las primeras serán malas, ni reconocibles siquiera, pero para eso tienes otra IA (o humanos, aunque esto no es muy viable por lo general): la que comprara el resultado 3D de la primera con la imagen/imágenes originales y puntua el. Nivel de parecido. Cuando la IA ha hecho esto cientos de miles de veces, se vuelve tan buena con las aproximaciones que estas pueden sustituir las representaciones más exactas para muchos ámbitos (ejemplo: un mundo 3D para un videojuego ambientado en la ciudad XXX).
Esto se puede aplicar a decenas de cosas, por ejemplo hay aproximaciones de cálculos de Físicas. Imagina una IA a la que enseñas un montón de representaciones de movimiento del agua y quieres que la replique y de alguna forma vas puntuando en resultado hasta que llega un punto que la 'estimacion' de la IA es indistinguible de la realidad, por lo menos, a ojo humano aunque quizás no sea tan exacta matemáticamente.
#6 Para qué ver el vídeo si puedes dar un resumen y crítica del mismo antes de verlo, gracias a la red neuronal defectuosa y mal entrenada de tu cabeza.
#6 Que lo puedes hacer con un kinect viejo o un LiDAR???? Claramente nunca has trabajado con ellos. El resultado y la resolución es una porquería, especialmente con la kinect, a años de luz de lo que puedes conseguir con una red.
#17 además que pensándolo mejor, no es ni el mismo problema, en el primer caso tratas de modelar un objeto, en el segundo tratas de producir imágenes realistas a partir de unas coordenadas mirando el objeto (o lo que sea), así que no hay modelo.
Comentarios
Como diseñador 3D, esto me parece una pasada y me plantea incógnitas
¿Como pasar el módem de NeRF a un modelo renderizable? Pq está genial q saque tanta información, es una pasada, pero para representación 3D, eso consume ingentes cantidades de recursos q no están disponible actualmente.
La photogrametria, es más lenta, si. He llegado a hacer procesos de 12h para un terreno, pero es ussble después. Puedes medir. Calcular y colocar cosas.
Obtienes modelos fieles al original (usando fotografía, no frames de vídeo)
Y con un buen material PBR, puedes trabajar bien
Esta tecnología me parece q puede estar más enfocada a análisis forenses de zonas, pero par hacer un 3D de una vivienda... Nup
Interesante, a ver hacían donde va
#15 la aplicación de demostración dice que exporta a nube de puntos pero también exporta a geometría de triangulos. Supongo que ciertas cosas salen bien y otras no tanto. Puedes probar!
#22 si exporta a geometría, ya no tendrá los brillos y cambio de color del material. Aún así, si exporta una geometría decente de manera rápida, es bien
Paradojas de la vida, recreamos la realidad para salir de ella.
Neeerf arco y flechass
gran canal para entender tecnología puntera
No puedes comparar la fotogrametría con las redes neuronales como él lo hace ya que la fotogrametría digital es un método de reconstrucción tridimensional orientado a tomar mediciones y es muy preciso y otro es una técnica de caja negra que te da un modelo 3D pero sin ningún rigor estadístico.
#7 Más que comparar entiendo que son soluciones distintas para aplicaciones distintas, para ingeniería o construcción vas a necesitar una nube de puntos con la que poder trabajar y para el entretenimiento quizás esta sea una solución suficiente
La realidad está demasiado chetada y hay que nerfearla.
Brujería !!!
Publicidad gratuita para el youtuber más narcisista
A mi este tipo me da miedo y me ahorra el cine
Me encanta ese canal. No sé si el autor se encuentra entre los meneantes, pero mi enhorabuena!
#13, sí es meneante pero apenas participa.
Yo tan solo pasaba por aquí para ver la portada y caída más rápida jamás registrada en la historia.
La fotogrametría tiene más años que la tos seca. Es cierto que ahora con el móvil con una Cámara LiDAR e incluso menos, es más fácil y casi automático. Pero colgarle la etiqueta de IA puntera a una cosa que puedes hacer con un Kinect viejo (40€ en Amazon) y el programa skannect (por los torrents anda) pues no se yo……
#6 no sé si no has leído la noticia o si es que estás un poco pez en estos temas.
La idea aquí es que, en lugar de con X tecnología tomar medidas del entorno y en base a las medidas obtenidas representarlo en 3D, lo que hace la IA es una aproximación.
Imagínate a ti mismo a ojo haciendo un modelo 3D, sin medir nada, algo "parecido" saldría a la realidad, no? Pues eso es lo mismo pero la IA lo hace mejor que tú y en un tiempo que es mínimo.
Eso se consigue entrenando a la IA. ¿Cómo? Pues dependiendo pero hay muchas formas, una podría ser hacer una red neuronal que a partir de una imagen o serie de imágenes genere una representación 3D. Las primeras serán malas, ni reconocibles siquiera, pero para eso tienes otra IA (o humanos, aunque esto no es muy viable por lo general): la que comprara el resultado 3D de la primera con la imagen/imágenes originales y puntua el. Nivel de parecido. Cuando la IA ha hecho esto cientos de miles de veces, se vuelve tan buena con las aproximaciones que estas pueden sustituir las representaciones más exactas para muchos ámbitos (ejemplo: un mundo 3D para un videojuego ambientado en la ciudad XXX).
Esto se puede aplicar a decenas de cosas, por ejemplo hay aproximaciones de cálculos de Físicas. Imagina una IA a la que enseñas un montón de representaciones de movimiento del agua y quieres que la replique y de alguna forma vas puntuando en resultado hasta que llega un punto que la 'estimacion' de la IA es indistinguible de la realidad, por lo menos, a ojo humano aunque quizás no sea tan exacta matemáticamente.
#8
¡¡¡Quiero salir de mi cueva!!!!
#8 Por lo que he visto en el original simplemente interpolan entre fotos sacadas desde distintos ángulos y dejan que la red fillee los gaps
https://www.matthewtancik.com/nerf
#18 ojalá existieran palabras en español para suichear eso último que has dicho
#25 Lo siento, el castellano es mi lengua nativa
#6 Para qué ver el vídeo si puedes dar un resumen y crítica del mismo antes de verlo, gracias a la red neuronal defectuosa y mal entrenada de tu cabeza.
#10 que faltón. No?
#6 Que lo puedes hacer con un kinect viejo o un LiDAR???? Claramente nunca has trabajado con ellos. El resultado y la resolución es una porquería, especialmente con la kinect, a años de luz de lo que puedes conseguir con una red.
#17 además que pensándolo mejor, no es ni el mismo problema, en el primer caso tratas de modelar un objeto, en el segundo tratas de producir imágenes realistas a partir de unas coordenadas mirando el objeto (o lo que sea), así que no hay modelo.
#6 sí pero no. Esto no es fotogrametría a la antigua, es de un peiper del 2020 que con poca información se monta la película.