Hace 9 años | Por --223782-- a youtube.com
Publicado hace 9 años por --223782-- a youtube.com

Vídeo demo de "Snappers Facial Rig". Plugin de rig facial para 3ds Max y Maya.

Comentarios

ChiquiVigo

#4 Lo que no me explico en ese video es como coño consigue seguir imitándolo el robot cuando los dos cierran los ojos

D

#6 No corre peligro, y si corre, será por su inmovilismo, como el ejemplo que dan las discográficas o los taxistas.

Piensa entonces, uniendo a esto el video que enlaza #4, y atisba a ver las posibilidades de ver en pantalla, sin miedo a caer en el "valle inquietante", películas ambientadas en situaciones históricas, con modelados realistas de personajes históricos, o un Star Wars con un Han Solo EXACTAMENTE igual al de los años 70, interpretado por el Harrison Ford de 2014. ¿No sería eso genial?


Por cierto, ambos videos IMPRESIONANTES.

r

#32 En un futuro no muy lejano, en los cascos de realidad virtual como Oculus Rift, este tipo de sensores que ha enlazado #4 en su vídeo, los veremos integrados de forma nativa, pudiendo interpretar y ser actores de nuestros personajes en los juegos, como los MMO.

Orgfff

#17 goto #4 roll

YoguladoMaldito

#18 LOL justo he puesto lo mismo lol

D

Not bad!

kwisatz_haderach

#53 Es que básicamente estaba diciendo lo que aprendí en tu charla de Animayo ^.^ . Sorry por no dar credito. Me alegro que hayan aparecido gente del mundillo para corregirme e informar mejor, esto del rigger es un mundo en si mismo. Yo solo hago renders basicos y animaciones muy muy sencillas para tutoriales y similares, aparte de un par de proyectos de video arte.

D

#53 Me refería a usar músculos en la cara como decían mas arriba. lol

o

#52 Estas güena? ties doláres?

D

#52 La pregunta es ¿cuando crees que podremos ver esta expresividad en videojuegos?

D

#60
Pues a día de hoy ya se usan estos métodos. Pero lo que se terminará haciendo es usar simulación física porque te proporciona de forma automática todo y además muy fielmente. A día de hoy la simulación de leyes físicas sólo se emplea en el cine y en una etapa en la que mucha gente de la que habla aquí no participa.
Hay multitud de papers de varios SIGGRAPHS sobre cómo realizar simulaciones físicas de personajes, ya sea de todo él o sólo de su cara.

i

#63 Deberías ser un poco más exhaustivo para no confundir a la peña. Lo de que 'se terminará usando simulación física porque te proporciona de forma automática todo' es, cuanto menos, engañoso, porque suena al típico 'el ordenador lo hace todo', y eso no es así.

Si te sirve de ejemplo, ahora mismo estoy trabajando en el departamento de telas y pelo en Disney Animation, y te garantizo que todo lo que sale simulado del 'horno' es el principio de un largo proceso de trabajo. Sí, la tela se comporta de una manera físicamente realista. Pero no se trata de tener simulaciones realistas, sino de tener elementos que sean atractivos visualmente. Con lo que se reesculpe esa simulación usando herramientas de modelado 'tradicional'. Y eso, compañero, no es sólo darle a un botón...

Sobre que 'la simulación física sólo se emplea en cine', es otra de esas cosas que dices sin tener demasiada idea, porque esa 'simulación de leyes físicas' lleva años siendo usada en aplicaciones en tiempo real, como videojuegos. Que no me parece mal lo que dices, que al final cada uno tiene su opinión, pero creo que la gente que tiene una ligera idea de esto tiene cierta responsabilidad cuando comparte o cuando cuenta cómo funcionan estas cosas.

Porque no queremos que la gente piense que esto es como CSI, ¿verdad?

D

#65
Sinceramente me importa bien poco donde trabajes, como si trabajas en Mordor fabricando orcos y trolls.
Como bien dices, "telas y pelo". Precisamente las telas y el pelo es algo de lo que yo no he hablado y actualmente son simulaciones aún más duras computacionalmente hablando que las simulaciones corporales o faciales.

Y no es que reesculpas la simulación, cambias los parámetros del volumen a simular (vértices, etcétera) porque el departamento que se encarga de desarrollar la simulación que luego tú utilizas como movimientos posibles y pregrabados no ha trabajado con modelos 100% finales dado que seguramente el coste con los métodos actuales sería muchísimo más elevado de renderizar cuando se habla de cientos de miles o incluso millones de tetrahedros o polígonos. Porque obviamente para realizar la simulación han hecho antes un modelo en 3D junto con los músculos y otras cosas. Luego para simular una vez se tiene el modelo 3D listo basta con para cada fotograma definir una serie de activaciones de músculos los cuales tienen sus propiedades. De ahí hay mucho que abstraer según el tiempo de cálculo que pretendamos emplear: propiedades de los músculos, de la piel, de los huesos, cantidad de cada uno, cantidad de datos a guardar de cada uno, etcétera.

En videojuegos no se emplea física en tiempo real con el detalle necesario. Los muñecos de trapo y demás siguen siendo apaños guarros basados en física de muelles y cosas por el estilo, además usando unos sistemas con muy pocas variables (un esqueleto con las articulaciones básicas, sin músculos ni pieles) lo que da muchas veces resultados muy artificiales.

i

#66 Si menciono qué es lo que hago, y dónde, es precisamente para que se sepa que sé de lo que estoy hablando, no por vacilar ni nada por el estilo. No lo veas como un ataque personal, sino como un 'me peleo con cosas como ésta todos los días, así que algo puedo aportar a la conversación'.

Pero por cómo hilas esas ideas en tu segundo párrafo pareces saber más que la gente que se dedica a ello (¿millones de tetraedros? ¿Lo qué?). Así que sigue ilustrando al personal, que así nos irá.

D

#67
Si no conoces ni de dónde procede el material que tú tratas, ¿qué pretendes decir?

i

#68 Es verdad, ¡pobre de mí! Voy a hacer las maletas y a montar una panadería en Finlandia. ¿De eso también sabes?

D

#68 #69 A ver, no os peleéis. Si no me equivoco Filipino me respondía a mi. Y yo preguntaba cuando podríamos ver este nivel de expresividad en videojuegos.

La tecnología concreta da igual, pero tiene que ser algo generado en tiempo real por un ordenador personal ¿cuanto falta para esto? Esa es la cuestión.

Comento esto por que me da igual lo que haga Disney en sus estaciones de trabajo. Eso no es aplicable a juegos a día de hoy.

i

#70 Y yo lo que vengo intentando decir desde el primer mensaje es que, si en el video se usa lo que yo creo que se usa, no falta nada porque esas técnicas se llevan aplicando en videojuegos desde hace varios años (uno de los enlaces que puse es una charla de 2008, y otra de 2010).

Un poco más de información, sobre deformaciones faciales y corporales en 'The last of us':



Y una demo técnica en tiempo real que Sony mostró el año pasado, sobre PS4:



Y por si a alguien se le ocurre mencionar 'el video de la noticia luce mucho mejor', hay que tener en cuenta que en estos videos hablamos de generación de entornos completos, además de con varios personajes en pantalla. Si todos los recursos del equipo se dedican a mostrar en tiempo real una cabeza deformándose, hay recursos de sobra:



D

#71 Muchas gracias, jugué a "The last of us" y aunque en su día me sorprendió la expresividad de los personajes, no me lo planteé como técnica.

Algunos de mis juegos como Skyrim o Dragon Age no parecen mostrar tanta expresividad en sus personajes y pensé que simplemente aún no se aplicaban estas técnicas. Supongo que es cuestión de tener más potencia en los ordenadores para que se pueda aplicar a más personajes al tiempo que se realizan otros efectos.

Tu primer mensaje podría ser claro para alguien que sepa del tema, pero este último ha estado más a mi nivel Gracias

D

#71
Esas animaciones son de nuevo aproximaciones. No hay potencia de sobra para realizar animaciones complejas. ¿Si a esa cara le pegases con un bate de béisbol se deformaría consecuentemente? No.

Son movimientos faciales pregrabados, como los empleados en el Mafia II, CryEngine o incluso GTA.

#72
No te confundas, lo que te han mostrado es lo que se lleva haciendo desde hace años en videojuegos, lo único que han añadido es más polígonos pero siguen siendo igual de irrealistas y no interactivos con el entorno.

D

#73 Entiendo lo que quieres decir, sobre todo respecto al efecto del bate. Pero ¿Y en cuanto a expresiones sin más? Se que es más sencillo, pero aún así veo que la calidad expresiva de los personajes dejaba mucho que desear hasta ahora, y aún a día de hoy me cuesta ver algo tan expresivo como lo que se ve en el vídeo del envío.

ElPerroDeLosCinco

¡Qué actorazo!

D

Jim Carrey seal of approval

Sofrito

Qué miedo. El trabajo de los actores corre peligro.

D

#12 si te fijas en la ventanita tiene un panel de opciones. Estoy completamente convencido de que puedes crear tus preset y trabajar con ellos, hacer transiciones y demas...alguien q ha llegado a esa calidad no se le pasa eso. Hasta programas tan chustas como el poser lo tiene.

alejojo

#12 "Pero para anuncios con un famoso muerto y cosas así, puede salir mas barato. "

rocacero

#48 http://musion.co.uk/the-products/digital-resurrection/

rocacero

#48 No me deja editar, en este enlace se explica mejor la resurrecion 3D, jeje.
http://musion.co.uk/?portfolio=tupac-coachella-2012-hologram

astronauta_rimador

#6 bueno, yo creo que a quedado demostraron en varias ocasiones que muchos actores estan mas cotizados por su vida o por lo que representan que sus dotes actorales.

Benzo

Muy bueno. Ya queda menos para que no seamos capaces de diferenciar una persona real de otra virtual.

D

A día de hoy en un par de semanas puedes hacer un modelo con músculos faciales. Otra historia es la potencia de cálculo requerida para realizar la simulación teniendo en cuenta la activación de músculos y movimiento de mandíbulas y cráneo. Hablamos de una aproximación muy elevada a lo real, como la biblioteca PhysBAM.

Éste vídeo no está basado en simulación de físicas sino en movimientos pregrabados (tirando de ciertos puntos en la dirección que le plazca).

L

Mola? Guay? No está mal? Debo ser un entusiasta pero a mi me ha fascinado como pocas cosas últimamente.

b

Si, realmente esta tecnología ya esta inventada hace tiempo. Las empresas de cine actualmente usan estos rigs mediante blendshapes, sistema FACS, con quizá un mixto de rigging mas correctores de geometria para tener mayor control. Tendremos que esperar que facilidad tiene a la hora de generar y preparar el rig el plugin, porque hacerlos actualmente es una tarea compleja y lenta. No solo el rig facial tiene que mover los vértices sino cambios de texturas para el detalle de los pliegues y arrugas o movimiento sanguíneo del rostro. Pero la novedad mas importante radica en ejecutarlo en tiempo real, con lo que en un futuro los videojuegos puedan tener mejores rigs para profundizar en las expresiones faciales, mejorar la calidad de la animación y el sentimiento dotado por el animador y así cuando juguemos al Uncharted 4 nos caguemos porlapataabajo.

i

#39 ¡Perra!

D

Pareciera que un programa como este pudiera servir para mejorar las expresiones tras usarse el sistema de captura del actor en jaula. http://www.wired.com/2014/06/fx-guide-maleficent/

Lordkrudell

Cómo está avanzando la cosa.

S

joer, esto en portada, supongo que sera porque jamas os habeis puesto a ver como funcionan estas herramientas porque vamos, si que esta muy bien, pero esto lleva existiendo desde hace años, lo unico que obviamente año tras año van avanzando las tecnologias y permite modelos mas detallados pero este tipo de rigs para animaciones faciales, años... Y de hecho los rigs son un atraso, ahora hay tecnicas muy superiores que capturan la mas minima expresion facial con el uso de varias camaras, no hay que animarlo a mano obviamente.

AlexVixgeck

#19 Siempre hay que corregir algo. El mocap facial no es perfecto.

j

wow Sin palabras. Curiosamente el plug-in no está a la venta todavía, o no lo encuentro...

#19 ¿Que el rigging es un atraso porque existe la captura facial? Más bien no. Con el rigging puedes hacer blending de animaciones, lo cual con la captura no (a menos que te generas el rig a partir de las capturas, que es justo lo que han hecho aquí). Además el rig es reutilizable: sin rig cualquier expresión que quieras la tienes que capturar del actor, mientras que con el rig, una vez hecho, lo animas como quieras. Y eso sin hablar de tiempo real, donde el rigging es tu única opción, porque animar qué sé yo, 50 parámetros del rig es factible, pero cargar un modelo facial diferente cada fotograma... eso ya es otra historia.

YoguladoMaldito

Mientras lo veía iba poniendo las mismas caras que él...

D

Muy bueno!

i

Y como imagino que a alguien le pudiera interesar, aquí tenéis una aplicación práctica, de hace unos años, de este mismo sistema. El que habla, Judd Simantov, supervisor técnico de personajes en Naughty Dog durante un tiempo:



Y algo más de información:

http://www.naughtydog.com/docs/Naughty-Dog-GDC08-Mudbox.pdf


Aunque parece que no usan 'shapes', sino huesos para deformación facial (por entonces no muchos motores soportaban esta técnica), ya se usaban texturas/mapas de arrugas para conseguir resultados similares al video de la noticia.

nulero

Full HD...

J

#10 Con Dolby Surround...

ktzar

Se acaban los actores, al menos para los carteles de publicidad.

rutas

Los humanos son fascinantes.

D

Mola. Ahora veámoslo aplicado en un in-game real, en un Elder Scrolls, por ejemplo

C

¿Guay, no? ¿Esto es para hacer pelis?

D

#7 O para vídeo juegos.

D

#9 No. Los engines no aceptan este tipo de plugins.
Otro dia os doy una clase de estas cosas...

alexwing

Vamos a ver los que lo criticáis lo veis desde el punto de vista funcional, pero a mi no me asombra que sea más o menos útil, me asombra la de trucos y maravillas de la programación que eso tiene que tener para que lo "renderice" en tiempo real, por buena que sea la tarjeta.

j

#28 como curiosidad ->

D

#29 En los dos videos se nota mucho que esta generado por ordenador, esa piel parece "plastificada" o de latex, no tiene un aspecto natural.

D

Las cosas eran más fáciles con los 8 bits y esas caras compuestas por 4 píxeles.

D

Supongo que esto seria algo mejor

Cancerbero

impresionante.

c

¡¡Qué pasoteeeeee!!

D

Buen vídeo, es una pena que le hayan puesto esa música tan fea.

iago_r

Esto en España 1500€

Teranidas

Acercándonos peligrosamente a "Black Mirror"

s

Se puede instalar el plugin en el plasma de Rajoy?

k

Pues yo sé mover las orejas! Bromas aparte: brutal!

Peachembela

El perro avisa del falso cuando ladra

D

pfff... está calvo

D

Es fake...las sombras no coinciden.

heffeque

Algunos no entienden la gracia a la que se refiere #3 me da a mi...