Hace 3 meses | Por NPC1 a xataka.com
Publicado hace 3 meses por NPC1 a xataka.com

La carrera por liderar el desarrollo de la inteligencia artificial se está poniendo más que interesante. Pocas horas después de que Google anunciara Gemini 1.5, una nueva versión de su modelo multimodal destinada a competir en mejores condiciones con GPT-4, OpenAI ha revelado su primer modelo de generación de vídeos.

Comentarios

alexwing

Esto ya está tomando una calidad que va a hacer temblar a más de uno en la industria del cine.

m

#4 el problema no será precisamente el cine... Imagina los chantajes que se podrán hacer.

thorin

#9 Esa tecnología ya existe. Hacer un vídeo "deepfake" es posible desde hace años, y el año pasado ya se publicaron herramientas de clonación de voz muy maduras.

m

#10 deepfake a nivel público está muy inmaduro y lo poco que hay por ahí es a baja resolución y cuando no por lo general en la transición del vídeo se ve de vez en cuando la cara de otro. Otra cosa es coger a un personaje que habla directo a una cámara.

Ponerte en una escena cometiendo algún tipo de delito o pasando por una cámara cercana, es un problema.

thorin

#19 ¿Baja resolución?



Y eso es sólo una prueba de concepto de hace tiempo.

Y si, tiene debilidades, pero el director adecuado puede evitarlos para conseguir una escena creíble.

m

#20 es bueno, no te lo niego... Me quito el sombrero y el palillo.

Robus

#9 Ninguno, porque si alguien te amenaza de que va enseñar un vídeo a tu mujer en el que apareces tu con la vecina, tu podrás contestarle con un video en el que apareces tu haciendo malabares y tu mujer sabe lo torpe que eres...

Y a nivel político ya nadie se cree los vídeos que aparecen ahora, de hecho, todavía estan buscando a un tal M.Rajoy así que... roll

m

#16 tu mujer puede ser el menor de los problemas.

thorin

Ojalá sea real porque la calidad es muy buena y si es capaz de mantener la coherencia más de 10 segundos, es más que un logro.

Eso sí, no esperéis generaciones instantáneas, eso tiene que tardar un buen rato en procesarse.

#0 OpenAI lanza su propio modelo de texto a video, Sora [EN]

Hace 3 meses | Por dmeijide a openai.com

Leni14

Joder acabo de imaginar cómo sería integrar esto con unas gafas 3d o realidad aumentada de calidad creando mundos y escenas e interactuando con ellas en tiempo real.

Leni14

#11 Imagina sin límites de copyright estar dentro de cualquier película, ver e interactuar con seres queridos fallecidos, relacionarte solo con creaciones artificiales que simulen ser tus amistades… uff me desborda. Es un poco cómo la sala holográfica de Star Trek.

RamonMercader

#12 pasear por la antigüedad y hablar directamente con las grandes figuras históricas...

Robus

#13 Me acabo de imaginar a Aristoteles soltando un "¿qué pasa neeeeng?!" y ya no me parece tan buena idea.

kumo

Hay algunos alucinantes en su web.

ÆGEAN

#0 Más dupe que dupe. Y encima en portada.

Leni14

Esto está tomando un camino que pinta que se va a comer a la industria audiovisual en poco tiempo.

musg0

Si es como la generación de imágenes, el mismo prompt no generaría el mismo video exacto 2 veces ¿no? Eso le quitaría muchos usos de los que estamos imaginando y como mucho serviría para generar insertos de relleno y poco más. La revolución, para mí, sería que nos mostraran varios videos seguidos con la misma persona realizando diferentes acciones de forma coherente.
En el de los astronautas parece que lo hace, pero yo veo que es como la misma pose desde ángulos diferentes, y sin mover ni un músculo.
Visualmente es flipante, pero no tengo imaginación suficiente para encontrarle un uso como producto salvo videos de relleno para youtubers, creador de memes y reacciones, o tonterías similares.