#10 Si me dicen a mi hace 3 años, que tengo 24 años de profesión, que en 2024 podría programar en lenguajes que no conozco, generar código de todo tipo, generar imágenes de alta calidad con tan solo describirlas, etc habría dicho que eso era mentira y que faltaban por lo menos tres o cuatro décadas para ello.
Y aquí me tienes, flipando con todo lo que puedo hacer ahora con solo describirlo
(self promotion here) rb.gy/nyu6zh
Como decía Arthur C. Clark, "Cualquier tecnología suficientemente avanzada es indistinguible de la magia"
#40 Gracias. Intento hacer cosas orgánicas y alejadas del look IA. Me cansa todo el tema waifu y todo el tema chicas posando. Es cansino. Ahora durante un tiempo aparcaré el video. No da más de si. Sora está a la vuelta de la esquina y SD 3 también, y es probable que veamos un SD de vídeo basado en SD 3 que tiene la misma arquitectura que SORA. Y esto es así. Aprendemos procesos rocambolescos y de repente aparece algo nuevo que te hace ahorrar semanas de trabajo con el workflow que tenías antes.
Con controlnet fue así. Teniamos 250 assets que tocar y pensabamos hacerlo en 1 semana. Y apareció controlnet y en 15 minutos teníamos el trabajo de 1 semana hecho. Y mejor.
#35 Te veo puesto en el tema. En instagram, soy @latentcosmonaut si tienes cualquier duda, o quieres comentarme algo sobre SD, soy todo oidos y palabras.
#36 nono... se me entendió mal. Generar los batches tardo 3 o 4 minutos. Luego que se generen los videos unas horas. Tres o cuatro. Dependiendo de la cantidad. A veces toda la noche, pero pongo 300 videos a generar.
#28 Lo primero es que si puedes permitirtelo tires de tu ordenador local. Para eso te hace falta una tarjeta grafica RTX. Preferiblemente al menos con 12Gb de VRAM. Yo uso una RTX3060, aunque a veces tengo acceso a una RTX3090 o a una RTX5000.
Con un ordenador con SD, puedes perrear mucho en el sistema porque tienes libertad para instalar todo lo que necesites.
Hay muchiiisima info en el reddit de Stable Diffusion /r/stablediffusion
Y cursos hay de todo... es un tema denso la verdad, porque hay multitud de cosas que enseñar. Yo que he dado ya un par de cursillos te puedo decir que con 8 horas de formación vas que tiras.... todo depende de tu curiosidad.
#24 gracias. Aun así no deja de ser un trabajo artesanal. Para una cosa así he tenido que generar al menos 20 o 30 imágenes buenas y a partir de ahi generar 200 clips de video de 4 segundos. Y luego tienes que montarlo en Premiere o simillar.
Me parece un chiste presentar algo como "Haiper" cuando Sora está a la vuelta de la esquina y técnicamente le da mil vueltas (a falta de ver velocidad de generación, costes y demás). Pero presentarse como competidora de Sora generando dos segundos de video con un aproach tecnológico que ya se sabe que no funciona, pues da un poco de pena...
Pero si es una soberana basura. Adolece del mismo problema del que adolecen todos los generadores de video por IA hasta ahora.
1. No permite más de unos poco segundos. Y esto tiene una explicación. Estos modelos han sido entrenados con clips de 1 segundo o 2. No pueden generar más. De hecho dudo que en realidad sean 2 segundos. Seguramente es 1 segundo - 24 frames - con interpolación para duplicar
2. Tienes que estar ahí para generar el video. No hay generación por batches. Yo que genero video por IA uso Stable Video en local, puedo generar batches de 40 o 50 imagenes con diferentes parámetros en unos 3 o 4 minutos. Establezco la cola de generación de 400 videos en nada. Y luego de un par de horas tengo todos los videos. Y gratis.
Para poder competir con SORA seguramente tendrán que rehacer el modelo. Quien tiene pinta de poder hacerlo mejor es Stabe Diffusion 3, porque parece que técnicamente sigue el patrón de SORA. Asi que de competidor nada.
#218 Mi familia es canarias y sesea, no verás una puta S en lugar de la C en lo que escribimos en la vida y viceversa. Y nos tomamos esto como algo muy personal. Como venga alguien a tocarnos las narices sobre si seseamos o no, les mando a tomar por culo muy rapidito. Los repartidores de carnet de la pronunciación neutra se los pueden meter por le orto.
#22 hubo atentados en toda españa. El de hipercor (vaya institución nacional), el de la casa cuartel en Zaragoza, el matrimonio joven del PP con hijos en sevilla, y un porrón más.
#16 Estás hablando de algo de lo que seguramente estemos rascando el inicio. La web empezó siendo un mero BBS de texto. Mírala ahora. Streaming de video, juegos en navegador, etc. Eso en solo 20 años. Imagina como será la generación de imágenes en el futuro.
Tal y como lo veo no descarto que en 20 años le digas a tu televisor: "Quiero ver una película con X actor y X actriz, que transcurra en el espacio, con muchos efectos especiales y explosiones y que dure 1:30, con un transfondo político y filisófico". Y te vas al baño, vuelves y tienes una película SOLO para ti.
#4 Hace 29 años de esto. A ver, yo hace 29 años hice cosas también. Si me vas a juzgar toda la puta vida por lo que hice hace 3 décadas apañados vamos.
#2 Si, un poco si. Está inspirado un poco en los científicos de Marte tal y como los retrata "The Expanse" y en la historia de "Marte Rojo" de Kim Stanley Robinson. Hacer un ascensor espacial era un poco complicado con la IA.
Ridiculo? Los canarios somos africanos geográficamente hablando. Mira un mapa. Pero si estamos tocando a Marruecos por debajo! que lo del muro en los mapas esmentira!!!!
#36
Con una rtx y te descarga de GitHub FOOOCUS ya tienes para empezar si quieres profundizar más, te descargas AUTOMATIC1111 y si quieres nodo hard ComfyUI.
Stable Diffusion es una herramienta frente a otros que son productos cerrados
#30 Pues claro, Stable Diffusion lo puedes instalar en tu propio ordenador si tienes una Nvidia RTX. Tengo un perfil en instagram donde publico mis creaciones. www.instagram.com/latentcosmonaut/
si estás interesado te puedo dar más información. Todo eso que ves en mi perfil está hecho con una RTX3060 o con una RTX3090, en casa.
Cada sistema tiene un prompt optimo. Por no decir que Midjourney va "chetado" de prompts antes de que el prompt que tu pongas le llegue al sistema de generación. De ahí el consabido "estilo Midjourney" del que adolecen la mayoría de las imágenes hechas con midjourney.
Por ejemplo un prompt bien hecho para fotos de insectos macro te permite hacer esto...
#7 Comparto tu sentimiento.
Hasta las narices de los de "la izquierda verdadera soy yo".
Exvotante, y me alegro de lo que les pasa ahora. Poco me parece. Autocrítica cero. Personalismos 100%.
Y aquí me tienes, flipando con todo lo que puedo hacer ahora con solo describirlo
(self promotion here) rb.gy/nyu6zh
Como decía Arthur C. Clark, "Cualquier tecnología suficientemente avanzada es indistinguible de la magia"