edición general
EISev

EISev

En menéame desde agosto de 2007

12,28 Karma
388 Ranking
60 Enviadas
11 Publicadas
35K Comentarios
40 Notas
  1. @visualito Pero de 12 ya hacia un par de días que había bajado, creo, es difícil seguir todo el progreso técnico.

    Si usáis el webui de automatic han añadido el comando "AND" permitiendo fusionar 2 entradas de texto old.reddit.com/r/StableDiffusion/comments/xwplfv/and_prompt_combinatio
    En 4chan, que es donde se esta desarrollando hay algún ejemplo útil de la diferencia boards.4channel .org/g/thread/89013562#p89014696


    @thorin @ElSev @iveldie
  2. @Nadieenespecial

    A mi me sirve, tengo una RTX 2060 con 12 GB de VRAM y 64GB de RAM en el equipo

    @thorin @ElSev @iveldie
  3. @thorin Ya lo he visto. A cambio de 25GB d ram, casualmente solo tengo 24 :shit:
    Ya llegara, y total, tampoco tengo nada sobre lo que entrenar, estoy haciendo una inversión textual, con unas imágenes de prueba, y como pensaba, las imágenes de entrenamiento, o sus etiquetas son una mierda

    @visualito @ElSev @iveldie
  4. @thorin Que yo sepa no, es simplemente el uso de menos Vram, pero parece que en nada ya se va a poder usar en las de 8GB de VRam que es el tamaño mas común entre las gráficas modernas de consumidor. Hace unos dias pedían mas de doce, asi que básicamente necesitabas una gráfica profesional, ya que las XX90 de nvidia en realidad son el equivalente de las antiguas Titan, no gráficas de videojuegos, en la ultima generación por poner un ejemplo tenían el conector ese que permite usar gráficas en paralelo, cuando el resto de las gráficas que se supone que son para el consumidor no.

    Comentar que en esta webui github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Textual-Inversion que es la que yo uso la inversión textual ya esta implementada sin tener que andar de historias

    @visualito @ElSev @iveldie
  5. @thorin
    Si, esa es la clave, al ser abierto la velocidad con que avanzan las cosas es impresionante

    Voy a espera a ver si actualizan una herramienta que tengo porque me gustaría probar el entrenamiento en mi máquina sino, google collab.

    @Nadieenespecial @ElSev @iveldie
  6. @visualito Es que si he visto hacer cosas así con el inpainting o el img2img, es mucho trabajo y hay que saber hacerlo, pero también lo facilita inmensamente si te haces una foto en la pose que buscas.

    Pero es que en el video están haciendo un cherrypicking brutal de los resultados, y que aunque no hayan postprocesado han tenido que probar muchas muchas combinaciones de parámetros de generación para obtener las imágenes

    Lo que intento decir es que va ser tan fácil o difícil como coger a alguien que ya este en el modelo, y les hagas hacer esas diferentes cosas. Coge a tu famoso favorito, e intenta hacer que haga cosas como en el video de corridor crew

    Que a lo mejor es que yo soy muy torpe :shit: pero no es tan fácil como lo pintan

    @thorin @ElSev
  7. @Nadieenespecial

    Reentrenando el modelo da una imágenes que no es posible conseguir con impaiting o imgtoimg pero ni de cerca.,

    mira este video:

    www.youtube.com/watch?v=W4Mcuh38wyM

    @thorin @ElSev
  8. @visualito Con Dreambooth estas reentrenando el modelo entero, mientras que con la inversión textual solo estas relacionando un concepto con el modelo ya existente, o muy mal lo he entendido o Dreambooth usa muchísimos mas recursos.
    Tampoco he probado a usarlo, aparte de que no puedo reentrenar como tal porque pide mas de 8gb d vram (aunque al principio eran unos 40, antes de ayer 16 y hoy ya baja de 12, así que en un día o así podre :shit: ), es que no tengo un conjunto de imágenes preparadas para entrenar nada, que es lo mas importante. Ah y que yo solo trabajo en local

    @visualito Sera mas trabajoso, pero con img2img, inpainting y el resto de opciones avanzadas se puede hacer ese tipo de cosas

    A ver que sale de aquí a un par de meses, había uno de esos furrys que había ya encargado 8 rtx A6000 para entrenar sus paranoias, que le llegaba en noviembre. Yo flipo con la peña, cuesta seguir el ritmo de los avances

    @thorin @ElSev
  9. @Nadieenespecial
    Es lo mismo que se puede hacer con Dreambooth, pero según entiendo el entrenamiento de dreambooth es más liviano a la hora de exigir recursos.
    @thorin @ElSev
  10. @Nadieenespecial

    Pues el inetrés en entrenarlo con tus propias fotografías para hacer cosas como las de Corridor Crew.
    @thorin @ElSev
  11. @thorin

    ¿Has probado a crear un concepto con la inversión textual? Explicación de que como se hace github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#textual- y la librería publica de conceptos cyberes.github.io/stable-diffusion-textual-inversion-models/
    Si lo entiendo bien simplemente usa el modelo para relacionar un conjunto de imágenes y una palabra que des con lo que ya esta interno en el modelo, para según que cosas sirve. Aparte de que solo ocupan 5kb que también es una ventaja.

    Si no es buscar en las listas de artistas que se han usado en el modelo de SD para buscar uno que haga fotos de cascos históricos y paisajes y meter sus nombres en la generación de texto. Aunque yo estoy explícitamente evitando este enfoque ya que la idea es acabar usando las imágenes comercialmente.

    A mi tampoco especialmente, pero se que ese tipo de autistas son los únicos que tienen miles de imágenes perfectamente clasificadas y anotadas, y a la vez tienen interés en entrenar un modelo. Pero ahora mismo si quieres generar personajes ficticios pueden ser los mejores. Sobre todo si es en plan manga/anime

    @visualito @ElSev
  12. @thorin @visualito
    ¿Alguna razón especifica para que queráis reentrenar modelos?
    Hay modelos mas avanzados, pero de momento son NSFW... Y honestamente creo que muchos de los avances están saliendo de las paginas NSFW. Se supone que aquí van a ir recopilandolos rentry .org/ sdmodels (quitar espacios)
    Hay mucho furry con demasiado dinero :-| pero ya ha avisado alguno que después de que acabe con sus mierdas gustos, va a seguir entrenando modelos normales.
    Dan mejores resultados para muchos escritos, sin ser salidos de tono, aunque otros los hace peores.

    A mi me esta jodiendo que tengo medio parado un proyecto por que se suponía que salia la 1.5 mejorando manos y mas el día 25 :shit:

    Por cierto premio al que reentrene el primer modelo con gallir, que no pudimos hacer el trolleo en condiciones cc @ElSev
  13. @landaburu @Carme @zoezoe @Remo_ @Dseijo @Admin @ElSev @Landaburu

    "incitación al odio" suele significar que tienes una ideología distinta de la de los admins. He visto que usas la palabra "femiprogre", eso no te lo van a perdonar.
  14. @Carme @zoezoe @Remo_ @Dseijo @Admin @ElSev @censuréame
    Buenas tardes

    Escribo preocupado por la política de Strikes que se sigue contra mi usuario @Landaburu

    Una vez más se me aplica un Strike por “incitación al odio” SIN RAZÓN aparente, sin especificar la razón, ni la norma incumplida. Una vez más repaso mis comentarios y envíos y no encuentro nada.

    SOLICITO:
    - la revisión y eliminación de los Strikes aplicados
    - información sobre las consecuencias de proseguir esta acumulación de penalizaciones
    - revisiòn general de esta herramienta, pues está dando lugar a abusos

    Un saludo a tod@ meneante de buena voluntad
  15. @ElSev Recuerda. Si es posible foto con el recibo en la mano por ejemplo y luego con el paintshop le tapas los datos personales.

    Saludos.
  16. @ElSev Me queda una. Si me envías la captura del último recibo a mí yo te la paso. Datos personales tapados, fecha, cantidad y ONG que se vea y algo que me justifique que seas tú, ya sea el hecho de estar escaneado el recibo (lo has tenido en las manos) o una foto del recibo (la mejor opción).

    Puedes enviármelo a [email protected].

    Si el correo con el que te quieres registrar no es el mismo del remitente. Dame el correo al que quieres que te la envíe.

    Saludos.

    PD: Soy amante de los animales. Por eso te la paso a ti si la quieres :-)
12» siguiente

menéame