Hace 3 meses | Por dmeijide a youtube.com
Publicado hace 3 meses por dmeijide a youtube.com

Hace unos días en mi otro canal en dosv que donde doy todas las explicaciones teóricas de Cómo funciona la revolución de la Inteligencia artificial que estamos viviendo hoy os estuve hablando sobre los mixter of experts un tipo de arquitectura de Deep learning que actualmente se está utilizando tras estos enormes modelos de lenguaje que utilizamos para poder hablar con la Inteligencia artificial y que ha ganado bastante popularidad tras presuntamente descubrirse que esta podría ser la arquitectura que reside tras un modelo tan popular como gpt

Comentarios

M

#11 Compro!

d

#11 Que coño! que le den a los casinos y al ChatGpt!

thorin

#8 Parece que conoce bien a su tía Berta.

M

Sin sensura

caramelosanto

#44 cero impreciso, todo lo contrario. Era un chascarrillo por el tinte de tu mensaje nomás.

pedrobotero

Por ahora poco viable para quien no tenga una gpu decente

visualito

#4

Como complemento recomiendo "The Oobabooga TextGen WebUI " para correr los LLMs

Acá hay un buen video al respecto



recomiendo mucho ese canal para todo lo que tiene que ver con IA sobre todo en local

ACEC

#12 +1 para ollama + ollama-webui. Modelos que en oobabooga no conseguía que funcionaran correctamente, aquí han ido como la seda.

LoboAsustado

#c-14" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3900352/order/14">#14 Le he puesto el zephir 7B con este prompt
C# method to read a json file from a postman collection export that will read the collection variables, launch the requests and execute the test scripts

Y lo he dejado a su bola...una hora mas tarde sigue produciendo codigo , con explicaciones y razonamiento. Cuando termine le echare un ojo a ver si se parece a lo que hice yo en su momento y a lo mejor aprendo algo

Lo mas probable es que alucine bastante el LLM y pierda de vista el objeto de la pregunta , pero como ejercicio de programacion es lo bastante bueno como para evaluar lo bien que entiende el concepto , y como estructura las respuestas. Obviamente no espero que sea capaz de reproducir como interpretar el codigo javascript que hace las pruebas en postman desde C# , pero si saca una forma de hacerlo en C#, igual pasa a ser mi modelo favorito para programacion.

Para multimodal , el lava es como minimo curioso. Arrastras una foto sobre el chat, le dices que describa el contenido y la verdad es que me ha sorprendido muy gratamente

ACEC

#39 para código, mejor que zephyr, te recomiendo deepseek-coder que tiene también una versión de 6.7b

LoboAsustado

#46 Le echare un ojo , pero no era tanto el codigo en si como el "razonamiento" que tenia que hacer para sacarlo. Me ha sorprendido gratamente. Ahora estoy probando cosas con el dolphin-mixtral y va la hostia de lento , pero ahi va , sacando un caracter cada 5 minutos o asi lol

ACEC

#47 ¿pero que tienes, un 486?
Añade al prompt algo como "think step by step" y verás como razona.

LoboAsustado

#48 un i5-7500 CPU @ 3.40GHz con 32Gb y una nvidia RTX 1050 de 2 Gb, no me pidas mucho mas hasta que llegue la devolución de hacienda lol

m

#4: 8 Gb, imagino que nada más arrancar el ordenador. ¿no? lol

sotillo

#4 Muchas gracias, una explicación cojonuda

visualito

#5

¿tienes alguna idea de lo que estás hablando?

KoLoRo

#8 Copio y pego de algún foro, no le pidas más lol

mierdeame

#13 Puedes incluso usar Img2Img e Inpaint para alterar imágenes existentes o usarlas de base...

o

#5 gerontofilo

Find

#19 ...hasta que tenga una GPU decente

e

#5 para lo de la tía berta existen otros modelos...

founds

#1 yo tengo una 1070 TI, y tira bastante bien

lawnmowerdog

#1 Exactamente. Hay que tener un tarjeta bien potente para correr eso medianamente bien. Si se recurre a modelos más pequeños, tienes una mierda pichanda en un palo. El tipo lo ejecuta en una doble tarjeta con casi 100GB de VRAM, que cuesta como 10.000 euros. Vaya engaño de vídeo! (al menos para el 99% de nosotros que no tenemos semejantes dineral para ese hardware)

mierdeame

#21 Yo tengo una 7900XTX con "sólo" 24GB de RAM y se supone que es una gráfica pepino (sí, enfocada a gaming más que a otras tareas)

lawnmowerdog

#35 El problema es que esa tarjeta no sirve (aún) para la IA.

mierdeame

#50 Por lo menos funciona con Stable Diffusion en Ubuntu

lawnmowerdog

#51 Ah sí? No lo sabía. Stable Diffusion puede usar tarjetas de AMD?

lawnmowerdog

#53 Gracias por la info!!

woopi

#21 Pues paso de probar en la Raspberry...

woopi

#21 Por cierto, bromas aparte tampoco corre en el mío. Tengo 32Gb de RAM y una nVidia. Pero no corre por que el i7 de 2 generación no soporta la instrucción avx2, que parece que es una vectorial "avanzada" implementada en la 3 versión de los micros de intel. Soy de informática vintage y no me apetece cambiar de ordenador porque este me llega para uso general... Por lo que ya jugaré con otros locales menos problemáticos. Saludos!

manbobi

El otro día quería hacer un curso pero están ocupados hasta marzo.

Socavador

¡ Eso, mátalo, mátalo !

mandelbr0t

#33 Impedimentos ninguno, complicaciones muchas.

shinjikari

#36 ¿Qué complicaciones? No recuerdo haber tenido ninguna.

Toranks

¿Alguien sabe qué puede estar pasando en mi Windows 11 que no me deja instalar el LM Studio? Me dice installation has failed todo el tiempo, incluso como administrador.

mandelbr0t

#23 ¿quieres trastear con LLMs en windows? En zerio? lol

D

#29 ¿qué impedimento técnico habría para ello?

D

Basura

Razorworks

Yo lo único que os digo es que vayáis apañando RAM para poder cargar buenos modelos, y respecto a gráficas, las AMD os dan mas memoria por menos dinero que las Nvidia y, a fin de cuentas, eso es lo único que importa.

l

#20 Pues hoy por hoy o es Nvidia o como si no tuvieras gráfica.

Razorworks

#24 #26 LM Studio tiene soporte de AMD ROCm beta.

Y si las cosas pintan como AMD quiere que pinten, es posible que en el futuro en la IA no todo sea tan "Nvidia-only". Y es que AMD esta ofreciendo material competente, más barato que Nvidia, con el doble de RAM (¡mas importante que la potencia de procesamiento!), y consumiendo menos. Coño, es que las 4090 gastan tanto que se queman solas, cojones...

P.D.: Y no nos olvidemos de los AMD que llevan iGPU integradas. Un 8700G admite hasta 256GB gastando 65W...

caramelosanto

#42 de fanboys de Apple a fanboys de AMD. Como cambian los tiempos pero no las mañas.

Saludos,
- Fanboy de Nvidia

Razorworks

#43 ¿Hola? Si ves que he dicho algo impreciso me avisas.

Robus

#20 Si no tienes una Nvidia olvidate del CUDA, y sin CUDA, a efectos prácticos, olvidate del ML en ordenadores personales.

o

#26 Con los MAC ARM también puedes ejecutar los modelos 7b (con 16GB) y si tienes 32Gb los 14b. El rendimiento de un 7b en un M1 Pro es similar a una RTX3080 en velocidad de respuesta. Sin embargo, lo dicho por ahí arriba, los modelos pequeños valen para hacer algunas pruebas y cuatro cosillas

Dectacubitus

Funciona con GPUs Radeon ?

shibabcn

#16 la mía (6700xt) la plataforma no la dectecta automáticamente al menos...