Mientras las Big Tech siguen subiendo precios y limitando el acceso a sus modelos más potentes, algo está pasando en silencio. Los modelos open source ya no "compiten" con ChatGPT o Claude, sino que se están convirtiendo en una alternativa más óptima y eficiente, incluso para producción.
|
etiquetas: ia , ia open source
Mi PC, de hace 12 años, un i7 y 32GB de RAM ,mueve todos los dockers o máquinas virtuales que necesito con soltura , y solo monta una GTx de 1 GB. Ahií poca IA puedo tener local. Y con los precios que tienen las tarjetas desde hace unos años, ni me planteo comprar una
#9 Correcto. También puedes sumar la VRAM de la gráfica a la del sistema. Por eso digo en una tarjeta de gama media. Tenía que haber añadido una integrada.
Para chat tengo Open webui que crea una interfaz tipo ChatGPT bastante decente. Si hablo en inglés funciona decentemente pero en español noto que fallan mucho. Es el mayor problema que le veo a los modelos pequeños. Ojalá algún equipo español haga un LLM local especializado.
También tengo un opencode conectado al ollama como alternativa a Claude Code pero con modelos así es totalmente inútil. 90% del tiempo es incapaz de leer un fichero y jamás he conseguido que haga una edición.
www.amd.com/en/blogs/2025/faqs-amd-variable-graphics-memory-vram-ai-mo
A poco que tengas un equipo con 32GB de RAM ya puedes ejecutar modelos de 20b sin una RTX4000.
La IA es un negocio si tú quieres, pero hace tiempo que uso LM Studio y pruebo modelos de LLM. Es lento porque mi PC no es el mejor, pero es decente y puedo hacer absolutamente lo que quiero con la certeza que no estoy ayudando a un grande de la informática a hacerse más grande.
Alternativa. No quiero darle dinero a los grandes pasando por caja. Vete a los… » ver todo el comentario
... "gratuita" una vez que hayas rehipotecado tu casa para poder comprar
De la que hablan en el artículo se puede usar en una gráfica de gama media, con un procesador de hace 6 años.