Vemos un sistema de código abierto compitiendo con los modelos propietarios más avanzados. La start Up china ha presentado dos modelos que igualan a GPT-5 y Gemini-3 Pro, con capacidad de razonamiento avanzado y uso autónomo de herramientas... GRATIS .
|
etiquetas: deepseek , gpt , gemini , ia , china
Google ha presentado un modelo superior usando su propio hardware con menos coste, tanto que Meta ha empezado a comprarles TPU's a Google.
OpenAI no tiene ninguna posibilidad y entonces se rompe el circulo ese de crear dinero ficticio que tienen OpenAI y NVIDIA
En estos momentos hay mercado para muchas NVIDIAs, en el futuro ya se verá pero hoy por hoy sobra mercado por todos lados.
Evidentemente estamos hablando de cosas que no se pueden predecir, pero la burbuja de la IA que yo veo no está tan relacionada con la demanda sino con la ingeniería fiscal que tienen montada para hablar de cifras de miles de millones.
Y esa burbuja está sustentada en que tanto OpenAI como NVIDIA tienen los mejores productos.
Y ahora los hay mejores y por un precio ridículamente inferior.
A NVIDIA debe preocuparle AMD, los ASIC, y lo que surja. Y DeepSeek debe preocupar a OpenAI/Microsoft, Anthropic, Meta, DeepMind/Google, etc ...
...y, por cierto, si ROCm alcanza 95% compatibilidad con PyTorch (proyectado para 2025), en HPC dejaría de tener tanta ventaja.
Y si los modelos pasan a ser mas manejables y eficientes (como deepseek), las empresas los ejecutaran "en local"
Me parece un refrito de David contra Goliat, o la ola de antiamericanismo 25.0
cc #10 #11
PD: las TPUs no valen para entrenar, son para inferir
These costs are estimated from benchmarking the actual service deployed on H800 GPUs, at a rental price of 2 USD per GPU hour. Note that for short-sequence prefilling, we specially implement a masked MHA mode to simulate DSA, which can achieve higher efficiency under short-context conditions.
No subestimemos a los EEUU en tecnología con todo su apoyo gubernamental y sociológico que tiene como país.
linuxblog.io/deepseek-local-self-host/
...otra cosa es que, para el modelo más capaz, estés dispuesto a gastar en hardware semejante pasta.
opensource.org/ai/open-weights
platform.openai.com/docs/models/gpt-oss-120b
platform.openai.com/docs/models/gpt-oss-20b
#60 Tiene varios modelos descargables. No sé si el último también.
Entiendo además que si quiren promocionarlo y si estos sistemas se perfeccionan con el uso por parte de los usuarios, tiene sentido que se quiera financiar esos costos
Lo digo porque es el que uso y ya le he preguntado.
github.com/deepseek-ai/DeepSeek-V3#6-how-to-run-locally
. Pero no solo puedes descargar su modelo de 671B de parámetros y 400GB , si no que lo puedes modificar, personalizar o visualizar para aprender o lo que quieras.
es.wikipedia.org/wiki/DeepSeek
Llevo prácticamente usándolo en local un año Al igual que Qwen de Alibaba.
Artículo del 30 de enero del 2025:
thedbadmin.com/blog/run-deepseek-locally-ollama
www.meneame.net/story/gobierno-belgica-prohibe-empleados-utilizar-deep
Eso para los europedos, es una derrota