DeepSeek lanzó el viernes versiones preliminares de su nuevo modelo insignia de inteligencia artificial de código abierto, V4, que según afirmó presenta capacidades mejoradas de razonamiento y rendimiento. La compañía lanzó dos nuevos modelos: DeepSeek-V4-Pro y DeepSeek-V4-Flash. La versión pro cuenta con 1,6 billones de parámetros, mientras que la versión flash es un modelo más pequeño y ligero con 284.000 millones de parámetros, según indicó la compañía en una publicación en el sitio web de IA de código abierto Hugging Face.
|
etiquetas: deepseek , v4 , inteligencia artificial
No hay nada más anti capitalista que regalar.
Déjalo, muchacho, que están hablando los mayores
Para programar cosas sencillas o manipulacion de datos Claude va muy bien pero a primer suspiro pide que pases por caja. Deepseek hace lo mismo gratis.
Por cierto, en español un modelo de frontera en este contexto no tiene sentido, no estamos hablando de países o del limite entre dos zonas. De nuevo frontera es una palabra que en inglés significa una cosa y español otra.
Entiendo que debes ser inglés hablando español; en español hablaríamos de un modelo de lenguaje puntero, que significa avanzado.
Pregunto por entender, que igual las percepciones son difrerentes según a qué lado del mundo estés.
Yo estoy suscrito a Kimi, china, desde hace meses y la uso mucho, principalmente con kimi-cli u opencode. Nunca me suelo quedar sin tokens ahí. También tengo acceso a deepseek de la misma forma. En mi día a día no veo gran diferencia entre esos dos pero, cuando se enganchan, doy para atrás y claude lo suele resolver bien de una y eso todavía no ha cambiado.
Si tuviera pasta infinita usaría solo claude. Como no es el caso, seguiré usando kimi y/o deepseek o antigravity... mientras espero a que claude me recargue el slot que se come a toda leche...
medium.com/vibe-coding/berkeley-got-100-on-every-ai-benchmark-without-
Personalmente, los modelos de openai me han funcionado bien para código (codex), pero los de anthropic (claude code) los superan cuando lo que le pides es menos específico. Me imagino que por eso son el estandar para vibe coding. En mi caso le pido cosas super especificas y tengo skills, rules y archivos para agentes asi que por lo general la clavan siempre (la mitad del trabajo lo he hecho yo) De hecho nunca me quedo sin tokens.
Ya. Estoy de acuerdo. Por eso contaba mi experiencia, (yo tampoco me fío de esos tests) pero #8 me pedía benchmarks... y ahí puse alguno.
Es una gran noticia porque es el modelo abierto más potente que tenemos pero está por detrás de los mejores modelos.
En español no es alquilar, al revés, es que usas algo (como una vivienda) para tú sacar beneficio.
Hablaríamos de pagar, contratar por usar el servicio.
En cualquier caso salvo que hagas programación salvaje, yo he usado deepseek desde el prompt para que me limpie y revise código y ha ido genial.
A mi deepseek siempre me ha dado resultados mucho peores que los modelos de frontera, pero es verdad que no he tenido oportunidad de utilizar ningún agente de programación que funcione con ella. El problema es que estoy muy acostumbrado a los modelos de Google y Antropic y volver atrás sabiendo que hay problemas técnicos que ta están solucionados solo porque es una alternativa libre, me costaría demasiado.
No es quien hace el modelo , es el modelo original de quien han robado el conocimiento para hacer este .
Decir que la gente de deeepseek "hizo" un modelo es como decir que Israel ha pacificado Gaza .
Hay desarrolladores que ya gastan mas de $200 con Claude, con eso pagas en una año tu propia maquina donde meter modelos potentes, aunque seguirías pagando la eletricidad y teniéndolo que mantener tú
El ejemplo que pongo es Suno: existe la solución abierta que corre en tu propia maquina y suena como la v4, con la ventaja de poder generar canciones infinitas y subir tus temas sin que se lo estes dando una empresa para que entrene sus modelos con tus canciones.
Como dices, cuando haya algo tan bueno como Claude Sonnet que se pueda ejecutar en local, me quito de las subscripciones. No es necesario que sea tan bueno como Opus.
Eso que has dicho de la autoinflacción es la mejor definición del uso de tokens de las IAs de pago que he visto.
Lo probaré a ver si economizo el uso de tokens
No tienes todo el proceso completo de entrenamiento para auditarlo o reconstruirlo desde cero.
No, incluir el proceso completo de entrenamiento de una IA no entra dentro de la definición de código abierto, la cual se basa en las libertades y el control del programa, pudiendo leer, usar, modificar y distribuir el código que compone dicho software.
China ha perdido definitivamente la carrera.
Los benchmarks no lo dejan nada mal. Prueba a hacer consultas con kimi a nivel general y verás lo que te tarda en exigir que pases por caja.
En cambio deepseek para proyectos de programación es una bendición.
No solo está cada vez más cerca sino que, además, está empezando a conseguirlo con sus propios chips. No tardará en pasarlos por encima con unos costes infinitamente más bajos y que, su competencia, no podrá asumir.