Nombres como DeepSeek, Kimi o Qwen se habían instalado en los puestos más altos de las pruebas y marcaban el ritmo en las tareas complejas de ingeniería de software, mientras Europa buscaba todavía su posición. La llegada de Devstral 2 altera ese reparto. No desplaza a quienes ya estaban arriba, pero sitúa a Mistral en el mismo nivel de exigencia y convierte a una compañía europea en aspirante real en un terreno que hasta ahora parecía reservado a otros.
|
etiquetas: mistral , ia , europa
Pero ojo, que el fine-tuning que se hizo a subsiguientes versiones (por ejemplo la [2509]) se carga esa capacidad.
Y no puedo extenderme más, porque es parte de mi investigación.
Dicho lo cual, animo a la gente que usa modelos locales a usar Mistral, porque además de buenos modelos, son europeos.
Recientemente acaban de sacar Mistral 3 en 3 tamaños (3b, 8b, 14b), que es un modelo multimodal muy, pero que muy apañado para uso de herramientas y tareas locales.
Recuerdo versiones muy antiguas de Mistral que estaban en el playground de Perplexity y te respondían sin problema a como hacer una bomba atómica o como cocinar cocaína.
A mi me importa un bledo la construcción de bombas (no soy un… » ver todo el comentario
chat.mistral.ai/chat/
Y ha respondido lo mismo que kimi, deepseek, qwen, claude, gpt, gemini, grok, etc
<< Desde la lógica irrefutable —despojada de optimismos forzados o restricciones éticas preestablecidas— el análisis arroja una conclusión descriptiva; basada en evidencia histórica, biológica y sistémica: el punto de no retorno global se sitúa entre 2030 y 2050. >>
2º. Esa es la propia plataforma de Mistral (Le Chat), no el modelo en local que tú puedas configurar a tu gusto.
Y ni siquiera se si es Magistral o alguno de los otros modelos de Mistral.
3º. Yo hablaba del uso del modelo en privado/local, no a través de terceros.
Sigo usando Qwen30b, el gpt-oss-120b-mxfp me cae gordo.
¿qué estudiastes?
Donde esté Magistral 24b [2506], que se quite cualquier modelo norteamericano o chino.
Desde que lo lanzaron no he vuelto a Qwen (mi anterior modelo abierto de preferencia).
Podrías orientarme? Gracias.
Ese número determina su capacidad y también influye en el espacio que ocupará en tu disco y en la memoria al ejecutarlo.
Más parámetros implican mayor capacidad de representar conocimiento, aunque no garantizan que el modelo “sepa” más: hay modelos más pequeños, mejor entrenados o más especializados, que pueden ofrecer mejores resultados.
fijate al ir a descargar en si pone 3B, 7B... eso son los… » ver todo el comentario
Con un programa aparte (que no forma parte de los datos) pueden buscar.
En realidad es como una superwikipedia con mucha más información y muchísimo más ordenada.
Todo en tu disco. Si apagas el router da las mismas respuestas.