Y justo cuando pensábamos que la solución era meterle más fuerza bruta al asunto, aparece Inception Labs y decide cambiar las reglas de la física del lenguaje. Han lanzado Mercury 2, y no es otro modelo más. Es el primer dLLM (diffusion LLM) de razonamiento comercial que abandona la “generación de texto” tradicional para escupir más de 1.000 tokens por segundo.
|
etiquetas: dllm , llm , ia , ai , mercury 2
Realmente no creo que sea tan distinto, a nivel de entrada y salida, el contexto global supongo que sigue siendo el mismo, lo que no sé es si es igual de divisible en partes o agentes.
Tiene cierto parecido con los agentes, en lo de dividir tareas, pero tiene la ventaja de que no son procesos/agentes independientes así que tiene en cuenta todo lo que están haciendo "los demás" en tiempo real.
Aunque imagino que un LLM al uso actualmente tendrá los mismos problemas, y seguramente pregunte antes para luego combinar la información o rehacer la información con los ajustes del prompt, así que no será muy distinto. Imagino que será un proceso en tres pasos, pero más rápido en general si cada paso cuenta con esta ventaja de la velocidad.
Son preguntas no irónicas.