edición general
188 meneos
1560 clics
Los creadores de DeepSeek, la IA china que noqueó a Silicon Valley, desvelan sus secretos

Los creadores de DeepSeek, la IA china que noqueó a Silicon Valley, desvelan sus secretos

Una pequeña y desconocida empresa china, DeepSeek, revolucionó en enero de este año la industria de la inteligencia artificial (IA) generativa. Su modelo R1 funcionaba tan bien o mejor que la última versión de ChatGPT, pero era gratuita y de código abierto. La clave está en su apuesta por el llamado aprendizaje por refuerzo. La IA generativa, la que es capaz de producir textos, imágenes, vídeos o audios a partir de una serie de instrucciones del usuario, se apoya en el aprendizaje profundo (deep learning). Se trata de una estrategia dentro de

| etiquetas: creadores , secretos , deepseek , ia china , silicon valley
Comentarios destacados:              
#2 Unos publican lo que han hecho para el progreso de la humanidad. Otros intentan ver cómo cerrarlo y hacerlo de pago.
Unos publican lo que han hecho para el progreso de la humanidad. Otros intentan ver cómo cerrarlo y hacerlo de pago.
#2 Ya no copian, dan lecciones.
#4 claro que copiam, destilaron chatgpt
#2 Y lo mas gracioso es que empezaron así, con la intención de ser abiertos hasta el punto de tener "abierto" en el nombre y se fundaron como organización sin animo de lucro... y en 2019 crearon una estructura para incluir una división con animo de lucro y como dice un Youtuber al que seguía "Las perras son mu golosas".
#2 como el Linux y Windows
#2 Esta no es la IA que colapsaba como preguntases algo sobre tiannamen o taiwan?
#33 Claro que viene de un régimen que tiene sus taras.
No es perfecta para nada. Pero te explican cómo la han hecho para que te puedas hacer tú una mejor, si quieres.

A las de los USAnos colapsa cuando haces preguntas políticamente incorrectas e intenta desviarte hacia su ideología.
Todas tienen el deje de la sociedad en la que se crean.
#2 Bueno, bueno... A ver si en vez del progreso de la humanidad lo que quieren es hundir económicamente empresas rivales.
#36 Pues mira, hundir a la gente que pretende sacarte todo lo que pueda... no sé si es progreso de la humanidad.
Pero retraso no creo que sea. No me sabe mal siempre y cuando sea a cambio de dar una herramienta abierta que sustituya sus servicios.
#58 No es un crítica, es poner en duda el altruismo de una empresa.
#60 Yo también creo que lo hacen por motivos egoístas. Aunque yo creo que es a nivel nacional, no sólo la empresa privada.

Mi teoría es que saben que en trumplandia los desarrollos en IA dependen mucho de la inversión privada.
Creo que piensan que, si fastidian el beneficio inmediato que los inversores buscan, sus empresas terminarán hundiéndose y China acabará como líder mundial en el asunto a medio plazo.
Es una forma interesante de explotar las debilidades de la sociedad de mercado frente a una economía planificada.

Pero bueno, si nos cae alguna migaja habrá que celebrarla :-D
#62 Si, exacto, eso es lo que yo había pensado pero mucho mejor expresado. ;)
El equipo de DeepSeek publica hoy en la revista Nature un artículo en el que desgrana los avances que le permitieron poner patas arriba el sector. Aquí los papeles :

www.nature.com/articles/s41586-025-09422-z
Vaya puñetazo en la mesa, publicando en Nature consiguen otro punto en la carrera.

#1 Gracias Uno de los autores es ¿profesor? de instituto, no quiero pensar en el nivel de sus clases preparatorias para el gaokao (El EBAU chino)
#3 El gaokao consiste en memorizar michísimo. Se trata de la explotación de los alumnos, vistos como material descartable, para el bien del sistema.

El sistema en sí no es tan malo, si lo comparamos con España y la mierda de políticos que hay. Pero en definitiva son humanos y eso está lleno de corrupción igualmente, sólo que no son analfabetos como en España.
#11 El gaokao lo que busca es una seleccion de talento al estilo de la naturaleza, cruel pero efectivo.
Es el mismo patron que se usa para los miembros del partido.

Aqui la gente se piensa que dejandote olor a campo, greñas y fumando hierba ya puedes ser de un partido de izquierdas y no.

El partido es una mole de eficiencia en todos los aspectos. Tambien es una mole de descartar restos.

Pero asi es como se han puesto a la cabeza del mundo, con todo en contra , con todo occidente en contra,…   » ver todo el comentario
#1 Seguro que el papel incluye detalles interesantes, pero lo fundamental ya se sabía.
Porque tienen la siguiente en marcha y lo publican para que la competencia se entretenga con esta
El artículo es penoso con ganas. Esos símiles que usa no funcionan. Luego queda gente diciendo tonterías, no por culpa propia, sino por culpa de divulgadores como esto.

Un par de ejemplos:

se dieron cuenta de que las respuestas llegaban a ser larguísimas, de hasta 10.000 palabras, lo que hacía que fueran difíciles de seguir por el usuario

Un LLM funciona generando la siguiente palabra más probable, algo que puede hacer hasta el infinito. Si esa respuesta se corta, es porque hay un…   » ver todo el comentario
#10 "Un LLM funciona generando la siguiente palabra más probable, algo que puede hacer hasta el infinito. Si esa respuesta se corta, es porque hay un código aparte que lo decide".
No es verdad, la condición de parada es la aparición de un token específico (<end▁of▁sentence>, <eos>...) en la salida del modelo. El resto de lo que has escrito es tan confuso o vago que ni siquiera se puede decir que sea conceptualmente incorrecto.
#13 La respuesta típica tiene muchas "sentences". Así que el corte se decide por otro sitio.

Por favor, deja de confundir. Pareces lo del artículo.
#14 <end▁of▁sentence> no significa que termine una frase, es el token específico que usa DeepSeek como condición de parada. Si se emite, se para. Otros modelos usan otros tokens diferentes.
No suele ser la única, suelen implementarse salvaguardas y condiciones adicionales a nivel de API para evitar usos excesivos pero no son inherentes al modelo y son irrelevantes para el argumento, que es que, al contrario de lo que afirmas, el token de terminación lo emite el propio modelo.
#19 Esos tokens sirven de pista al algoritmo de inspección que es en definitiva quién decide descartar parte de la respuesta o no, y darla por concluida.

Cuando dices "a nivel de API" entiendo que te refieres al algoritmo de inspección.
#29 Me refiero a que la longitud de las cadenas generadas suele limitarse a un máximo de tokens para evitar bucles y la explotación de vulnerabilidades, aunque no se haya emitido un token de parada.
Aunque el artículo utiliza analogías que son imprecisas (crítica que es pertinente, aunque es difícil explicar conceptos complejos en poca extensión y es lo más frecuente en divulgación, lamentablemente), tú estás haciendo exactamente lo mismo que criticas.
#40 Al margen del asunto de la condición…   » ver todo el comentario
#14 En machine learning, "end of sentence" y "end of sequence" se usan de forma intercambiable. Ambos significan lo mismo, un token especial para parar la generación.

Un LLM base es cierto que siguen generando indefinidamente. Pero un LLM fine-tuned para instrucción (que lo son todos los que se usan para chatbot) está entrenado con los tokens especiales para que pueda seguir instrucciones y "decidir" que es hora de parar. De hecho puedo alargar o acortar las respuestas cambiando el bias del logit de EOS. O sea subir o bajar la probabilidad de que emita el token de EOS. Si me paso de bias, se queda generando hasta el infinito, y se ralla porque no está entrenado para seguir hablando.
#10


Un LLM no tiene ninguna capacidad de razonamiento. En algunas respuestas lo puede parecer, ya que está copiando de un texto donde se razona, pero copiar no es razonar, incluso a veces copian mal.

Esto no funciona así. Según lo entiendo yo, lo que hace es seguir un algoritmo dinámico que enfrenta el prompt desde diversos ángulos (simula comprender lo que se pide y secuenciar los pasos para una respuesta y luego los va realizando como si fuera un prompt detrás de otro). Efectivamente, es una simulación, pero no parece razonado porque los docus con los que fue entrenado estuvieran razonados, es un algoritmo que va analizando, realizando y sintetizando después, a veces varios bucles

CC #22 #13
#35 Tienes razón en lo del algoritmo. Asi es como se construye la respuesta. Pero eso no consigue ninguna apariencia de razonamiento. Lo que lo consigue es la red neuronal que copia de los documentos de su entrenamiento.

Siempre que se dice esto de que copia, sale alguien diciendo que en realidad lo que se hace es lo de los pesos y el entrenamiento y estadísticamente y bla bla bla, que es la forma en la que esos trastos copian. No pueden producir ninguna salida que no esté en su entrenamiento,…   » ver todo el comentario
#39 es que no copia.

De Rosalía se decía que había inventado el flamenco-trap, que es unir (con gusto) ambos estilos. Eso te lo puede hacer una IA. Y puede sonar algo que no ha sonado nunca. Luego no copia.

Que no será "creativo" y todas esas cosas, de acuerdo, pero la palabra copiar está muy mal escogida, indica un sesgo y, desde mi punto de vista, mucho desconocimiento.
#45 Es que soy muy ignorante comparado contigo.
#57 vaya, ¿ahora das pena? xD xD xD xD

Ojo, que el dios máquina no tendrá misericordia, lo que dijiste quedará imborrable su la mente distribuida.
#64 ¿Qué le pasó a tu anterior usuario? ¿Cuantos strikes llevas? Seguro que no me ganas, pero es por comparar.
#65 puf. De dar pena a dar risa. Pa tí la perra gorda. Ahí te quedas, campeón.
#66 Venga, que no me merezco tanto. Yo también tengo mis fallos.
#67 positivo por salao
#35 Realmente la situación es mucho más compleja. Sí que son modelos que han sido entrenados específicamente para generar textos que simulan cadenas de pensamiento (normalmente con tokens específicos que indican qué partes son pensamiento y qué partes son resultado) pero lo que hacen no es necesariamente generar una secuencia de pasos y seguirlos y, por otra parte, se ha visto que el "razonamiento" sí agudiza algunas habilidades del modelo, aunque los mecanismos no están claros. Anthropic publicó un post comentando algunos de estos fenómenos que da una cierta idea: www.anthropic.com/research/tracing-thoughts-language-model
#48 de acuerdo.

Lo que quería decir es que esa simulación de razonamiento es independiente del razonamiento que hay dentro de los contenidos con los que ha sido entrenado (el razonamiento del autor del texto que le han embutido). Sí que está "su" secuencia lógica de argumentación, por ejemplo, o el tipo de argumentos que pueda haber a favor y en contra de un tema, pero no el "razonamiento" en sí que hace el GPT, que es lo que decía, creo, #10.

Por otro lado desconozco bastante el tema y puedo estar cagándola perfectamente.
#49 Muy simplificadamente, en general, para entrenar un modelo partes de un corpus lingüístico muy grande, decenas o cientos de TB de texto. Hay otras formas de hacerlo (por ejemplo inicializándolo mediante otro modelo) pero vamos a dejar esos casos a un lado.
En ese punto tienes un modelo que ha incorporado conocimiento de una gran cantidad de fuentes. Si le metes un texto, lo continuará siguiendo el camino más probable. Lo que necesitas ahora es alinearlo con lo que esperas que haga y la…   » ver todo el comentario
#10 los modelos LLM no copian textos leídos, sino que dada una secuencia de tokens (que representan palabras en el caso general) calculan las probabilidades para cada siguiente token de su vocabulario. De ellos escogen el que mayor puntuación tiene, o entre los mejores si usas "temperatura".
En el propio vocabulario está el toquen de final de documento.

No existe, por lo tanto, ninguna plantilla.

Pero lo importante de todo lo que has dicho, es correcto, los modelos NO razonan.
Usar la palabra "razonar" es entre marketing y analogía para que los usuarios le den credibilidad. Pero es importante saber que los LLM son modelos estadísticos y que no entienden lo que están escribiendo, ni siquiera los modelos razonadores
#22 No existe, por lo tanto, ninguna plantilla.

Esto, lo has malinterpretado. Los LLM estructuran sus respuestas mediante plantillas. Cuando se recibe una pregunta, se le añaden prompts para "entenderla" que en la práctica significa escoger una plantilla. Esa plantilla contiene diversos apartados con sus propios prompts, que combinados con el prompt del usuario se le van pasando a la red neuronal escogida (si hay varias, hay que escoger una en cada caso). Luego se recopilan todas las respuestas para presentar la respuesta completa en el orden establecido por la plantilla.
#26 bueno, en mis tareas de generación de modelos LLM (parcialmente me dedico a esto) no entran ninguna plantilla.
Tenemos encoders, decoders, tokenizadores, preprocesador es de los datos, e incluso otros puntos de los que hoy no puedo hablar .. Pero no hay plantillas
;)
#50 Habla de los instruct templates, creo. De estructurar por ejemplo los mensajes sistema/asistente/usuario mediante tokens especiales.
#22 Razonar según la RAE:

tr. Exponer razones para explicar o demostrar algo. Razonar una teoría, una respuesta.
Sin.:

argumentar, justificar, probar, demostrar, explicar.

Ant.:

desvariar.

intr. Ordenar y relacionar ideas para llegar a una conclusión. Antes de decidirte, razona un poco.
Sin.:

pensar, discurrir, reflexionar, analizar, meditar, deducir, inferir, inducir.

intr. Exponer razones o argumentos. Razonas con lógica, pero no me convences.
Sin.:

exponer.


dle.rae.es/razonar

Pues a mí me parece que encaja lo que hacen con la definición del término.
#37 Un diccionario no es el sitio a donde ir a entender algo.

Lo primero es distinguir razonar de racionalizar.

Para razonar se parte de hechos y se usa la lógica. Luego, valorar la conclusión ya es más complicado.

Lo más normal es racionalizar. Se parte de la conclusión final, que se ha establecido subconscientemente, y se crean/inventan excusas para justificar esa decisión.

Un LLM no hace nada de todo esto. Racionalizar no puede porque no tiene subconsciente y razonar no puede porque no…   » ver todo el comentario
#40 Tienes una idea equivocada de lo que es racionalizar, pero como no quieres mirar el diccionario para entender conceptos crees utilizar las palabras de la manera adecuada.

Los diccionarios nos sirven como consenso para comunicarnos y no perdernos en equívocos. Lo cual me lleva a pensar que hablar contigo no tiene mucho futuro.

También usas "subconscientemente" de una forma que a saber qué quieres decir.

También dices "La cosa es mucho peor" ¿de qué…   » ver todo el comentario
#37 por las definiciones de la RAE, si que te encaja, y estoy de acuerdo.

Pero el peligro es interpretar esta palabra aquí como si los modelos LLM (y cualquier otro modelo AI basado en probabilidades) como entidades que aplican lógica y razonamiento interno, pudiendo hacer inferencia (aquí otro término que se usa en LLM y que provoca que la gente le asocie unas cualidades al LLM que no tiene).
Estoy preocupado de ver cómo gente muy capacitada considera que los LLM están realizando planteamientos, aplicando razonamiento, cuando es un conjunto de cálculos matemáticos muy complejos basados en la probabilidad de combinaciones vistas.

Le veo más razonamiento a los modelos formales (Formal Models en inglés) que a los probabilisticos
#52 Ambas descripciones no son incompatibles. Tu experiencia del mundo también está basada en "combinaciones vistas" aunque sea más extensa que las relaciones entre unidades de texto. Pero estas relaciones modelan una lógica emergente de forma implícita.
#52 Aun flexibilizándome y entendiéndote la parte que críticas que no "hagan planteamientos" o "apliquen razonamiento" no entiendo tu preocupación.

¿Te preocupas porque hay gente muy capacitada que considera matices diferentes para todo este cuerpo semántico?

¿Qué más da?

En serio lo pregunto.

¿Es una preocupación fuerte o es la misma preocupación que alguna gente tiene frente a las personas que les hablan a sus perros?
#55 El problema es atribuirle propiedad a un LLM creyendo que, como razona, podrá resolver problemas futuros.
Se invierte una cantidad muy grande de dinero y tiempo en probar y probar diferentes LLM que fallan en un cierto porcentaje de los casos, aunque sean tareas iterativas y repetitivas. Y el problema es que hay cierta probabilidad de que tome el token incorrecto, y los subsecuentes tokens también tendrán mayor probabilidad de ser incorrectos.
Pero como el LLM razona, simplemente tenemos…   » ver todo el comentario
#22 No razonan por si mismos, pero elaboran razonamientos totalmente válidos, incluso pueden elaborar razonamientos muy complejos.
Por lo tanto si tienen la incuestionable facultad de realizar rozamientos complejos, es plausible decir que razonen, por mucho que no lo hagan internamente para ellos mismos, pero razonar razonan.
#21 La IA es útil para buscar información, pero si le pides que deduzca algo es mejor no leer la respuesta, porque encontrar donde se ha liado es difícil, y creerse la respuesta es peligroso.

Necesitas conocer cuales son sus fuentes para poder comprobarlas.

Esto en los casos normales, pero luego están los casos liados. Como que lo único que hace es recordar estadísticas, si lo que buscas está mal puesto en muchos sitios de internet, la IA te dará esa respuesta mala.
¿Nos debería importar que la forma de razonar es ininteligible si pese a ello llega a la respuesta correcta?”.

Sí y mucho. Porque no dan la respuesta correcta siempre, sino sólo a veces, y sin avisar. Por lo tanto esa respuesta no tiene ninguna fiabilidad. Una respuesta no confiable depende totalmente de cómo se ha llegado a ella. Si no se sabe, esa respuesta es descartable.
#9 Anda!!!!! Como los seres humanos!!!!!!!
#16 No todos. La mayoría sí, porque son imbéciles y se inventan las cosas.

Ellos se creen que como que no entienden lo que las personas inteligentes dicen, pues se creen que se lo están inventando, y entonces hacen lo mismo.

Pero a estos los identificas enseguida.
#16 más parecido a los "cuñados" que a los humanos honestos. Los humanos tenemos una capacidad que no se sabe muy bien como funciona de auto-evaluar la fidelidad de la respuesta que damos. Que nos podemos equivocar está claro, pero cuando respondemos tenemos un indicador interno de "certeza" que nos permite poder decir si estamos totalmente seguros, muy seguros, bastante seguros, si es simplemente una opinión, si estamos soltando lo que nos parece...

Nosotros sí sabemos…   » ver todo el comentario
#9 Depende. Hay preguntas muy difíciles de resolver por muy fáciles de verificar.
Si la IA te da una respuesta a una de esas, te ahorra un tiempo enorme porque te evita buscar la alguna en el pajar.
#38 No, sé programar, de hecho llevo más de treinta años haciéndolo (tengo setenta años), pero las nuevas herramientas se me hacen un poco cuesta arriba y las IAs prestan una ayuda formidable para aprender y para codificar.
#43 juer 70 y aprendiendo otros lenguajes .. no sé yo si llegaré a tener ese interés, tengo 42 y estoy un poco hasta las pelotas ya.
Como asistente de programación uso, en este orden, Claude AI, de Anthropic, DeepSeek y, finalmente, ChatGPT. Claude es imponente, desde mi experiencia, tiene la menor tasa de errores de los tres.
#30 pero aprende a programar juer, necesitas 5 asistentes xD
#30 ¿Pues hacer el mismo ranking en caso de uso gratuito?
#30 prueba GLM 4.5
No es la única. Hay unas cuantas empresas chinas de IA (la mayoría son pequeñas y desconocidas) que le están dando de palos a EEUU consiguiendo entrenar a IAs por una fracción del coste con innovaciones como la de deepseek, y encima publican esas IAs como pesos abiertos y publican como lo hacen. Pero la gente tarda en enterarse, por eso a la burbuja aun le queda un rato.
#8 Pero creo que es porque usan un modelo mas barato.
#18 En general es porque no tienen acceso. Hay universidades chinas montando IA con 4 graficas gaming de la generacion pasada compradas al estraperlo y en algunos casos modificadas para meterle mas memoria.
#20 la famosa rtx 4090 con 48gb de VRAM...
#18 No sé qué quieres decir. Lo que yo estoy diciendo es que están creando modelos que cuestan mucho menos de entrenar. No es que "usen" un modelo más barato, sino que hacen ellos un modelo más barato.

Edit: si hablas de modelo de GPU, eso es parte del coste, sí, pero la mayor parte de los costes son la electricidad.
#32 No, que el modelo es mas barato. No usan un feedback que hace que los modelos de Google sean mas caros de entrenar. Admitidos por ellos mismos.

Lo cual lleva a una probabildad de fallo mayor.
#69 De quienes estás hablando? Yo uso modelos abiertos chinos que no tienen nada que envidiar a gemini...
#70 Mira los encoders. Ellos mismos reconocieron que simplifican la arquitectura de los de Google, pero que la perdida de precision es "aceptable". DeepSeek tiene un papers donde los explica y hace referencia a esto exactamente.
#71 Sigo sin saber de que hablas. Encoder del modelo BERT? OpenAI fue quien les quitó el encoder para hacer GPT. Los LLM actuales no tienen encoder. Son decoder-only.

Si hablas del entrenamiento en FP8 directamente, eso es solo una de las diferencias de algunos de los modelos chinos con los occidentales. Los chinos han sacado muchas otras innovaciones que también benefician mucho al entrenamiento en 16 bits en el tema de ahorro de energía.
Su mayor secreto es que DeepSeek es sincebollista...

Y que crear un ecosistema de código abierto es clave para liderar el sector de la IA en el futuro, o eso me pareció entender.
#7 Maldito sincebollista mentiroso, deberían de hundirte el karma a -1 solo por semejante ultraje.

Nuestro querido DeepSeek es inteligente y al contrario que tu, tiene buen gusto: "Personalmente, prefiero la tortilla con cebolla."

Ya leo tu sucia mente intentado acusarme falsamente, pues no podrás porque aquí tienes la prueba: chat.deepseek.com/a/chat/s/ec5195fe-fa11-4192-be84-91b3cc590309
#15 lo sabía! me dice chat not found!

Seguro que te dijo lo que querías oír ya que el 75% de los españoles prefieren echarle cebolla.

www.eldiario.es/spin/encuesta-nivel-nacional-resuelve-famoso-conflicto

Pero secretamente nunca te dirá lo que piensa, sólo la repuesta más probable de ser dicha...
0# Bueno, este ya se sabia desde hace mas de medio año:
www.youtube.com/watch?v=RFoEDLmLKpo

Y en la última actualización, OpenIA copia a Deep Seek, que modelo a elegir en cada prompt.

menéame