Una pequeña y desconocida empresa china, DeepSeek, revolucionó en enero de este año la industria de la inteligencia artificial (IA) generativa. Su modelo R1 funcionaba tan bien o mejor que la última versión de ChatGPT, pero era gratuita y de código abierto. La clave está en su apuesta por el llamado aprendizaje por refuerzo. La IA generativa, la que es capaz de producir textos, imágenes, vídeos o audios a partir de una serie de instrucciones del usuario, se apoya en el aprendizaje profundo (deep learning). Se trata de una estrategia dentro de
|
etiquetas: creadores , secretos , deepseek , ia china , silicon valley
www.nature.com/articles/s41586-025-09422-z
#1 Gracias Uno de los autores es ¿profesor? de instituto, no quiero pensar en el nivel de sus clases preparatorias para el gaokao (El EBAU chino)
El sistema en sí no es tan malo, si lo comparamos con España y la mierda de políticos que hay. Pero en definitiva son humanos y eso está lleno de corrupción igualmente, sólo que no son analfabetos como en España.
Un par de ejemplos:
se dieron cuenta de que las respuestas llegaban a ser larguísimas, de hasta 10.000 palabras, lo que hacía que fueran difíciles de seguir por el usuario
Un LLM funciona generando la siguiente palabra más probable, algo que puede hacer hasta el infinito. Si esa respuesta se corta, es porque hay un… » ver todo el comentario
No es verdad, la condición de parada es la aparición de un token específico (<end▁of▁sentence>, <eos>...) en la salida del modelo. El resto de lo que has escrito es tan confuso o vago que ni siquiera se puede decir que sea conceptualmente incorrecto.
Por favor, deja de confundir. Pareces lo del artículo.
No suele ser la única, suelen implementarse salvaguardas y condiciones adicionales a nivel de API para evitar usos excesivos pero no son inherentes al modelo y son irrelevantes para el argumento, que es que, al contrario de lo que afirmas, el token de terminación lo emite el propio modelo.
Y que crear un ecosistema de código abierto es clave para liderar el sector de la IA en el futuro, o eso me pareció entender.
Nuestro querido DeepSeek es inteligente y al contrario que tu, tiene buen gusto: "Personalmente, prefiero la tortilla con cebolla."
Ya leo tu sucia mente intentado acusarme falsamente, pues no podrás porque aquí tienes la prueba: chat.deepseek.com/a/chat/s/ec5195fe-fa11-4192-be84-91b3cc590309
Ellos se creen que como que no entienden lo que las personas inteligentes dicen, pues se creen que se lo están inventando, y entonces hacen lo mismo.
Pero a estos los identificas enseguida.
Sí y mucho. Porque no dan la respuesta correcta siempre, sino sólo a veces, y sin avisar. Por lo tanto esa respuesta no tiene ninguna fiabilidad. Una respuesta no confiable depende totalmente de cómo se ha llegado a ella. Si no se sabe, esa respuesta es descartable.