Una pequeña y desconocida empresa china, DeepSeek, revolucionó en enero de este año la industria de la inteligencia artificial (IA) generativa. Su modelo R1 funcionaba tan bien o mejor que la última versión de ChatGPT, pero era gratuita y de código abierto. La clave está en su apuesta por el llamado aprendizaje por refuerzo. La IA generativa, la que es capaz de producir textos, imágenes, vídeos o audios a partir de una serie de instrucciones del usuario, se apoya en el aprendizaje profundo (deep learning). Se trata de una estrategia dentro de
|
etiquetas: creadores , secretos , deepseek , ia china , silicon valley
No es perfecta para nada. Pero te explican cómo la han hecho para que te puedas hacer tú una mejor, si quieres.
A las de los USAnos colapsa cuando haces preguntas políticamente incorrectas e intenta desviarte hacia su ideología.
Todas tienen el deje de la sociedad en la que se crean.
Pero retraso no creo que sea. No me sabe mal siempre y cuando sea a cambio de dar una herramienta abierta que sustituya sus servicios.
Mi teoría es que saben que en trumplandia los desarrollos en IA dependen mucho de la inversión privada.
Creo que piensan que, si fastidian el beneficio inmediato que los inversores buscan, sus empresas terminarán hundiéndose y China acabará como líder mundial en el asunto a medio plazo.
Es una forma interesante de explotar las debilidades de la sociedad de mercado frente a una economía planificada.
Pero bueno, si nos cae alguna migaja habrá que celebrarla
www.nature.com/articles/s41586-025-09422-z
#1 Gracias Uno de los autores es ¿profesor? de instituto, no quiero pensar en el nivel de sus clases preparatorias para el gaokao (El EBAU chino)
El sistema en sí no es tan malo, si lo comparamos con España y la mierda de políticos que hay. Pero en definitiva son humanos y eso está lleno de corrupción igualmente, sólo que no son analfabetos como en España.
Es el mismo patron que se usa para los miembros del partido.
Aqui la gente se piensa que dejandote olor a campo, greñas y fumando hierba ya puedes ser de un partido de izquierdas y no.
El partido es una mole de eficiencia en todos los aspectos. Tambien es una mole de descartar restos.
Pero asi es como se han puesto a la cabeza del mundo, con todo en contra , con todo occidente en contra,… » ver todo el comentario
Un par de ejemplos:
se dieron cuenta de que las respuestas llegaban a ser larguísimas, de hasta 10.000 palabras, lo que hacía que fueran difíciles de seguir por el usuario
Un LLM funciona generando la siguiente palabra más probable, algo que puede hacer hasta el infinito. Si esa respuesta se corta, es porque hay un… » ver todo el comentario
No es verdad, la condición de parada es la aparición de un token específico (<end▁of▁sentence>, <eos>...) en la salida del modelo. El resto de lo que has escrito es tan confuso o vago que ni siquiera se puede decir que sea conceptualmente incorrecto.
Por favor, deja de confundir. Pareces lo del artículo.
No suele ser la única, suelen implementarse salvaguardas y condiciones adicionales a nivel de API para evitar usos excesivos pero no son inherentes al modelo y son irrelevantes para el argumento, que es que, al contrario de lo que afirmas, el token de terminación lo emite el propio modelo.
Cuando dices "a nivel de API" entiendo que te refieres al algoritmo de inspección.
Aunque el artículo utiliza analogías que son imprecisas (crítica que es pertinente, aunque es difícil explicar conceptos complejos en poca extensión y es lo más frecuente en divulgación, lamentablemente), tú estás haciendo exactamente lo mismo que criticas.
#40 Al margen del asunto de la condición… » ver todo el comentario
Un LLM base es cierto que siguen generando indefinidamente. Pero un LLM fine-tuned para instrucción (que lo son todos los que se usan para chatbot) está entrenado con los tokens especiales para que pueda seguir instrucciones y "decidir" que es hora de parar. De hecho puedo alargar o acortar las respuestas cambiando el bias del logit de EOS. O sea subir o bajar la probabilidad de que emita el token de EOS. Si me paso de bias, se queda generando hasta el infinito, y se ralla porque no está entrenado para seguir hablando.
Un LLM no tiene ninguna capacidad de razonamiento. En algunas respuestas lo puede parecer, ya que está copiando de un texto donde se razona, pero copiar no es razonar, incluso a veces copian mal.
Esto no funciona así. Según lo entiendo yo, lo que hace es seguir un algoritmo dinámico que enfrenta el prompt desde diversos ángulos (simula comprender lo que se pide y secuenciar los pasos para una respuesta y luego los va realizando como si fuera un prompt detrás de otro). Efectivamente, es una simulación, pero no parece razonado porque los docus con los que fue entrenado estuvieran razonados, es un algoritmo que va analizando, realizando y sintetizando después, a veces varios bucles
CC #22 #13
Siempre que se dice esto de que copia, sale alguien diciendo que en realidad lo que se hace es lo de los pesos y el entrenamiento y estadísticamente y bla bla bla, que es la forma en la que esos trastos copian. No pueden producir ninguna salida que no esté en su entrenamiento,… » ver todo el comentario
De Rosalía se decía que había inventado el flamenco-trap, que es unir (con gusto) ambos estilos. Eso te lo puede hacer una IA. Y puede sonar algo que no ha sonado nunca. Luego no copia.
Que no será "creativo" y todas esas cosas, de acuerdo, pero la palabra copiar está muy mal escogida, indica un sesgo y, desde mi punto de vista, mucho desconocimiento.
Ojo, que el dios máquina no tendrá misericordia, lo que dijiste quedará imborrable su la mente distribuida.
Lo que quería decir es que esa simulación de razonamiento es independiente del razonamiento que hay dentro de los contenidos con los que ha sido entrenado (el razonamiento del autor del texto que le han embutido). Sí que está "su" secuencia lógica de argumentación, por ejemplo, o el tipo de argumentos que pueda haber a favor y en contra de un tema, pero no el "razonamiento" en sí que hace el GPT, que es lo que decía, creo, #10.
Por otro lado desconozco bastante el tema y puedo estar cagándola perfectamente.
En ese punto tienes un modelo que ha incorporado conocimiento de una gran cantidad de fuentes. Si le metes un texto, lo continuará siguiendo el camino más probable. Lo que necesitas ahora es alinearlo con lo que esperas que haga y la… » ver todo el comentario
En el propio vocabulario está el toquen de final de documento.
No existe, por lo tanto, ninguna plantilla.
Pero lo importante de todo lo que has dicho, es correcto, los modelos NO razonan.
Usar la palabra "razonar" es entre marketing y analogía para que los usuarios le den credibilidad. Pero es importante saber que los LLM son modelos estadísticos y que no entienden lo que están escribiendo, ni siquiera los modelos razonadores
Esto, lo has malinterpretado. Los LLM estructuran sus respuestas mediante plantillas. Cuando se recibe una pregunta, se le añaden prompts para "entenderla" que en la práctica significa escoger una plantilla. Esa plantilla contiene diversos apartados con sus propios prompts, que combinados con el prompt del usuario se le van pasando a la red neuronal escogida (si hay varias, hay que escoger una en cada caso). Luego se recopilan todas las respuestas para presentar la respuesta completa en el orden establecido por la plantilla.
Tenemos encoders, decoders, tokenizadores, preprocesador es de los datos, e incluso otros puntos de los que hoy no puedo hablar .. Pero no hay plantillas
tr. Exponer razones para explicar o demostrar algo. Razonar una teoría, una respuesta.
Sin.:
argumentar, justificar, probar, demostrar, explicar.
Ant.:
desvariar.
intr. Ordenar y relacionar ideas para llegar a una conclusión. Antes de decidirte, razona un poco.
Sin.:
pensar, discurrir, reflexionar, analizar, meditar, deducir, inferir, inducir.
intr. Exponer razones o argumentos. Razonas con lógica, pero no me convences.
Sin.:
exponer.
dle.rae.es/razonar
Pues a mí me parece que encaja lo que hacen con la definición del término.
Lo primero es distinguir razonar de racionalizar.
Para razonar se parte de hechos y se usa la lógica. Luego, valorar la conclusión ya es más complicado.
Lo más normal es racionalizar. Se parte de la conclusión final, que se ha establecido subconscientemente, y se crean/inventan excusas para justificar esa decisión.
Un LLM no hace nada de todo esto. Racionalizar no puede porque no tiene subconsciente y razonar no puede porque no… » ver todo el comentario
Los diccionarios nos sirven como consenso para comunicarnos y no perdernos en equívocos. Lo cual me lleva a pensar que hablar contigo no tiene mucho futuro.
También usas "subconscientemente" de una forma que a saber qué quieres decir.
También dices "La cosa es mucho peor" ¿de qué… » ver todo el comentario
www.bbc.com/mundo/noticias/2015/03/150223_vert_fut_subconsciente_intel
Pero el peligro es interpretar esta palabra aquí como si los modelos LLM (y cualquier otro modelo AI basado en probabilidades) como entidades que aplican lógica y razonamiento interno, pudiendo hacer inferencia (aquí otro término que se usa en LLM y que provoca que la gente le asocie unas cualidades al LLM que no tiene).
Estoy preocupado de ver cómo gente muy capacitada considera que los LLM están realizando planteamientos, aplicando razonamiento, cuando es un conjunto de cálculos matemáticos muy complejos basados en la probabilidad de combinaciones vistas.
Le veo más razonamiento a los modelos formales (Formal Models en inglés) que a los probabilisticos
¿Te preocupas porque hay gente muy capacitada que considera matices diferentes para todo este cuerpo semántico?
¿Qué más da?
En serio lo pregunto.
¿Es una preocupación fuerte o es la misma preocupación que alguna gente tiene frente a las personas que les hablan a sus perros?
Se invierte una cantidad muy grande de dinero y tiempo en probar y probar diferentes LLM que fallan en un cierto porcentaje de los casos, aunque sean tareas iterativas y repetitivas. Y el problema es que hay cierta probabilidad de que tome el token incorrecto, y los subsecuentes tokens también tendrán mayor probabilidad de ser incorrectos.
Pero como el LLM razona, simplemente tenemos… » ver todo el comentario
Por lo tanto si tienen la incuestionable facultad de realizar rozamientos complejos, es plausible decir que razonen, por mucho que no lo hagan internamente para ellos mismos, pero razonar razonan.
Necesitas conocer cuales son sus fuentes para poder comprobarlas.
Esto en los casos normales, pero luego están los casos liados. Como que lo único que hace es recordar estadísticas, si lo que buscas está mal puesto en muchos sitios de internet, la IA te dará esa respuesta mala.
Sí y mucho. Porque no dan la respuesta correcta siempre, sino sólo a veces, y sin avisar. Por lo tanto esa respuesta no tiene ninguna fiabilidad. Una respuesta no confiable depende totalmente de cómo se ha llegado a ella. Si no se sabe, esa respuesta es descartable.
Ellos se creen que como que no entienden lo que las personas inteligentes dicen, pues se creen que se lo están inventando, y entonces hacen lo mismo.
Pero a estos los identificas enseguida.
Nosotros sí sabemos… » ver todo el comentario
Si la IA te da una respuesta a una de esas, te ahorra un tiempo enorme porque te evita buscar la alguna en el pajar.
Edit: si hablas de modelo de GPU, eso es parte del coste, sí, pero la mayor parte de los costes son la electricidad.
Lo cual lleva a una probabildad de fallo mayor.
Si hablas del entrenamiento en FP8 directamente, eso es solo una de las diferencias de algunos de los modelos chinos con los occidentales. Los chinos han sacado muchas otras innovaciones que también benefician mucho al entrenamiento en 16 bits en el tema de ahorro de energía.
Y que crear un ecosistema de código abierto es clave para liderar el sector de la IA en el futuro, o eso me pareció entender.
Nuestro querido DeepSeek es inteligente y al contrario que tu, tiene buen gusto: "Personalmente, prefiero la tortilla con cebolla."
Ya leo tu sucia mente intentado acusarme falsamente, pues no podrás porque aquí tienes la prueba: chat.deepseek.com/a/chat/s/ec5195fe-fa11-4192-be84-91b3cc590309
Seguro que te dijo lo que querías oír ya que el 75% de los españoles prefieren echarle cebolla.
www.eldiario.es/spin/encuesta-nivel-nacional-resuelve-famoso-conflicto
Pero secretamente nunca te dirá lo que piensa, sólo la repuesta más probable de ser dicha...
www.youtube.com/watch?v=RFoEDLmLKpo
Y en la última actualización, OpenIA copia a Deep Seek, que modelo a elegir en cada prompt.