#8 Tú la historia del ingeniero retirado que lo llaman para resolver un problema con una máquina y les cobra (según quien te la cuente) 50.000€ por marcar dónde falla, le preguntan y dice "1 euro por la tiza con la que marcar el fallo, 49.999 por saber dónde" no la conoces.
#7#9#10 Mi padre es palestino y aquí, a Sevilla, cada vez llegan más y más por motivos obvios... Entre los que llegaron en los 60-70 y los de ahora, puede que seamos más de 400. Dos de ellos han perdido a más de 30 miembros de su familia en este genocidio. Uno de ellos, de un solo bombazo sionista.
#10 los modelos LLM no copian textos leídos, sino que dada una secuencia de tokens (que representan palabras en el caso general) calculan las probabilidades para cada siguiente token de su vocabulario. De ellos escogen el que mayor puntuación tiene, o entre los mejores si usas "temperatura".
En el propio vocabulario está el toquen de final de documento.
No existe, por lo tanto, ninguna plantilla.
Pero lo importante de todo lo que has dicho, es correcto, los modelos NO razonan.
Usar la palabra "razonar" es entre marketing y analogía para que los usuarios le den credibilidad. Pero es importante saber que los LLM son modelos estadísticos y que no entienden lo que están escribiendo, ni siquiera los modelos razonadores
#14 <end▁of▁sentence> no significa que termine una frase, es el token específico que usa DeepSeek como condición de parada. Si se emite, se para. Otros modelos usan otros tokens diferentes.
No suele ser la única, suelen implementarse salvaguardas y condiciones adicionales a nivel de API para evitar usos excesivos pero no son inherentes al modelo y son irrelevantes para el argumento, que es que, al contrario de lo que afirmas, el token de terminación lo emite el propio modelo.
#10 "Un LLM funciona generando la siguiente palabra más probable, algo que puede hacer hasta el infinito. Si esa respuesta se corta, es porque hay un código aparte que lo decide".
No es verdad, la condición de parada es la aparición de un token específico (<end▁of▁sentence>, <eos>...) en la salida del modelo. El resto de lo que has escrito es tan confuso o vago que ni siquiera se puede decir que sea conceptualmente incorrecto.
Segun mi experiencia en la mili, el cuchillo tiene que estar perfectamente afilado sin mellas para que la cascara de la patata pueda salir limpia en una sola tira.
Er jake define su acción como "hacktivismo" y asevera que no lo hace por "maldad", sino para "aportar mi granito de arena para poder derrocar a este corrupto gobierno". E insiste: "Si estáis informados de la política global, os habréis dado cuenta de que España está bajo un gobierno corrupto y miserable ahora mismo".
chatgpt.com/share/68ce7edc-7918-8001-b4a3-fdd2aa3cf925
próximamente en sus pantallas
En el propio vocabulario está el toquen de final de documento.
No existe, por lo tanto, ninguna plantilla.
Pero lo importante de todo lo que has dicho, es correcto, los modelos NO razonan.
Usar la palabra "razonar" es entre marketing y analogía para que los usuarios le den credibilidad. Pero es importante saber que los LLM son modelos estadísticos y que no entienden lo que están escribiendo, ni siquiera los modelos razonadores
No suele ser la única, suelen implementarse salvaguardas y condiciones adicionales a nivel de API para evitar usos excesivos pero no son inherentes al modelo y son irrelevantes para el argumento, que es que, al contrario de lo que afirmas, el token de terminación lo emite el propio modelo.
No es verdad, la condición de parada es la aparición de un token específico (<end▁of▁sentence>, <eos>...) en la salida del modelo. El resto de lo que has escrito es tan confuso o vago que ni siquiera se puede decir que sea conceptualmente incorrecto.
No aporta nada más..