Lo que me sorprende es que con los modelos de 2025 que eran mucho peores que los que tenemos hoy, no supervisasen el código, esta medida va desacompasada a la tendencia natural que será tener que supervisar cada vez menos código.
#1, yo lo he probado en todas mis subscripciones y ninguna me recomendó esto. Esto es como el que dijo que la IA le incitó a suicidarse o que una agente de IA le borró todo el disco duro, que a ver, hay que ser gilipollas para darle acceso, pero hay que ver que prompt más ultrarocambolesco le has puesto para que te diga esta barbaridad y así ya tienes la noticia hecha. Todos los que usamos los LLM sabemos que hay unos guardarrailes impuestos que no son tan sencillos de saltar.
#47, pero si hay benchmarks que evaluan problemas cuyas soluciones no son públicas y están fuera de su dataset de entrenamiento, como ARC-AGI, FrointerMath, las solucines a los problemas Erdos o este mismo envío. Son pruebas de que los LLM pueden construir razonamientos para encontrar soluciones a problemas que no han visto antes. No es algo discutible ni opinable, hay experimentos comprobables que lo demuestran.
#43, Deepseek es de codigo abierto, si tienes un hardware capaz fe ejecutarlo puedes utilizar el modelo más grande y en este caso se vería lo que tú comentas. ¿Por qué no aceptas que los modelos son cada vez más inteligentes? Tienes noticias como la de este envío que no pueden ser más claras.
#42, yo fuera coñas, creo que no es realista pensar que todas las empresas se han puesto de acuerdo para etiquetar la respuesta a tu pregunta y re-entrenar el modelo, no sería factible. Pienso que hay más ingeniería aquí, que hace que los modelos sean capaces cada vez de hacer mejores razonamientos, esto no se limita a ir ampliando el conjunto de entrenamiento sin más, sino que intervienen más cosas como la propia arquitectura del modelo, las capas de razonamiento y cómo se hacen los entrenamientos. Solo así se explica la mejora sostenida en benchmark cerrados como frointer math y el hecho que ahora puedan responder bien a tu pregunta es una consecuencia de esta mejora.
#32, pero por qué tenemos que utilizar palabras grandilocuentes que a la vez son profundamente vagas como pensar. Prefiero tratarlo como un problema de ingeniería. ¿Es capaz de solucionar problemas, puede aplicar la lógica aprendida para generar nuevo conocimiento, cómo debemos evaluar los modelos?
#31, edto de reabrir el estrecho de Ormuz con donero de los contribuyentes lo veo un abuso, deberían ser ciudadanos libres que voluntariamente vayan allí sufragado por ellos mismos. Un liberal de verdad debe apoyar la iniciativa privada.
#25, ok, aceptabdo que para ti la inteligencia de los LLM es una categoría discrecional que viene determinada únicamente por la capacidad de dar respuesta a esta pregunta y que solo admite dos categorías o es inteligente o no lo es. El día en que un LLM pueda responder esta pregunta correctamente cambiarás tu opinión o intentarás inventarte otra pregunta al tún tún que falle a ver si la encuentras? No me parece una postura científica, porque las conclusiones tienen que amoldarse a las observaciones y no al revés. Ya te he dicho que el afirmar que los LLM no generan nuevo conocimiento ha quedado supersda los últimos meses ya que han demostrado ser capaces de resolver múltiples problemas de frontera para los que no había solución, como el de esta noticia.
#23, vuelvo a repetir, tu prrgunta "de lógica" la pueden responder la mayoría de personas o es algo tan rocambolesco y ambiguo que no? Lo digo porque ya me he encontrado varios ejemplos de eso. Por otro lado y tal y como demuestra este meneo y tantos otros está claro que los LLM sí pueden generar conocimiento aplicando la lógica fuera del rango de entrenamiento, no es algo opinable, discutible o que admita debate, hay pruebas empíricas de que lo hacen. El autor del video que enlaza el caudillo confunde simplificar con generalizar y de ahí todo mal.
#21, qué porcentaje de personas crees que serían capaces de responder correctamente. Yo también tengo algún ejemplo de cosas que fallan en todos los modelos, pero son cosas muy específicas y que no interfieren en nada de para lo que los uso.
#27, para nada, de hecho simpatizo con ellos en tanto considero que son un pueblo oprimido, ahora bien, eso no quita que opine que en materia de política de alianzas han sido nefastos y no los culpo porque los hayan engañado una vez, pero cuando esto es una constante, la culpa ya no es de los demás. Han sido siempre una herrramienta útil del imperialismo que no ha sacado nada a cambio, no por maldad sino por falta de inteligencia política.
#16, buen intento enlazando un canal que no es de física sino que dedica el 100% de sus vídeos a despotricar contra la IA, pero el propio Francisco Villatoro (que sí es físico) explica aquí: francis.naukas.com/2026/03/01/el-primer-gran-exito-de-la-inteligencia- que no es ningún bulo: la IA no "descubrió una nueva ley de la física", pero tampoco se limitó a simplificar ecuaciones, lo que hizo fue encontrar una fórmula general para unas amplitudes de gluones a partir de casos concretos que ya se conocían, y luego eso se demostró y verificó con métodos normales de física teórica. Es decir, ha creado conocimiento nuevo te guste o no caudillo.
#9, ni tú ni yo vamos a tener que resolver problemas de esta complejidad. Con que tengamos acceso a una fracción de esta inteligencia, nos basta. Además, los modelos son cada vez más eficientes.
#6, este planteamiento parte del error de base de que existe una única política óptima cuando todo depende de lo que quieras optimizar. ¿Quieres crecimiento económico a toda costa o prefieres que no haya tanta desigualdad? ¿Cuanta importancia deben tener las políticas verdes? ¿Si logramos que nuestras empresas se hagan con el control del petróleo, podemos saltarnos el derecho internacional a la torera? Nuestro sistema económico genera de forma inherente una serie de contradicciones irresolubles que lo único que se puede hacer es tratar de mitigar, pero existirán y por inteligente que sea la IA va a requerir de la toma de decisiones y elección de prioridades.