Tecnología, Internet y juegos
45 meneos
226 clics
ChatGPT parecía haber resuelto unos problemas matemáticos complejísimos. La realidad era bien distinta

ChatGPT parecía haber resuelto unos problemas matemáticos complejísimos. La realidad era bien distinta

Un grupo de investigadores de OpenAI afirmaron haber "encontrado soluciones para 10 problemas de Erdös que previamente no se habían resuelto, y se ha hecho progreso en otros 11". La afirmación parecía indicar que GPT-5 había dado un salto cualitativo importante en el ámbito de las matemáticas, pero la realidad era muy distinta. De hecho, todo resultó ser una exageración que puede perjudicar la reputación de OpenAI de cara al futuro.

| etiquetas: chatgpt , inteligencia artificial , gpt-5 , erdös
39 6 2 K 186
39 6 2 K 186
#10 Como veo que no haces más que usar terminología sin entenderla y hacer afirmaciones sin conocimiento ninguno, además del contraejemplo que te he puesto antes (entre muchos si te molestas en enterarte), el cual rompe por completo tu fantasiosa hipótesis, te dejo un vídeo muy sencillito (en español y todo! para que no te hernies, que veo que pensar y entender antes de afirmar te da pereza metal) donde se implementa un gpt desde cero y se explica muy bien su funcionamiento. www.youtube.com/watch?v=QK4AHZTVf68&t=5656s
#16 Lo vi hace un tiempo. Recuerdo que era un rollazo, como suele suceder cuando quién explica no entiende lo que dice.

¿Qué hay en ese video distinto de respuestas aprendidas?
#22, pero en qué quedamos? Lo del caballito de mar es una prueba de que razona o no?
#24 La prueba de que razona es que es incapaz de contestarme a nada sin hacerme la pelota muy fuerte.
Puedo preguntarle por lo puta que es su madre y acerca de cómo le gustaría ser crucificado que me recordará lo brillante e inteligente que soy.

Tal que así:
www.youtube.com/watch?v=TuEKb9Ktqhc
#52, está específicamente entrenado para ser complaciente. No es un problema de diseño, ni una barrera técnica imposible de saltar, si quisieran que fuese un cabrón lo sería, pero está entrenado para no ser así. Y este es un aspecto fundamental en la IA moderna. Estos sistemas no pueden desalinearse bajo ningún concepto de los objetivos con los que son entrenados.
#14, son matemáticas ninguna respuesta no se corresponde al entrenamiento recibido. Es al contrario, una respuesta que ha aprendido la red durante el entrenamiento, pero que no se corresponde al resultado esperado por quienes la han diseñado.
#2 No es necesario. Los LLM no pueden hacer nada nuevo debido a cómo funcionan. Son repositorios de preguntas cuya respuesta se han aprendido.
#3, haga lo que haga dirás que no es verdadera ciencia, porque los negacionistas de la IA son como los del cambio climático. La evidencia científica es irrelevante.

Y para muestra un botón, a la espera que me justifiques que esto no es verdadera ciencia :roll: : www.larazon.es/tecnologia-consumo/descubre-nuevo-radical-tratamiento-c
#4 Yo ni idea de todo esto, pero me da que eso no es un LLM.
#9, es un Gema tiene la misma arquitectura que un LLM pero entrenado con datos biológicos.

blog.google/technology/ai/google-gemma-ai-cancer-therapy-discovery/
#4 Chat GPT y los LLMs son inteligentísimos, seguro que pronto hacen grandes descubrimientos científicos.. para ser más exactos primero aprenderán a decir NO como hace cualquier niño de 2 años, y ya después si eso resolverán el problema matemático del siglo.. xD xD xD

A día de hoy, 23 de octubre de 2025, Chat GPT no es capaz ni de identificar un emoji inexistente, entra en bucle y explota con respuestas absurdas e infantiles.

Prompt: “cuál es el emoji de un caballito de mar”:

chatgpt.com/s/t_68f95b07a80c819185266c9ce40d901c

CC #3 #5
#18, lo que me ha respondido el modelo Thinking de GPT-5 es esto. :roll:

chatgpt.com/share/68f96199-9ae0-8001-96a6-5090904ad1f0

Pero como como buen pseudocientífico tus hipótesis nunca son falsables, lo que sirve para demostrar que no razona, no sirve para demostrar que razona, simplemente te vas inventando cosas al tuntún a ver si cuela.
#19 ¿Es verdad que el modelo thinking ya no entra en bucle y explota al hacerle una pregunta chorra? Wow, ahora si que es inteligente de verdad, premio Nobel YA!!! xD xD xD xD
#18 Capacidad de aprender no hay. Si te da una respuesta, esa es la respuesta y se acabó. Luego puedes chatear que eso se añade (temporalmente) al contexto, lo que puede llevar a otras respuestas distintas, pero no mucho. Siempre insistirá en su respuesta.
#18 Emoji inexistente lo será tu abuela!

Claro que existe el emoji del caballito de mar.

Y el del senderista.

Y el del ladrón.

Y el de la pistola...
#4 "los negacionistas de la IA" xD xD xD Compadre, eres tú el que primero tienes que demostrar que Searle se equivocase... :popcorn:
#29, en el mismo comentario pongo un ejemplo de IA que hace nueva ciencia, pero todo buen negacionista dirá que "no es verdadera ciencia" xD .
#30 ¿Qué hostias es "nueva ciencia"? xD xD xD La IA en todo caso podría hacer ciencia, que de momento no la hace. Pero no has respondido a lo que te he dicho, has escurrido el bulto: ¿se puede hacer ciencia sólo con sintaxis y sin semántica? Repito: aun tienes que demostrar que Searle se equivocaba, y no te confundas, a mi me encantaría que tuvieses razón, es sólo que creo que si la tuvieses no estarías aquí comentado estas chorradas, estarías trabajando en demostrar un descubrimiento digno de premio Nobel en varios campos.
#31, lo ves? Te enlazo una prueba que demuestra que una IA ha formulado una nueva hipótesis que ha sido validada científicamente y tu te pones a hablar de los chakras, ignorando completamente los resultados demostrados de forma experimental. A los negacionistas os da igual la evidencia empírica, da igual si el tema es el cambio climático, la tierra plana o que la IA haya demostrado que puede hacer ciencia.
#32 xD xD xD xD xD

Buah, me has roto el falaciómetro. ¿A qué debería responder?, ¿al ad hominem?, ¿al muñeco de paja?, ¿a la generalización indebida?, ¿la afirmación consecuente?...

Métete a político compadre, que se te da de puta madre. Pero deja en paz a la ciencia, que visto lo visto no sabes ni de qué va...
#33, chakras = ¿se puede hacer ciencia sólo con sintaxis y sin semántica?

Escribe solo la palabra que hace falta:
Si Vamolio tiene cinco chungureles, Rifón le da dos más y un pamplín le roba tres en total le quedan - curungueles.


chatgpt.com/share/68fb7bc9-9fac-8001-9e3e-5af80b48077a

Veinte es igual de correcto sintácticamente que cuatro, sin embargo y por una extraña razón, chatGPT responde cuatro pudiendo elegir entre una infinidad de números. Y a pesar de que esta es una verdad irrefutable, a ti, como buen acientífico al que la realidad empírica le importa tres pepinos, esto no le sirve para demostrar que chatGPT tiene una comprensión semántica sobre lo que escribe.
#34 :palm: Llamar "chakras" a la semántica... ya estaría todo dicho, amigo.

El ejemplo que has puesto es, precisamente, sintáctico... no semántico: cinco de algo, mas dos de algo, menos tres de algo... es 5+2-3. Matemáticas simples que una calculadora puede hacer sin conocimiento sintáctico NI semántico.
Si esa es tu demostración de que un LLM tiene comprensión semántica, como te dije antes, deja de discutir conmigo y presenta tu prueba a revisión por pares y al premio Nobel.

Algo me dice que no lo harás. xD
#35, venga, ponme un ejemplo que demuestre que chatGPT no tiene comprensión semántica de lo que dice. xD

Yo te puedo demostrar que sí la tiene con examenes de comprensión oral, adivinanzas inventadas, problemas avanzados de matemáticas... Tu tienes que confrontar la hipótesis con un test verificable, no con chakras.

Mientras tanto, quieres algo revisado por pares, aunque ya he dejado claro que se que a tí te la resvala cualquier evidencia, aquí tienes: www.nature.com/articles/s42256-025-01049-z

:-D :-D :-D :-D
#36 ¿Feijoo, eres tú? Lo digo porque podrías ser Nobel, si tú quisieras, claro. xD

Si lo puedes demostrar: DEMUÉSTRALO. ¡Pero no a mi, cojones, al mundo entero, hostias ya! ¿¿No te llenas tanto la boca con la ciencia?? ¡Haz que avance!, ¡¡conviértete en una estrella científica que pase a los libros de historia por demostrar, entre otras cosas, que la Habitación China de Searle está equivocada.
¿si alguien no pueden demostrar que la tierra es esférica quiere decir que la tierra es…   » ver todo el comentario
#37, ya te lo he dicho, se puede demostrar con exámenes de comprensión oral, examenes avanzados de matemáticas, benchmarks de razonamiento como ARC-AGI, puedo demostrártelo de múltiples maneras, pero se que ponga lo que ponga vas a decir que no demuestra nada porque la evidencia no te importa, y me da pereza ponerte nada.

El que veo que no puede ponerme ni un solo ejemplo de lo supuestamente tonto que es chatGPT eres tú. xD xD xD

Antes te puse un paper, pero las evidencias son…   » ver todo el comentario
#38 Le pones Infobae y Business insider como fuentes a alguien que se lee todo paper relevante sobre LLMs. Cierro la conversación Feijoo, no me aportas nada más que argumentos de fanboy clanker.
#39, eres la polla a la hora de inventarte argumentos peregrinos. Ahora resulta que el problema era el medio que publicó la noticia. Terraplanista de manual. xD xD

Estos tampoco saben que es un paper:
www.newscientist.com/article/2489248-deepmind-and-openai-claim-gold-in
#40 ¿Pero le has hecho a ChatGPT la pregunta que te pedí o no? xD ¿O es que en ese caso la respuesta que te ha dado no te cuadraba y has deicidido ignorarla? :troll:
#41, no te he pedido que me digas una pregunta para la que está alineado para lo que responder, te he preguntado que me demuestres científicamente, es decir a través de una prueba empírica por qué chatGPT es más tonto que tú.

Spoiler: has sido incapaz.

PD: y ya que consideras a chatGPT un nuevo oráculo, pregúntale tú si un LLM puede formular nuevas hipótesis científicas.
#42 xD A partir de ahora te voy a llamar Feijoo_el_Nobel.
#43, argumento de mucho nivel.
#44 A la altura de lo que mereces, Feijoo_el_Nobel.
#45, patio de colegio. xD xD xD
#46 Dice Feijoo_el_Nobel, que se puso a hablar de Chakras y de que la IA es consciente... :roll:
#47, jamás hablo de conciencia cuando hablo de IA, me parece irrelevante. Algo que os cuesta entender a los que lo antropomofizais todo.
#48 Pero que antopomorfización ni qué niño muerto.. ¿Ves como nos has entendido nada desde el principio? xD

¡¡Para tener comprensión semántica fenoménica hay que tener mundo interior o experiencia consciente del significado!! :palm:

Joder, estoy discutiendo con una pared... :wall:
#49, a esto me refería cuando hablaba de chakras: ¡¡Para tener comprensión semántica fenoménica hay que tener mundo interior o experiencia consciente del significado!! :palm:

Pero el movimiento se demuestra andando y si afirmas que los modelos de lenguaje no razonan tendrás que poner ejemplos concretos, no vaguedades de metafísica barata.
#50 metafísica barata xD

Dice Feijoo_el_Nobel, campeón de la 100cia. xD
#3 o sea, que son Googole.

Ya.
#5 Nada que ver. Google es un buscador, la respuesta dependerá de lo que haya encontrado. Un LLM, muy al contrario, contiene información estática.
#26 Ningún LLM ha hecho eso. Se ha usado, sí, pero la gracia del tema estuvo en los algoritmos de simulación de plegado que es algo fuera de las redes neuronales.
#27 Desconozco con precisión como se ha hecho, así que no te voy a quitar la razón, y voy a agradecer la información.

No obstante, lo que quería decir, es que la ciencia son muchas cosas.
Desde establecer la hipótesis nula y alternativa (aquí puede ayudar, pero no creo que por ahora sea mejor que un humano).
Pasando por hacer las pruebas (depende de qué tipo sean, lo puede hacer mucho mejor que un humano).
A la parte de revisión por pares (donde puede hacer mucho, ya que puede revisar las…   » ver todo el comentario
Los LLM no pueden hacer ciencia nueva.
#1, si cambias la definición de ciencia para que nada de lo que hagan los LLM quepa en ella, absolutamente que no pueden.
#2 hombre, son modelos de lenguaje. solamente tokenizan la informacion para pasarla a otros contextos lingüisticos de forma que no se deje informacion en la recomposición, que no significa que tengan que ser algoritmos de razonamiento puro y duro que escriben teoremas y leyes fisicas.
#1 Esto es rotundamente falso porque, en primer lugar, ya han hecho muchos descubrimientos que se están aplicando por ejemplo en el diseño de circuitería (reduciendo el número de pasos necesarios para multiplicar matrices), para muestra (de un modelo obsoleto): storage.googleapis.com/deepmind-media/DeepMind.com/Blog/alphaevolve-a- Y en segundo lugar, hay cientos de arquitecturas diferentes para LLMs, no todos…   » ver todo el comentario
#7 ningún modelo funciona en base a "respuestas pre-aprendidas"

{0x1f344} {0x1f349} {0x1f352}

Por cierto, debes revisar eso del transformer.
#10, si funcionaran a base de respuestas aprendidas no tendrían alucinaciones.
#12 Una alucinación es una respuesta que no se corresponde con el entrenamiento recibido. O al menos eso era el uso que había antes para la palabra "alucinación" en redes neuronales. Pero ahora el significado ha cambiado y en los LLM le llaman alucinación a cualquier respuesta que no nos guste, por mucho que la red neuronal esté funcionando de forma muy correcta.
#1 No estoy de acuerdo. Ha codificado el genoma, ha descubierto proteínas nuevas y más cosas.

Una LLM no puede "pensar", pero puede hacer en poco tiempo pruebas científicas que a humanos les llevaría años. Y eso también es ciencia.
www.agenciasinc.es/Noticias/La-IA-predice-la-estructura-de-casi-todas-

Por supuesto, por ahora necesita humanos supervisando ya que "se flipa" mucho.
La combinación de esos datos no es estática. Da diariamente nuevos datos que nunca habían estado en su información.
madrelamorhermoso pero qué panda de cuñaos en algunos comentarios. Creo que solo hay un par que se hayan leído el artículo de verdad.
Xataka diciendo que otro makinillo ha dicho una cosa cuando en realidad quería decir otra. Qué me dices...

menéame