Un grupo de investigadores de OpenAI afirmaron haber "encontrado soluciones para 10 problemas de Erdös que previamente no se habían resuelto, y se ha hecho progreso en otros 11". La afirmación parecía indicar que GPT-5 había dado un salto cualitativo importante en el ámbito de las matemáticas, pero la realidad era muy distinta. De hecho, todo resultó ser una exageración que puede perjudicar la reputación de OpenAI de cara al futuro.
|
etiquetas: chatgpt , inteligencia artificial , gpt-5 , erdös
¿Qué hay en ese video distinto de respuestas aprendidas?
Puedo preguntarle por lo puta que es su madre y acerca de cómo le gustaría ser crucificado que me recordará lo brillante e inteligente que soy.
Tal que así:
www.youtube.com/watch?v=TuEKb9Ktqhc
Y para muestra un botón, a la espera que me justifiques que esto no es verdadera ciencia
blog.google/technology/ai/google-gemma-ai-cancer-therapy-discovery/
A día de hoy, 23 de octubre de 2025, Chat GPT no es capaz ni de identificar un emoji inexistente, entra en bucle y explota con respuestas absurdas e infantiles.
Prompt: “cuál es el emoji de un caballito de mar”:
chatgpt.com/s/t_68f95b07a80c819185266c9ce40d901c
CC #3 #5
chatgpt.com/share/68f96199-9ae0-8001-96a6-5090904ad1f0
Pero como como buen pseudocientífico tus hipótesis nunca son falsables, lo que sirve para demostrar que no razona, no sirve para demostrar que razona, simplemente te vas inventando cosas al tuntún a ver si cuela.
Claro que existe el emoji del caballito de mar.
Y el del senderista.
Y el del ladrón.
Y el de la pistola...
Buah, me has roto el falaciómetro. ¿A qué debería responder?, ¿al ad hominem?, ¿al muñeco de paja?, ¿a la generalización indebida?, ¿la afirmación consecuente?...
Métete a político compadre, que se te da de puta madre. Pero deja en paz a la ciencia, que visto lo visto no sabes ni de qué va...
Escribe solo la palabra que hace falta:
Si Vamolio tiene cinco chungureles, Rifón le da dos más y un pamplín le roba tres en total le quedan - curungueles.
chatgpt.com/share/68fb7bc9-9fac-8001-9e3e-5af80b48077a
Veinte es igual de correcto sintácticamente que cuatro, sin embargo y por una extraña razón, chatGPT responde cuatro pudiendo elegir entre una infinidad de números. Y a pesar de que esta es una verdad irrefutable, a ti, como buen acientífico al que la realidad empírica le importa tres pepinos, esto no le sirve para demostrar que chatGPT tiene una comprensión semántica sobre lo que escribe.
El ejemplo que has puesto es, precisamente, sintáctico... no semántico: cinco de algo, mas dos de algo, menos tres de algo... es 5+2-3. Matemáticas simples que una calculadora puede hacer sin conocimiento sintáctico NI semántico.
Si esa es tu demostración de que un LLM tiene comprensión semántica, como te dije antes, deja de discutir conmigo y presenta tu prueba a revisión por pares y al premio Nobel.
Algo me dice que no lo harás.
Yo te puedo demostrar que sí la tiene con examenes de comprensión oral, adivinanzas inventadas, problemas avanzados de matemáticas... Tu tienes que confrontar la hipótesis con un test verificable, no con chakras.
Mientras tanto, quieres algo revisado por pares, aunque ya he dejado claro que se que a tí te la resvala cualquier evidencia, aquí tienes: www.nature.com/articles/s42256-025-01049-z
Si lo puedes demostrar: DEMUÉSTRALO. ¡Pero no a mi, cojones, al mundo entero, hostias ya! ¿¿No te llenas tanto la boca con la ciencia?? ¡Haz que avance!, ¡¡conviértete en una estrella científica que pase a los libros de historia por demostrar, entre otras cosas, que la Habitación China de Searle está equivocada.
¿si alguien no pueden demostrar que la tierra es esférica quiere decir que la tierra es… » ver todo el comentario
El que veo que no puede ponerme ni un solo ejemplo de lo supuestamente tonto que es chatGPT eres tú.
Antes te puse un paper, pero las evidencias son… » ver todo el comentario
Estos tampoco saben que es un paper:
www.newscientist.com/article/2489248-deepmind-and-openai-claim-gold-in
Spoiler: has sido incapaz.
PD: y ya que consideras a chatGPT un nuevo oráculo, pregúntale tú si un LLM puede formular nuevas hipótesis científicas.
¡¡Para tener comprensión semántica fenoménica hay que tener mundo interior o experiencia consciente del significado!!
Joder, estoy discutiendo con una pared...
Pero el movimiento se demuestra andando y si afirmas que los modelos de lenguaje no razonan tendrás que poner ejemplos concretos, no vaguedades de metafísica barata.
Dice Feijoo_el_Nobel, campeón de la 100cia.
Ya.
No obstante, lo que quería decir, es que la ciencia son muchas cosas.
Desde establecer la hipótesis nula y alternativa (aquí puede ayudar, pero no creo que por ahora sea mejor que un humano).
Pasando por hacer las pruebas (depende de qué tipo sean, lo puede hacer mucho mejor que un humano).
A la parte de revisión por pares (donde puede hacer mucho, ya que puede revisar las… » ver todo el comentario
Por cierto, debes revisar eso del transformer.
Una LLM no puede "pensar", pero puede hacer en poco tiempo pruebas científicas que a humanos les llevaría años. Y eso también es ciencia.
www.agenciasinc.es/Noticias/La-IA-predice-la-estructura-de-casi-todas-
Por supuesto, por ahora necesita humanos supervisando ya que "se flipa" mucho.