Actualidad y sociedad
7 meneos
80 clics

Otro problema Erdos resuelto por GPT-5.2

Las últimas semanas han sido muy movidas en la comunidad matemática, los modelos de lenguaje están empezando a resolver en cadena múltiples problemas matemáticos que llevaban décadas abiertos, el último de hace solo unas horas el #238, los problemas Erdos son una colección legendaria de retos matemáticos propuestos por Paul Erdős, muchos de ellos con recompensas simbólicas y fama casi mítica, y que durante años han servido como frontera informal entre lo resoluble y lo imposible.

| etiquetas: ia , llm , matemáticas
Por aquí se ha leído desde hace muchos meses que era imposible que los LLM fueran capaces de generar nuevo conocimiento, parece que esta afirmación ha sido refutada con la resolución en cascada de múltiples problemas matemáticos que llevaban décadas abiertos durante el último mes y es algo que no solo sacude el orgullo académico, sino que obliga a replantear qué entendemos por intuición, creatividad y autoría en matemáticas en plena era de la IA.
#1 en el mismo enlace que pones hay un comentario con un enlace a Github (github.com/teorth/erdosproblems/wiki/AI-contributions-to-Erdős-proble) con tablas de los problemas de Erdos dividido en tres secciones, donde se especifica el estado del problema, si existía literatura previa, etc.

Hay dos que parecen resueltos y sin literatura previa. Para uno de ellos se ha utilizado un teorema ya existente.

En esta página están todos los problemas de Erdos para que nos hagamos una idea…   » ver todo el comentario
#4, mucho enlace a GitHub para acabar ignorando lo más importante de lo que tú mismo citas sobre el problema #871.
Dices que "solo ayudó a refinar", pero si la IA le sugirió cómo adaptar una técnica existente para construir el contraejemplo, eso es resolver el problema. A ver si nos quitamos la venda de una vez.

Vosotros seguid pensando que es solo una calculadora vitaminada. Que es a vosotros a quienes os tocará ser más creativos de verdad para construir los argumentos.
#8 por eso he puesto la traducción del papel de la IA en ese problema. Pero si profundizamos en el foro de erdosproblems.com, ya que el enlace de github nos probee el enlace al hilo del foro de ese problema (www.erdosproblems.com/forum/thread/871), vemos qué:

Parece ser una prueba formal generada por LLM. (Declaración en la línea 4930.)

Sigue muy de cerca el método de Erdős-Nathanson, pero permite el tamaño de Fk
ir al infinito muy lentamente. El mismo método debería resolver la

…   » ver todo el comentario
#11, vigila con los saltos de línea cuando copies una respuesta generada por chatGPT.
#13 no uso IAs para responder mensajes en foros. Lo que ves en mi respuesta es copia/pega (después de la traducción, claro) de la url del hilo del foro. El problema con los saltos de línea es que meneame no acepta la formulación matemática que sí que acepta el foro de los problemas de Erdos.

Si no me crees puedes entrar en el enlace y traducir tu el hilo.
#14, ok, me lo pareció de primeras.
#1 ya te la han vuelto a colar otra vez
#7, tienes razón todo es una chufla que no sirve para nada para engañar idiotas, por cierto, de este engaño también es partícipe China que en su último plan quinquenal ha situado el despliegue de la IA como un pilar central de su desarrollo los próximos 5 años. Suerte que a la gente lista como tú nadie le toma el pelo.
#10 ya nos gustaria, esto que tu reproduces es propaganda pura y dura de los fondos de inversion que se han entrampado hasta las cejas con esta tecnologia que jamas va a estar a la altura de lo que estan prometiendo.
#15, ya te digo que el Estado Chino también debe estar cooptado por estos fondos de inversión. Porque si te lees su último plan quinquenal, verás que la IA ocupa una posición central. No solo en su desarrollo, sino en su despliegue.
#1 Recomiendo a esos que dicen que un LLM no puede generar conocimiento que vean el documental AlphaGO. Al principio aprendían basándose en muchos datos, luego empezaron a buscar las soluciones "ellos solos". Si eso no es aprender, apaga y vámonos.
#9, como aclaración AlphaGo no es un LLM, pero para el caso es igual, lo relevante aquí son las redes neuronales profundas.
#3 Si pero es que la gente veía los primeros monigotes con 6 dedos y se reía, o que el primer chatgpt no sabía el color del caballo blanco de santiago.


Los que menos pasado de jugar con el spectrum 48k a un cacharro de 1 Tb de Ram sabemos 8-D
En serio la gente no entiende la capacidad de superación de los Llm.
hace tres años cuando empezaron era una cosa... un juguete poco más si se puede llamar juguete algo tan complejo como chatgp.

sin embargo su crecimiento (sí aumentado por la especulación) ha sido una cosa absolutamente loca y de lo que puedan hacer a dentro de cinco años nadie se atreve a predecir.
#2, si conocías como están diseñados los LLM y tenías un mínimo de capacidad analítica, que llegaríamos donde estamos era más que evidente.
"Erdos", no. Se dice "el segundo".

menéame