Noticias de ciencia y lo que la rodea
8 meneos
37 clics
GPT-5 sorprende al demostrar un nuevo resultado en optimización convexa

GPT-5 sorprende al demostrar un nuevo resultado en optimización convexa

La inteligencia artificial vuelve a protagonizar un hito inesperado, esta vez en un terreno reservado a especialistas: las matemáticas puras. Un experimento reciente con GPT-5 Pro, el modelo avanzado de OpenAI, ha mostrado que la IA es capaz de generar una prueba matemática inédita, ampliando un resultado abierto en un artículo de investigación sobre optimización convexa. Aunque la contribución no supera el trabajo final realizado por investigadores humanos, el episodio es revelador sobre el futuro de la colaboración entre humanos y máquinas...

| etiquetas: optimización convexa , matemáticas , gpt-5 , demostración , openai
Nada. nada, solo repite como un lor... Espera, ¿qué has dicho que ha hecho?
#1 Coger cosas de otros y juntarlas, si.
#3 En los departamentos de las universidades hay un dicho:

El que copia un libro es un plagiador
El que copia dos, es un recopilador
Y el que copia tres, es un investigador.


A ver si nos creemos que somos todos Einstein porque no es el caso.
#4 A lo que voy, no es lo mismo tener una intuición y desarrollar las ideas, probar fórmulas y sacar una teoría, aún partiendo de las mátemáticas y física desarrolladas por otros, lo cual es una labor creativa, que tomar las matemáticas y física de otros y sacar un resultado (que básicamente es jugar con las ecuaciones hasta que te da alguna solución). Lo que ha hecho la IA es lo segundo, pero lo venden como si fuera lo primero. Para llegar a lo primero aún le falta mucho.
#5, a lo primero jamás llegará, porque tu teoría no es falsable, si dices que esto se reduce a "coger cosas de otras y juntarlas", puedes decirlo de cualquier otra cosa. Como crees en el alma inmaterial y la espiritualidad, a la que le llamas intuición y desarrollar ideas para que no quede tan cantoso, tus creencias son infalsables en base a un análisis material. Y si no ya me dirás tú que prueba harías tú para poder probar de forma irrefutable que la IA es capaz de hacer algo que no sea repetir.
#5 #7 #8 Si piensas que lo de Einstein de darle una explicación teórica y desarrollar una prueba matemática para ello al efecto fotoeléctrico a partir de los trabajos de Hertz, Lorentz, Plank, etc. es equivalente al "una IA ha empezado a juntar ecuaciones y ha encontrado una solución que ahora tendremos que analizar para qué sirve, en qué condiciones se ha dado, cómo se interpreta y qué repercusiones tiene", cosas todas que te da el trabajo de Einstein para llegar a su solución final,…   » ver todo el comentario
#16, te estás inventando la definición de AGI. Para aer AGI no necesita ni propósitos, ni siquiera descubrir teorías revolucionarias, basta con hacer igual de bien que la mayoría de personas la mayoría de trabajos intelectuales.

Pero lo dicho, con todas las vaguedades que has puesto podrás negar que una IA es inteligente ad infitum, porque no lo planteas de forma científica, es decir en base a unos criterios demostranles o falsables, sino en base a frases hechas sobre metafísica y el sentido de la vida. Yo tengo una concepción materialista del mundo, nada surge de la nada, sino que todo tiene una lógica y una explicación que además se puede modelar matemáticamente.
#17 ¿Y cuál es esa definición de AGI de la que tengo que estar al tanto y que no coincide con lo que digo?

"con todas las vaguedades que has puesto podrás negar que una IA es inteligente ad infitum, porque no lo planteas de forma científica, es decir en base a unos criterios demostranles o falsables, sino en base a frases hechas sobre metafísica y el sentido de la vida. Yo tengo una concepción materialista del mundo, nada surge de la nada, sino que todo tiene una lógica y una explicación…   » ver todo el comentario
#21, tienes infinidad de benchmarks de evaluación para saber cuan inteligentes son las IAs, un ejemplo claro de mostrar un comportamiento más inteligente que la mayoría de personas es poder sacarse la medalla de oro en las olimpiadas de matemáticas. Esto son ejemplos evaluables, cuantoficables y replicables.

Respecto a esto: "Hablamos del ahora, de la IA que tenemos. Y la IA que tenemos es un ente que balancea pesos según unos datos de entrada hasta que una salida se parece lo más

…   » ver todo el comentario
#20 No he afirmado que contradiga nada. He afirmado que no significa nada.
Tu ejemplo es de todo menos claro (aunque ni siquiera es un ejemplo). Dices: El trabajo de Einstein sobre el efecto fotoeléctrico es un ejemplo claro de (usemos simplificadamente "creatividad"). Como una IA no hace eso, no puede exhibir "creatividad".
Yo no conozco a mucha gente que esté en condiciones de replicar el trabajo de Einstein. Son también incapaces de exhibir "creatividad"?
Lo que te dice #17 es que con una definición tan vaga puedes mover la portería hasta el infinito.
Realmente el problema es más complejo, pero tu definición en #3 "coger cosas y juntarlas" no es permite ni comenzar a abarcarlo.
#22, el trabajo de Einstein se reduce en última instancia a encontrar los patrones matemáticos que permiten modelar el comportamiento de las cosas de acuerdo a nuestras observaciones, no veo yo por qué eventualmente una IA no podría ser capaz de describir por si misma estos fenómenos a partir de las observaciones.
#16 Yo lo que digo es que, la línea que separa ambas, la has puesto donde te ha venido en gana y tampoco has explicado dónde está, así que el resto no significa nada.
#19 Al menos he puesto algo claro y conciso con el ejemplo de Einstein, e incluso así más abajo he dejado puertas abiertas porque tampoco tenemos claro cómo funciona el cerebro y por lo tanto no podemos comparar. ¿Dónde la has puesto tú? ¿y por qué lo que digo contradice lo que dices?
#8 ya me dirás tú que prueba harías tú para poder probar de forma irrefutable que la IA es capaz de hacer algo que no sea repetir.

Pues esta prueba:

www.livescience.com/technology/artificial-intelligence/mathematicians-

Fracaso total.

Por favor, ahora tus excusas de creyente. Gracias.
#10, me surgen sos preguntas con eso, ¿Significa esto que si una persona no puede resolver estos problemas matemáticos, tampoco es una AGI? y ¿Dado que esta noticia es de 2024 y en agosto de 2025 los modelos de OpenAI y Google lograron sacarase la medalla de oro en las olimpiadas de matemáticas, ya pueden considerarse AGI?

www.nature.com/articles/d41586-025-02343-x

Mi conclusión es la siguiente: jamás llegaremos a la AGI porque independientemente de las capacidades que muestren los modelos respecto a la resolución de problemas, la gente que no está dispuesta a aceptarlo, no lo hará, porque atenta contra unas creencias que no sustentan en lo empírico y lo material.
#12 Hay otra prueba parecida con resultados parecidos después de estos banchmark tan chulos. La única explicación es que las respuestas entraron en el modelo antes de la prueba.

Lo que coincide totalmente con la naturaleza de una red neuronal.

En realidad todo el mundo opina lo mismo si nos salimos del hype

www.linkedin.com/pulse/llms-can-pass-math-tests-cant-do-david-johnston
#13, de dónde te sacas que "las respuestas entraron en el modelo antes de la prueba", si en la olimpiada de matemáticas se proponen problemas completamente nuevos y los modelos de OpenAI y Deepmind participaron cuando se estaban celebrando igual que el resto de particioantes humanos. Es decir, no tenían acceso a las soluciones y no pudieron entrenarse con ellas.

Todo el mundo no, dos premios Nobel opinan justo lo contrario:…   » ver todo el comentario
#14 Sí, es parecido a leer la bíblia. Eso no me convence de que la magia funcione.
#10 Conozco a muy poca gente que sería capaz de abordar y mucho menos resolver uno solo de los problemas de FrontierMath, mucho menos una selección de ellos. Quizás tú seas uno de ellos pero, si no fuese el caso, qué significa? Que eres "incapaz de hacer algo que no sea repetir"?
#5 No hay una línea clara entre "tener intuición, desarrollar ideas, probar fórmulas" y "tomar las matemáticas y física de otros". En ambas existe un conocimiento contextual aplicado y una gran zona de grises que va de lo que convencionalmente solemos llamar un hallazgo original al corolario más inmediato.
No estoy diciendo que tu comentario esté equivocado pero hace uso de una frontera que das por sentada, que no has definido, y es arbitraria.
#5 Estoy de acuerdo lo bueno que tiene es que es como una gran memoria, un científico puede tener unas ideas otro otras, e igual la forma optima de llegar a un resultado es una mezcla. Un ejemplo, estábamos buscando las típicas vitaminas mental / cuerpo. pues nos iba diciendo marcas para que servían, nos indicaba que igual unas tenían todo , peor no en una forma aceptable de de cantidad, o que tenían mucha x vitamina pero poco de lo que te hacia absorberla. etc. Bueno al final terminamos con una marca Alemana que había ayudar con otro suplemento de aceites tipo Omega3, y con otra marca pero que es para aumentar la fertilidad, que llevaba todo (Seidiferty). que al final no son más que complejos vitamínicos.
#1 Ha dado un resultado que ya era conocido y de alguna manera había entrado dentro del modelo. Es el mismo caso que con los benchmarks.
Nos comen.
#2 No, si abres tú primero la bolsa de patatas fritas.

menéame