Noticias de ciencia y lo que la rodea
9 meneos
38 clics
GPT-5 sorprende al demostrar un nuevo resultado en optimización convexa

GPT-5 sorprende al demostrar un nuevo resultado en optimización convexa

La inteligencia artificial vuelve a protagonizar un hito inesperado, esta vez en un terreno reservado a especialistas: las matemáticas puras. Un experimento reciente con GPT-5 Pro, el modelo avanzado de OpenAI, ha mostrado que la IA es capaz de generar una prueba matemática inédita, ampliando un resultado abierto en un artículo de investigación sobre optimización convexa. Aunque la contribución no supera el trabajo final realizado por investigadores humanos, el episodio es revelador sobre el futuro de la colaboración entre humanos y máquinas...

| etiquetas: optimización convexa , matemáticas , gpt-5 , demostración , openai
Nada. nada, solo repite como un lor... Espera, ¿qué has dicho que ha hecho?
#1 Coger cosas de otros y juntarlas, si.
#3 En los departamentos de las universidades hay un dicho:

El que copia un libro es un plagiador
El que copia dos, es un recopilador
Y el que copia tres, es un investigador.


A ver si nos creemos que somos todos Einstein porque no es el caso.
#4 A lo que voy, no es lo mismo tener una intuición y desarrollar las ideas, probar fórmulas y sacar una teoría, aún partiendo de las mátemáticas y física desarrolladas por otros, lo cual es una labor creativa, que tomar las matemáticas y física de otros y sacar un resultado (que básicamente es jugar con las ecuaciones hasta que te da alguna solución). Lo que ha hecho la IA es lo segundo, pero lo venden como si fuera lo primero. Para llegar a lo primero aún le falta mucho.
#5, a lo primero jamás llegará, porque tu teoría no es falsable, si dices que esto se reduce a "coger cosas de otras y juntarlas", puedes decirlo de cualquier otra cosa. Como crees en el alma inmaterial y la espiritualidad, a la que le llamas intuición y desarrollar ideas para que no quede tan cantoso, tus creencias son infalsables en base a un análisis material. Y si no ya me dirás tú que prueba harías tú para poder probar de forma irrefutable que la IA es capaz de hacer algo que no sea repetir.
#5 #7 #8 Si piensas que lo de Einstein de darle una explicación teórica y desarrollar una prueba matemática para ello al efecto fotoeléctrico a partir de los trabajos de Hertz, Lorentz, Plank, etc. es equivalente al "una IA ha empezado a juntar ecuaciones y ha encontrado una solución que ahora tendremos que analizar para qué sirve, en qué condiciones se ha dado, cómo se interpreta y qué repercusiones tiene", cosas todas que te da el trabajo de Einstein para llegar a su solución final,…   » ver todo el comentario
#16, te estás inventando la definición de AGI. Para aer AGI no necesita ni propósitos, ni siquiera descubrir teorías revolucionarias, basta con hacer igual de bien que la mayoría de personas la mayoría de trabajos intelectuales.

Pero lo dicho, con todas las vaguedades que has puesto podrás negar que una IA es inteligente ad infitum, porque no lo planteas de forma científica, es decir en base a unos criterios demostranles o falsables, sino en base a frases hechas sobre metafísica y el sentido de la vida. Yo tengo una concepción materialista del mundo, nada surge de la nada, sino que todo tiene una lógica y una explicación que además se puede modelar matemáticamente.
#17 ¿Y cuál es esa definición de AGI de la que tengo que estar al tanto y que no coincide con lo que digo?

"con todas las vaguedades que has puesto podrás negar que una IA es inteligente ad infitum, porque no lo planteas de forma científica, es decir en base a unos criterios demostranles o falsables, sino en base a frases hechas sobre metafísica y el sentido de la vida. Yo tengo una concepción materialista del mundo, nada surge de la nada, sino que todo tiene una lógica y una explicación…   » ver todo el comentario
#21, tienes infinidad de benchmarks de evaluación para saber cuan inteligentes son las IAs, un ejemplo claro de mostrar un comportamiento más inteligente que la mayoría de personas es poder sacarse la medalla de oro en las olimpiadas de matemáticas. Esto son ejemplos evaluables, cuantoficables y replicables.

Respecto a esto: "Hablamos del ahora, de la IA que tenemos. Y la IA que tenemos es un ente que balancea pesos según unos datos de entrada hasta que una salida se parece lo más

…   » ver todo el comentario
#22 "Yo no conozco a mucha gente que esté en condiciones de replicar el trabajo de Einstein."
Ni yo. Pero lo puse como ejemplo de intuición: a Einstein veía un camino probable y empezó a probar cosas para sostener su hipótesis. Una IA simplemente intenta conseguir un resultado que encaje en ciertos parémetros.

Te lo pongo más fácil: ¿te acuerdas de cuando en matemáticas o física nos daban una ecuación y teníamos que encontrar sus máximos y sus mínimos? ¿y que había momentos donde…   » ver todo el comentario
#33, justo el ejemplo que me has puesto se puede resolver con matemáticas puras y duras, no hace falta ni la magia, ni la inspiración divina.

Pero me pregunto qué piensas que es lo que ocurre en el cerebro si de verdad crees que no se debe a la concatenación de axiomas lógicos y operaciones matemáticas que nos pueden llevar del punto A al punto B cuando los concatenamos correctamente. De dónde surgen según tú las nuevas ideas? De la espiritualidad? De los xacras? De los espíritus de la naturaleza? Del alma? De verdad que no entiendo como a estas alturas hay gente que pueda dudar del materialismo puro y duro.
#34 ¿He negado que el cerebro concatene acciones lógicas? lo que digo es que el cerebro va más allá y tiene capacidades que la IA no puede imitar (al menos actualmente). De hecho comenté que Einstein no partía de cero, y que fue la intuición de una solución lo que le enfocó a seguir un camino. No fue por azar, por seguir el menor esfuerzo, o una solución matemática. Esa intuición no es mágica, es debido a procesos inconscientes internos del cerebro. ¿O acaso no piensas cosas cuando duermes? ¿no…   » ver todo el comentario
#35, www.meneame.net/m/actualidad/ia-google-gana-medalla-oro-competicion-pr

Pero ya me se la respuesta: esto no demuestra nada.

Y es que el problema de la gente que opina como tú es que le da igual lo que pueda hacer la IA, haga lo que haga jamás demostrará nada, es una tesis infalsable y por lo tanto acientífica, se basa más en la fe y la metafísica que en las pruebas científicas.
#36 ¿Y? deepblue ganó a un maestro de ajedrez. ¿Eso hace a deepblue inteligente?

Las IAs tal y como las conocemos ahora son muy buenas cuando están muy especializadas en algo. Desde que intentas que busquen la generalidad, se pierden. Por supuesto que puede haber IAs que aventajen a los humanos en cosas concretas (cuanto más concretas mejor). ¿Es una sorpresa que ganen una competición, un juego, un problema con reglas muy concretas y con muchísimo material del que aprender? ninguna. ¿Eso las…   » ver todo el comentario
#37, sí, hace deep blue inteligente jugando ajedrez, aunque sea a base de fuerza bruta. En todo caso deep blue no te puede ganar unas olimpiadas de matemáticas, por lo tanto podemos falsar la hipótesis limitando el alcance de la inteligencia de Deep Blue. Lo que no se puede es decir que no es inteligente sin plantear un experimento para demostrarlo.
#38 ¿Qué tiene de inteligente probar todos los caminos? un humano los ponderaría, quizá, pero por intuición o experiencia descartaría algunos. Quizá con eso elimine un camino más óptimo sin darse cuenta, quizá con eso simplemente se quite de encima tener que evaluar caminos sin salida. Si la máquina hiciera eso sería porque alguien le ha enseñado "poda este y este" de antemano, lo cual translada esa supuesta inteligencia al humano. De hecho, el mismo hecho de "prueba todos los…   » ver todo el comentario
#23 Te lo pongo más fácil: las IAs pueden tener toda la información que quieran, la más rigurosa (información científica con muy poco margen de error, partiendo de muchas fuentes muy detalladas), y aún perpetrar grandes engendros. Esto en particular me hizo mucha gracia:

masto.ai/@vagina_museum/115231068737126436

No sólo ignora lo que le pide el prompt, es que es incongruente con sus propios resultados. ¿Realmente crees que esos benchmarks evaluan cuán inteligentes son las IAs o sólo se dedican a puntuar unas métricas concretas y a generalizar a partir de ellas?
#20 No he afirmado que contradiga nada. He afirmado que no significa nada.
Tu ejemplo es de todo menos claro (aunque ni siquiera es un ejemplo). Dices: El trabajo de Einstein sobre el efecto fotoeléctrico es un ejemplo claro de (usemos simplificadamente "creatividad"). Como una IA no hace eso, no puede exhibir "creatividad".
Yo no conozco a mucha gente que esté en condiciones de replicar el trabajo de Einstein. Son también incapaces de exhibir "creatividad"?
Lo que te dice #17 es que con una definición tan vaga puedes mover la portería hasta el infinito.
Realmente el problema es más complejo, pero tu definición en #3 "coger cosas y juntarlas" no es permite ni comenzar a abarcarlo.
#22, el trabajo de Einstein se reduce en última instancia a encontrar los patrones matemáticos que permiten modelar el comportamiento de las cosas de acuerdo a nuestras observaciones, no veo yo por qué eventualmente una IA no podría ser capaz de describir por si misma estos fenómenos a partir de las observaciones.
#24 Esto no funciona así ni de casualidad. Las matemáticas no modelan las observaciones existentes. Las matemáticas predicen el comportamiento de la naturaleza ANTES de las observaciones.

Por otro lado, una IA solamente repite los textos que se ha tragado en su entrenamiento. Es útil para buscar información y nada más.
#25, lo siento pero no creo ni en el alma, ni en los espíritus, ni en nada que no sea la materialidad tangible pura y dura. No creo que las ideas aparezcan de forma espontánea dentro de nuestras cabezas, pienso que se deben a una serie de procesos que si pudieramos trazarlos de alguna manera se vería como obedecen todos a unas reglas lógicas que se pueden modelar matemáticamente desde lo que observamos hasta lo que pensamos. Tu forma de pensar, en cambio es más propia de alguien que cree en la magia.
#26 No es una forma de pensar. Es la historia. Así es como ha ido funcionando hasta ahora. Se observan unos fenómenos, se describen mediante las mates, esas mates PREDICEN nuevos fenómenos. Se observan esos nuevos fenómenos.

y eso es raro, muy raro, como tú pareces querer decir, pero la realidad es la que es y no lo que tú quieres creer. Entonces, en medio de la extrañeza, se elaboran teorías sobre ello.

en.wikipedia.org/wiki/The_Unreasonable_Effectiveness_of_Mathematics_in
#27, de dónde surgen las ideas si no es en base a reglas lógicas que procesan las observaciones?

Si la gravedad no la hubiese descubierto Newton y le pasáramos las observaciones a una red neuronal, podría inferirla sola, solo a partir de las observaciones. Lo mismo para la relatividad general. Espérate a los próximos años que verás decenas de demostraciones, teoremas y física creada por redes neuronales artificiales.
#28 Los LLM no pueden hacer nueva ciencia.
#29, AlphaFold es una prueba de todo lo contrario.
#30 AlphaFold es un conjunto de algoritmos (creo que siete) que se ejecutan contra la IA.
#16 Yo lo que digo es que, la línea que separa ambas, la has puesto donde te ha venido en gana y tampoco has explicado dónde está, así que el resto no significa nada.
#19 Al menos he puesto algo claro y conciso con el ejemplo de Einstein, e incluso así más abajo he dejado puertas abiertas porque tampoco tenemos claro cómo funciona el cerebro y por lo tanto no podemos comparar. ¿Dónde la has puesto tú? ¿y por qué lo que digo contradice lo que dices?
#8 ya me dirás tú que prueba harías tú para poder probar de forma irrefutable que la IA es capaz de hacer algo que no sea repetir.

Pues esta prueba:

www.livescience.com/technology/artificial-intelligence/mathematicians-

Fracaso total.

Por favor, ahora tus excusas de creyente. Gracias.
#10, me surgen sos preguntas con eso, ¿Significa esto que si una persona no puede resolver estos problemas matemáticos, tampoco es una AGI? y ¿Dado que esta noticia es de 2024 y en agosto de 2025 los modelos de OpenAI y Google lograron sacarase la medalla de oro en las olimpiadas de matemáticas, ya pueden considerarse AGI?

www.nature.com/articles/d41586-025-02343-x

Mi conclusión es la siguiente: jamás llegaremos a la AGI porque independientemente de las capacidades que muestren los modelos respecto a la resolución de problemas, la gente que no está dispuesta a aceptarlo, no lo hará, porque atenta contra unas creencias que no sustentan en lo empírico y lo material.
#12 Hay otra prueba parecida con resultados parecidos después de estos banchmark tan chulos. La única explicación es que las respuestas entraron en el modelo antes de la prueba.

Lo que coincide totalmente con la naturaleza de una red neuronal.

En realidad todo el mundo opina lo mismo si nos salimos del hype

www.linkedin.com/pulse/llms-can-pass-math-tests-cant-do-david-johnston
#13, de dónde te sacas que "las respuestas entraron en el modelo antes de la prueba", si en la olimpiada de matemáticas se proponen problemas completamente nuevos y los modelos de OpenAI y Deepmind participaron cuando se estaban celebrando igual que el resto de particioantes humanos. Es decir, no tenían acceso a las soluciones y no pudieron entrenarse con ellas.

Todo el mundo no, dos premios Nobel opinan justo lo contrario:…   » ver todo el comentario
#14 Sí, es parecido a leer la bíblia. Eso no me convence de que la magia funcione.
#10 Conozco a muy poca gente que sería capaz de abordar y mucho menos resolver uno solo de los problemas de FrontierMath, mucho menos una selección de ellos. Quizás tú seas uno de ellos pero, si no fuese el caso, qué significa? Que eres "incapaz de hacer algo que no sea repetir"?
#5 No hay una línea clara entre "tener intuición, desarrollar ideas, probar fórmulas" y "tomar las matemáticas y física de otros". En ambas existe un conocimiento contextual aplicado y una gran zona de grises que va de lo que convencionalmente solemos llamar un hallazgo original al corolario más inmediato.
No estoy diciendo que tu comentario esté equivocado pero hace uso de una frontera que das por sentada, que no has definido, y es arbitraria.
#5 Estoy de acuerdo lo bueno que tiene es que es como una gran memoria, un científico puede tener unas ideas otro otras, e igual la forma optima de llegar a un resultado es una mezcla. Un ejemplo, estábamos buscando las típicas vitaminas mental / cuerpo. pues nos iba diciendo marcas para que servían, nos indicaba que igual unas tenían todo , peor no en una forma aceptable de de cantidad, o que tenían mucha x vitamina pero poco de lo que te hacia absorberla. etc. Bueno al final terminamos con una marca Alemana que había ayudar con otro suplemento de aceites tipo Omega3, y con otra marca pero que es para aumentar la fertilidad, que llevaba todo (Seidiferty). que al final no son más que complejos vitamínicos.
#1 Ha dado un resultado que ya era conocido y de alguna manera había entrado dentro del modelo. Es el mismo caso que con los benchmarks.
Nos comen.
#2 No, si abres tú primero la bolsa de patatas fritas.
comentarios cerrados

menéame