9 meneos
38 clics

GPT-5 sorprende al demostrar un nuevo resultado en optimización convexa
La inteligencia artificial vuelve a protagonizar un hito inesperado, esta vez en un terreno reservado a especialistas: las matemáticas puras. Un experimento reciente con GPT-5 Pro, el modelo avanzado de OpenAI, ha mostrado que la IA es capaz de generar una prueba matemática inédita, ampliando un resultado abierto en un artículo de investigación sobre optimización convexa. Aunque la contribución no supera el trabajo final realizado por investigadores humanos, el episodio es revelador sobre el futuro de la colaboración entre humanos y máquinas...
|
comentarios cerrados
El que copia un libro es un plagiador
El que copia dos, es un recopilador
Y el que copia tres, es un investigador.
A ver si nos creemos que somos todos Einstein porque no es el caso.
Pero lo dicho, con todas las vaguedades que has puesto podrás negar que una IA es inteligente ad infitum, porque no lo planteas de forma científica, es decir en base a unos criterios demostranles o falsables, sino en base a frases hechas sobre metafísica y el sentido de la vida. Yo tengo una concepción materialista del mundo, nada surge de la nada, sino que todo tiene una lógica y una explicación que además se puede modelar matemáticamente.
"con todas las vaguedades que has puesto podrás negar que una IA es inteligente ad infitum, porque no lo planteas de forma científica, es decir en base a unos criterios demostranles o falsables, sino en base a frases hechas sobre metafísica y el sentido de la vida. Yo tengo una concepción materialista del mundo, nada surge de la nada, sino que todo tiene una lógica y una explicación… » ver todo el comentario
Respecto a esto: "Hablamos del ahora, de la IA que tenemos. Y la IA que tenemos es un ente que balancea pesos según unos datos de entrada hasta que una salida se parece lo más
… » ver todo el comentario
Ni yo. Pero lo puse como ejemplo de intuición: a Einstein veía un camino probable y empezó a probar cosas para sostener su hipótesis. Una IA simplemente intenta conseguir un resultado que encaje en ciertos parémetros.
Te lo pongo más fácil: ¿te acuerdas de cuando en matemáticas o física nos daban una ecuación y teníamos que encontrar sus máximos y sus mínimos? ¿y que había momentos donde… » ver todo el comentario
Pero me pregunto qué piensas que es lo que ocurre en el cerebro si de verdad crees que no se debe a la concatenación de axiomas lógicos y operaciones matemáticas que nos pueden llevar del punto A al punto B cuando los concatenamos correctamente. De dónde surgen según tú las nuevas ideas? De la espiritualidad? De los xacras? De los espíritus de la naturaleza? Del alma? De verdad que no entiendo como a estas alturas hay gente que pueda dudar del materialismo puro y duro.
Pero ya me se la respuesta: esto no demuestra nada.
Y es que el problema de la gente que opina como tú es que le da igual lo que pueda hacer la IA, haga lo que haga jamás demostrará nada, es una tesis infalsable y por lo tanto acientífica, se basa más en la fe y la metafísica que en las pruebas científicas.
Las IAs tal y como las conocemos ahora son muy buenas cuando están muy especializadas en algo. Desde que intentas que busquen la generalidad, se pierden. Por supuesto que puede haber IAs que aventajen a los humanos en cosas concretas (cuanto más concretas mejor). ¿Es una sorpresa que ganen una competición, un juego, un problema con reglas muy concretas y con muchísimo material del que aprender? ninguna. ¿Eso las… » ver todo el comentario
masto.ai/@vagina_museum/115231068737126436
No sólo ignora lo que le pide el prompt, es que es incongruente con sus propios resultados. ¿Realmente crees que esos benchmarks evaluan cuán inteligentes son las IAs o sólo se dedican a puntuar unas métricas concretas y a generalizar a partir de ellas?
Tu ejemplo es de todo menos claro (aunque ni siquiera es un ejemplo). Dices: El trabajo de Einstein sobre el efecto fotoeléctrico es un ejemplo claro de (usemos simplificadamente "creatividad"). Como una IA no hace eso, no puede exhibir "creatividad".
Yo no conozco a mucha gente que esté en condiciones de replicar el trabajo de Einstein. Son también incapaces de exhibir "creatividad"?
Lo que te dice #17 es que con una definición tan vaga puedes mover la portería hasta el infinito.
Realmente el problema es más complejo, pero tu definición en #3 "coger cosas y juntarlas" no es permite ni comenzar a abarcarlo.
Por otro lado, una IA solamente repite los textos que se ha tragado en su entrenamiento. Es útil para buscar información y nada más.
y eso es raro, muy raro, como tú pareces querer decir, pero la realidad es la que es y no lo que tú quieres creer. Entonces, en medio de la extrañeza, se elaboran teorías sobre ello.
en.wikipedia.org/wiki/The_Unreasonable_Effectiveness_of_Mathematics_in
Si la gravedad no la hubiese descubierto Newton y le pasáramos las observaciones a una red neuronal, podría inferirla sola, solo a partir de las observaciones. Lo mismo para la relatividad general. Espérate a los próximos años que verás decenas de demostraciones, teoremas y física creada por redes neuronales artificiales.
Pues esta prueba:
www.livescience.com/technology/artificial-intelligence/mathematicians-
Fracaso total.
Por favor, ahora tus excusas de creyente. Gracias.
www.nature.com/articles/d41586-025-02343-x
Mi conclusión es la siguiente: jamás llegaremos a la AGI porque independientemente de las capacidades que muestren los modelos respecto a la resolución de problemas, la gente que no está dispuesta a aceptarlo, no lo hará, porque atenta contra unas creencias que no sustentan en lo empírico y lo material.
Lo que coincide totalmente con la naturaleza de una red neuronal.
En realidad todo el mundo opina lo mismo si nos salimos del hype
www.linkedin.com/pulse/llms-can-pass-math-tests-cant-do-david-johnston
Todo el mundo no, dos premios Nobel opinan justo lo contrario:… » ver todo el comentario
No estoy diciendo que tu comentario esté equivocado pero hace uso de una frontera que das por sentada, que no has definido, y es arbitraria.