#13 no uso IAs para responder mensajes en foros. Lo que ves en mi respuesta es copia/pega (después de la traducción, claro) de la url del hilo del foro. El problema con los saltos de línea es que meneame no acepta la formulación matemática que sí que acepta el foro de los problemas de Erdos.
Si no me crees puedes entrar en el enlace y traducir tu el hilo.
#8 por eso he puesto la traducción del papel de la IA en ese problema. Pero si profundizamos en el foro de erdosproblems.com, ya que el enlace de github nos probee el enlace al hilo del foro de ese problema (www.erdosproblems.com/forum/thread/871), vemos qué:
Parece ser una prueba formal generada por LLM. (Declaración en la línea 4930.)
Sigue muy de cerca el método de Erdős-Nathanson, pero permite el tamaño de Fk
ir al infinito muy lentamente. El mismo método debería resolver la primera mitad de [868] (cortesía de Claude Opus 4.5).
¡Interesante! (Técnicamente, esto es una refutación más que una prueba, por cierto) ¿Tiene usted también una refutación legible por humanos? [...] En términos más generales, sería interesante conocer su flujo de trabajo: ¿comenzó con una refutación humana y luego la formalizó, o primero formalizó el artículo de Erdős-Nathanson, o qué? Los comentarios en la prueba parecen indicar que se trata de algo parecido a esto último.
En términos generales, el proceso consistió en leer el artículo de Erdős-Nathanson, preguntarme cuál era el obstáculo para ampliar su construcción, decirle a mi sistema que formalizara las partes relevantes de su artículo, luego pensara en la ampliación y luego la formalizara. Ahora estoy probando qué tan bien habría funcionado una ejecución de extremo a extremo (introduciendo la declaración y los dos PDF de Erdős-Nathanson y pidiendo una prueba formalizada y un papel pulido sin instrucciones intermedias) y espero tener más detalles para compartir.
Mi sistema consta de una combinación de agentes Claude y Gemini con roles específicos. En general, considero que Claude es un buen caballo de batalla, mientras que Gemini asume el papel de consultor. Además de toda la discusión entre agentes, hay un hilo paralelo que crea un esqueleto Lean y señala cualquier disculpa problemática.
Para entrar en más detalles sobre cómo obtuve la formalización, identifiqué que este problema podría ser
#1 en el mismo enlace que pones hay un comentario con un enlace a Github (github.com/teorth/erdosproblems/wiki/AI-contributions-to-Erdős-proble) con tablas de los problemas de Erdos dividido en tres secciones, donde se especifica el estado del problema, si existía literatura previa, etc.
Hay dos que parecen resueltos y sin literatura previa. Para uno de ellos se ha utilizado un teorema ya existente.
Este otro enlace, también de la página de Github (zeyu-zheng.github.io/blog/erdősConjectures.html), da una explicación de cuál ha sido el papel de la IA en la resolución de alguno de los problemas:
Después de escribir esta publicación (y actualizarla por última vez) el 5 de enero de 2026, el problema de Erdős #728 vio un nuevo desarrollo significativo. La afirmación original era ambigua y admite soluciones triviales. Después de la discusión sobre el erdosproblemas foro, el consenso fue que la formulación prevista debería requerir
(para descartar los casos triviales) y tomar
ser arbitrariamente grande. Una vez aclarada la afirmación, Kevin Barreto demostró la conjetura impulsando ChatGPT-5.2 y luego formalizó la prueba en Lean usando Aristóteles. En comparación con los casos que se analizan a continuación, esta es la evidencia más clara hasta el momento de que una IA puede haber generado una solución genuinamente nueva a un problema abierto de Erdős con una participación humana relativamente limitada (aunque la declaración corregida había estado abierta solo durante aproximadamente un día).
Esto no cambia el punto principal de este post: la mayoría de las afirmaciones anteriores de que "la IA resolvió un problema de Erdős" todavía se reducen al redescubrimiento de resultados conocidos, la aclaración de afirmaciones ambiguas o la verificación y formalización de
"Time passes, on average, 477 millionths of a second faster per day on Mars than on Earth thanks to the impact of Albert Einstein's theory of general relativity."
La traducción correcta es: "El tiempo pasa, de media, 477 millonésimas de segundo más rápido por día en Marte que en la Tierra gracias al impacto (efecto?) de la teoría general de la relatividad de Albert Einstein".
#1 Desde el covid, tanto el as como el marca empezaron a publicar noticias sobre otros temas no relacionados con el fútbol (y algo de otros deportes), y parece que les funciona porque ahí siguen.
Mi otra teoría es que lo hacen así para que Rajoy esté informado de lo que sucede en el mundo, más allá de lo que haga el Real Madrid.
Estaría bien que cuando hagáis estos artículos indiquéis el prompt y/o consulta realizada y el modelo usado, de esa manera sabremos si se está forzando a la IA a decir ciertas cosas.
El aprendizaje por refuerzo es muy lento (www.youtube.com/watch?v=L_4BPjLBF4E), más aun el supervisado, que necesita a un humano. La mayor parte del entrenamiento de los llm se ha realizado con todo lo que se pudiera convertir en texto encontrado en internet.
A partir de ese entrenamiento lo que se puede añadir, y que se pueda considerar aprendizaje por refuerzo son las respuestas generadas por el modelo, en las que los usuarios hayan pulsado el icono del "pulgar arriba" para validar la respuesta. Sería interesante conocer la estadística de cuantos usuarios realmente pulsan el botón.
Realmente lo que ha supuesto una mejora en los modelos llm han sido las capas de atención: arxiv.org/html/1706.03762v7
Luego el "razonamiento", que no es más que hacer peticiones al modelo con un prompt específico para que devuelva una respuesta, y esa respuesta y la pregunta correspondiente se le vuelven a enviar para que vuelva a "razonar", y así hasta que el modelo considere que ya ha "razonado" suficiente (o que esté limitado por el prompt o el código), y te devuelve la respuesta a tu consulta. Esto no es más que concatenar la consulta y las respuestas del modelo para mejorar el contexto, esperando que mejore la respuesta dada.
El uso de herramientas o la búsqueda de información en internet (que es otra herramienta), son scripts en JavaScript o Python que es lo que actualmente más se utiliza. Hay que entender que el modelo además de "no piensa", "no razona", "no es inteligente", tampoco se conecta a internet, no lee tus ficheros, no se conecta a una base de datos. Pero a través de las herramientas si se puede ampliar los usos que se le puede dar a los llm. Sin embargo, que el modelo "use" o… » ver todo el comentario
"Todo ello se enmarca en la Estrategia de Transformación Digital impulsada por Madrid Digital a través del Centro de Automatización Robótica, puesto en marcha en marzo de 2024. Desde entonces, ha informado el consejero, "se han desarrollado 108 automatismos en producción en distintas consejerías". En sanidad, ha añadido, "se han generado 39, de las cuales 14 ya están activas".
Según López-Valverde, desde que esta tecnología comenzó a utilizarse en 2022, ha demostrado su capacidad para agilizar procesos internos, reducir burocracia y reforzar la atención al ciudadano."
Ni el Gobierno ni la agencia de cooperación española, FIAP, del Ministerio de Exteriores, aclaran qué papel juegan en todo esto las dos cárceles de migrantes que España está construyendo ahora mismo en Nouakchott y Nouadhibou. Las obras empezaron en mayo del año pasado, coincidiendo con la propuesta de la italiana Giorgia Meloni para construir cárceles de migrantes fuera del territorio intracomunitario. España no suscribió el plan pero lo ejecuta en Mauritania. No es posible conocer los pliegos de los contratos de estas dos cárceles de migrantes. La FIAP alega “razones de seguridad nacional” para mantenerlos en secreto.
“El dueño de El Ventorro le subió un sobre para que firmara unos papeles”, ha precisado en alusión al reservado en el que comieron.
Qué cosas, PP y los sobres, siempre van de la mano. Esto no se investigará porque no tiene nada que ver con lo que se está juzgando, pero sería interesante saber qué firmó.
“Hay un momento en el que hay muchas llamadas, era una mesa muy grande. Yo estoy en el cabecero. Él se giraba, escribía, me miraba. No recuerdo un teléfono ring ring”, ha dicho. “Mazón se apartaba cuando sonaba el teléfono, yo decía, me salgo. No te preocupes, contestaba él”, ha añadido, según las mismas fuentes.
¿Sonaba o no sonaba el teléfono?. Si recibió llamadas y no salió del reservado, con lo que podía observar la conversación aunque no la escuchase, ¿No le saltó la curiosidad de periodista de preguntar qué pasaba si recibía muchas llamadas como decía?
#6 no me extrañaría. Aunque el PNV siempre ha presionado bastante para que se levantara el secreto sobre el 23F. Llegado el momento imagino que presionarán más de lo habitual para que se cumplan esas promesas.
"Un tren no pasa de 310 km/h a 0 km/h en 20 segundos."