#72, sí, pero cada año va avanzando y desde otoño del año pasado he visto una aceleración así que no me sorprendería que este año si pudiesen resolver todos los problemas.
#70, pero no son preguntas tan sencillas como buscar un dato concreto, son mucho más difíciles.
En cuanto a las IMO ya consiguieron el año pasado estar entre los resultados de los estudiantes que ganaron la medalla de oro, pero todavía pueden mejorarlos si son capaces de responder bien todas las preguntas, sobre ARC-AGI es cierto que no he visto resultados todavía y pueden ser interesantes y respecto a FrointerMath es donde más vamos a ver este año si los modelos van camino a superar el intelecto humano porque son preguntas abiertas matemáticas y algunas representan contribuciones mayores dentro del campo, si se logra resolver solo una de las del Tier superior durante este año, creo que realmente estamos a las puertas de algo muy grande, pero estoy seguro de qui si eso pasa, habrá gente que todavía seguirá siendo escéptica, porque llegados a este punto, nada va a cambiar la opinión de algunos.
#68, el Humanity Last Exam no es un benchmark de programación y también lo ha reventado. Es imposible que se haya sobreentrenado con este benchmark porque es privado.
De hecho ha reventado todos los benchmarks, decir que no vale nada porque iguala los modelos anteriores que ya eran muy buenos en un benchmark saturado me parece querer agarrarse a un clavo ardiente.
Respecto a la AGI es un debate que me da mucha pereza porque hasta que no nos pongamos de acuerdo en lo que es, podemos seguir moviendo la portería ad infinitum y decir que todavía no es verdadera inteligencia, pero hace 20 años cualquiera de los modelos frontera que tenemos hoy hubiese sido calificado de AGI. Ya te digo, es un debate que considero irrelevante y me interesa poco, me interesa más ver como a cada iteración siguen mejorando las capacidades de los modelos a pesar de que cuando salió chatGPT no había pocos que decían que los LLM eran loros estocásticos que no tenían recorrido.
#33, te dejas la noticia mensual de que ahora sí, la burbuja de la IA va a explotar y apareceremos como si nada en 2019 donde cualquier herramienta de IA dejará de existir y seguir mejorando. En el fondo el problema es que muchos no paran de confundir deseos con realidad.
#30, al contrario, llevamos escuchando cuñaos desde hace 4 años diciendo que esto no tenía recorrido, que la IA había llegado a su tope teórico. Primero con los 6 dedos de Dall-e y luego con los fallos tontos que hacía chatGPT o con que la IA no puede hacer nada original porque hace un pastiche de lo que ha visto antes, el tiempo ha dejado en ridículo a todos y cada uno de ellos, apostar contra la IA hasta ahora siempre ha salido mal y a pesar de eso aún están aquí, sacando pecho y sin rectificar un milímetro.
#90, tranquilo, que te has explicado perfectamente, has dicho que el CEO no tiene que saber nada de como se hacen las cosas en su empresa y yo no estoy de acuerdo. No es ningún drama, así, que dejemoslo aquí.
Los chinos van a tope con la IA y la robótica bajo la dirección de un Partido Comunista liderado por gente brillante mientras aquí entre negacionistas y tecnofeudalistas vamos por el despeñadero.
#76, si el CEO está completamente desconectado de los aspectos técnicos e ignora las recomendaciones del equipo técnico es imposible que tenga una visión realista de los límites y alcance del proyecto que dirige. He vivido en mis propias carnes el fracaso de una empresa con mucho potencial solo por eso.
#6, dejad de decir la chorrada del premio Nobel de la Paz, primero porque no le darán por mucha ilu que os haga y segundo porque este premio está totalmente desprestigiado. Te recuerdo que actualmente el que posee dicho galardón es Donald Trump.
El valor que están demostrando los iranís en este conflicto no deja de impresionarme, para ellos lo fácil era negociar la paz con Trump y quejarse con la boca pequeña de lo que hacen en el Líbano.
#6, el problema, no se si es el caso, es cuando un CEO toma decisiones sin tener cuenta las recomendaciones técnicas de quienes sí conocen el problema.
#20, como dijo Geoffrey Hinton, premio Nobel de física por sus contribuciones fundamentales en el campo del aprendizaje automático: "Si puedes dormir bien, probablemente no has entendido nada de la era de la IA".
#17, que Gemini encuentre un bug en el código que ha hecho paquito el chocolatero para fernando el de la ferreteria es una cosa, que un nuevo modelo encuentre vulnerabilidades que llevaban allí 20 años en proyectos de código abiertos colaborados por miles de desarrolladores y utilizado en cientos de miles de proyectos es otro nivel. Pero nahh, esto no significa nada, esto hype para inversores que del que solo escapan mentes privilegiadas como la tuya.
#14, por qué me hablas del modelo Gemini en este envío?
Vamos, que el nuevo modelo de Anthropic haya encontrado vulnerabilidades que lleveban allí 20 años en algunos de los softwares más utilizados del mundo no merece ningún comentario.
#2, ha encontrado varios bugs de día cero en software puntero y por eso están actuando responsablemente. Pero sigamos con la cantinela que todo es hype y mentira para engañar a los inversores y que no hay nada de sustancia detrás que esto vende más.
No deja de ser irónico que después de los últimos años escuchando que la IA funciona fatal y que hay que invertir más tiempo arreglando sus chapuzas que haciéndolo de cero, que llegados al segundo trimestre de 2026 tengamos una IA que está encontrando montones de vulnerabilidades de seguridad en software puntero.
#79, yo te digo que competir con costes contra las máquinas, siempre sale mal. Por supuesto que debemos supervisar lo que hacen. Pero tal vez no hace falta trabajar 8 horas al día. Quizás baste con 4 horas, 4 días a la semana o incluso menos.