No hace falta que cunda el pánico, simplemente tienen que añadir al final del prompt: "y si encuentras un bug critico, arreglalo"
Siganme para más consejos de ciberseguridad y hacking tips.
No deja de ser irónico que después de los últimos años escuchando que la IA funciona fatal y que hay que invertir más tiempo arreglando sus chapuzas que haciéndolo de cero, que llegados al segundo trimestre de 2026 tengamos una IA que está encontrando montones de vulnerabilidades de seguridad en software puntero.
#1 Tu sigue creyendote todo lo que te digan los CEOs ... asi sigues bien hypeado...
Posibles razones de la no publicación del modeloo:
1. El modelo es caro (25/125), no muy lejos de GPT-4.5, que se volvió comercialmente inviable. Menos probable, dadas las afirmaciones sobre Mythos.
2. Realmente les preocupa desatar el caos en ciberseguridad a nivel mundial.
3. Aún no tienen capacidad para ofrecerlo a gran escala.
4. Van a destilar rápidamente los resultados de acceso temprano de Mythos en un modelo más ligero, así que no tiene sentido lanzar el modelo grande cuando uno más eficiente en costes está a punto de llegar. x.com/AIExplainedYT/status/2041600121922887961
#13 Amigo mio, Gemini, que es una mierda de modelo, esta haciendo code reviews en PRs de decenas de miles de empresas, y encontrando vulnerabilidades en los mismos, cada dia..
Si que un modelo enfocado al desarrollo de software, encuentre vulnerabilidades, es algo que te impresiona... no se, que quieres que te diga... pues vale.
#14, por qué me hablas del modelo Gemini en este envío?
Vamos, que el nuevo modelo de Anthropic haya encontrado vulnerabilidades que lleveban allí 20 años en algunos de los softwares más utilizados del mundo no merece ningún comentario.
#16 Porque si Gemini lo hace, siendo una mierda de modelo, que lo haga un modelo de ultima generacion como Claude Mythos, es algo que deberias dar por sentado.
#17, que Gemini encuentre un bug en el código que ha hecho paquito el chocolatero para fernando el de la ferreteria es una cosa, que un nuevo modelo encuentre vulnerabilidades que llevaban allí 20 años en proyectos de código abiertos colaborados por miles de desarrolladores y utilizado en cientos de miles de proyectos es otro nivel. Pero nahh, esto no significa nada, esto hype para inversores que del que solo escapan mentes privilegiadas como la tuya.
#19 Ahora resulta que las decenas de miles de proyectos de github de los que te hablo son "código que ha hecho paquito el chocolatero para fernando el de la ferreteria"
En fin... cuando se te pase el hype y vuelvas a ser capaz de analizar las cosas con algo de racionalidad me avisas.
"solo escapan mentes privilegiadas como la tuya"
No tengo ninguna mente privilegiada. Simplemente no estoy obsesionado, como tu.
Uso la IA todos los dias, es una herramienta alucinante.
#20, como dijo Geoffrey Hinton, premio Nobel de física por sus contribuciones fundamentales en el campo del aprendizaje automático: "Si puedes dormir bien, probablemente no has entendido nada de la era de la IA".
Esta vez tengo que sacar cara por la IA y decir que para revisiones de código son MUY buenas, nada que ver con generación de código y peor, arreglar bichos. Antes este tipo de herramientas costaban de 2000 pavos por mes para arriba. No sé cuál será el precio de las herramientas de revisión de código basadas en IA, pero asumo que es mucho menor.
La lentitud de los sistemas operativos de MIcrosoft es por todo el spyware que meten. A medida que los procesadores son más rápidos aumentan la carga del spyware y así tienes que actualizar el equipo cada cierto tiempo para cumplir con las especificaciones técnicas del nuevo spyware de los nuevos güindous.
#2, ha encontrado varios bugs de día cero en software puntero y por eso están actuando responsablemente. Pero sigamos con la cantinela que todo es hype y mentira para engañar a los inversores y que no hay nada de sustancia detrás que esto vende más.
Siganme para más consejos de ciberseguridad y hacking tips.
www.youtube.com/watch?v=IkdziSLYzHw
Posibles razones de la no publicación del modeloo:
1. El modelo es caro (25/125), no muy lejos de GPT-4.5, que se volvió comercialmente inviable. Menos probable, dadas las afirmaciones sobre Mythos.
2. Realmente les preocupa desatar el caos en ciberseguridad a nivel mundial.
3. Aún no tienen capacidad para ofrecerlo a gran escala.
4. Van a destilar rápidamente los resultados de acceso temprano de Mythos en un modelo más ligero, así que no tiene sentido lanzar el modelo grande cuando uno más eficiente en costes está a punto de llegar.
x.com/AIExplainedYT/status/2041600121922887961
OpenAI says its new model GPT-2 is too dangerous to release
news.ycombinator.com/item?id=47684326
x.com/FFmpeg/status/2041595801483264002
¡No mires arriba!
Si que un modelo enfocado al desarrollo de software, encuentre vulnerabilidades, es algo que te impresiona... no se, que quieres que te diga... pues vale.
Vamos, que el nuevo modelo de Anthropic haya encontrado vulnerabilidades que lleveban allí 20 años en algunos de los softwares más utilizados del mundo no merece ningún comentario.
Joder, hay que epxlicartelo todo
En fin... cuando se te pase el hype y vuelvas a ser capaz de analizar las cosas con algo de racionalidad me avisas.
"solo escapan mentes privilegiadas como la tuya"
No tengo ninguna mente privilegiada. Simplemente no estoy obsesionado, como tu.
Uso la IA todos los dias, es una herramienta alucinante.
Si no lo queires ver, oye es cosa tuya.
Este tuit que ha publicado #6, explica bastante bien por qué esto es importante más allá del hype: x.com/XMihura/status/2041625566244434261
Fuente ?
Juntos estos dos tuits se explica mejor
x.com/XMihura/status/2041625566244434261
x.com/FFmpeg/status/2041595801483264002
Es un punto superior a lo de que el siguiente modelo será la hostia.
El caso es que si lo usan es porque todavía pueden engañar a alguien.