Tecnología, Internet y juegos
27 meneos
114 clics
Crear un compilador de C costaba 2 millones de dólares y tardaba 2 años. Claude Opus 4.6 lo ha hecho en dos semanas por 20.000 dólares

Crear un compilador de C costaba 2 millones de dólares y tardaba 2 años. Claude Opus 4.6 lo ha hecho en dos semanas por 20.000 dólares

En Anthropic lo han llamado Claude's C Compiler (CCC), y han publicado el código, completamente generado por Opus 4.6, en GitHub. El proyecto consta de 100.000 líneas de código Rust que se han generado en dos semanas con un coste de API de 20.000 dólares. Y funciona: con él han compilado un kernel Linux 6.9 funcional en x86, ARM y RISC-V.

| etiquetas: compilador , costaba , millones , dólares , tardaba , claude , opus , semanas
Ahora toca ver si el código objeto que genera es eficiente o una basura infumable.
#1, es muy ineficiente, han compilado un motor de búsqueda SQLite que compilado en gcc tarda 10 segundos en resolver una consulta y el resultado de su compilación más de dos horas. Pero no deja de ser un hito y seguro que mejorará en el futuro como viene pasando de forma sostenida.

No se si somos conscientes de que si fuese capaz de realizar por sí solo un compilador igual o mejor que gcc, la ingeniería del software y la programación habrían muerto esta semana.
#2 yo tengo la.impresion de q si se han gastado 20000 dolares en tokens y 2 semanas de tiempo es pq no han sido capaces de hacer mas. Ha llegado al punto en el q ha colapsado y han sacado lo q tenian pq el siguiente paso era mandarlo todo a la mierda....

Sinceramente, me paeece bastanre mierdoso para los trillones de dolares q estan metiendo....

Y cada vez veo mas posible q haya un burbujon aqui...

Y ojo, q uso MCPs en el curro para automatizar cosas y claude a tuttiplein, pero....
#3 y ese es el problema: que las capacidades son reales y la burbuja es real. La forma en que lo han hecho va a causar más daño que avance.

Al menos para ellos. Con todo, los chinos parece que lo han enfocado un poco más racionalmente.
#3, a mí no me parece ningún merdión que hayan logrado una especie de PoC de un compilador, porque hace un año lograr algo así de forma completamente autónoma era impensable y si la tendencia que ha venido siguiendo la IA los últimos años se mantiene, van a lograr tener algo realmente útil más pronto que tarde. Estamos hablando de un proyecto más complejo que el 99% de proyectos de software en el que intervienen decenas de componentes como el lexer y el parser, el sistema de tipos, la gestion…   » ver todo el comentario
#3 LA IA es como EEUU. ¿Para qué andar si puedo moverme con una silla eléctrica? ¿Para qué comprar flit si tengo una pistola para matar moscas? Tiene cosas increíbles y es un gran avance para muchas cosas pero.. a gastar a gastar que parece gratis!!
#3 Cuanto habría costado hacer ese mismo trabajo con ese mismo resultado en salarios estadounidenses? Esa es la cuestión.
No sé si en este caso ha sido más caro o más barato. Pero no me cabe deuda de que no tardará mucho tiempo en ser más barato (porque lo haga más rápido, o porque en el mismo tiempo lo haga mejor).
#2 tan eficiente que falló al compilar el kernel de linux y es muchísimo mas lento en runtime. Un artículo serio para variar

harshanu.space/en/tech/ccc-vs-gcc/

Sinceramente no me parece ninguna gesta. Compiladores de C los hay a patadas y los tiene en verbatim en su data set.

Como dicen en HN

Pro-LLM coding agents: look! a working compiler built in a few hours by an agent! this is amazing!

Anti-LLM coding agents: it's not a working compiler, though. And it doesn't matter how few…   » ver todo el comentario
#7 Pues sin ser ni PRO ni ANTI, el planteamiento de ANTI es mas solido, realista y racional, y el de PRO es un "confia en mi, ya veras lo que nos traera el futuro" (sin tener nadie ni puta idea de lo que nos traera el futuro)

Pareciera la discusión entre un ingeniero de software (ANTI), y un inversor de bolsa (PRO) xD
#7 #9 pro-gre-sion...
¿Que pendiente definen los puntos?
#10 li-mi-tes
¿ Que sucede cuando bajas por esa pendiente y te topas con un muro ?
#12 La pendiente actualmente no es de bajada. Te repito, sigue los puntos
#14 Da igual en qué dirección se mueva la pendiente, cuando te topas con un muro o con un techo.
Pídele a ChatGPT que te lo explique xD
#17 ¿Tú te crees que ya hemos llegado al límite...?
#35 No, en este ciclo aún veremos como la técnica aplicada (los transformers, presentados en 2017), aún puede escalar más, con hardware más potente y abundante. Y luego volvera a estancarse.
#11 Hinton recuerda perfectamente como estabamos en los 80... y como estabamos en los 90.

En esa decada la IA se murió, casi completamente, quedaron las universidades haciendo cosas y sin avanzar mucho hasta la segunda mitad de la primera decada del siglo XXI.

Yo estaba en la universidad en los 80-90, y el parón por "no se puede hacer más" fue increible... se hicieron algunas cosas que prometían... pero no había máquina para tirar de ellas.

Nos podemos encontrar con algo parecido, tenemos máquina y algoritmos, pero igual, como le está pasando a OpenAI, el coste acabe impidiendo su uso.

Ya veremos.

cc #7 #9 #10
#26 Yo cuando llegué a la uni se hablaba de la IA como ahora de la fusión nuclear o de Musk en Marte o del coche volador.
Y ahora ya no podemos vivir sin la chata.

El futuro no llega poco a poco. Es como una diarrea de las gordas, de las de intestino irritable.
Y cuando avalancha mucho, te deja estreñido.
#32 Sí, pero en los 70 y principios de los 80 se hicieron algunos avances en la IA, cosas que ahora vemos como simples, como las redes neuronales de Hopfield, en esos años prometian grandes avances:

The Sherrington–Kirkpatrick model of spin glass, published in 1975, is the Hopfield network with random initialization. Sherrington and Kirkpatrick found that it is highly likely for the energy function of the SK model to have many local minima. In the 1982 paper, Hopfield applied this recently

…   » ver todo el comentario
#9, como dijo Geoffrey Hinton, no sé donde estaremos dentro de 10 años, pero sé donde estábamos hace 10.
#11 Una frase muy bonita y muy potente, que simplifica la historia real de la IA, una tecnología, que a diferencia de otras, viene avanzando a saltos , en ciclos de estancamiento e innovación, y cada vez lo hace con promesas maravillosas, desde los años 60 (en la primera generacion, la de los años 40, fueron mas humildes y honestos)...

Quizás pasan otros 100 años hasta que se cumplan esas promesas, quizás 200. Quizás nunca.
Pero eso, a los grandes creyentes de este dogma, os da igual. ¡El mesías se acerca! ¡Qué se joda el rigor!
Llevais así casi de 60 años.
#13, sinceramente creo que ahora es distinto. Los otros inviernos eran por falta de ideas, datos y capacidad de cómputo. Ahora nos sobran las tres, pero la clave es que hemos descubierto que intentar imitar el cerebro biológico es lo funciona, solo hace falta iterar un poco más a partir de es idea. Y la realidad es que desde que apareció chatGPT no han faltado los profetas del "ya hemos tocado techo" y lo cierto es que las IAs no han parado de mejorar en todos los frentes. Decir que ahora ya sí, me parece más acto de fe que decir que la tendencia se va a mantener.
#15 "sinceramente creo que ahora es distinto."
Frase escuchada en el mundillo de la IA, en los 70, 80, 90... :roll:
Que los verdaderos profetas, gente como tu , llameis "profetas" a los escepticos, tiene guasa...

Deja de proyectar! xD

"hemos descubierto que intentar imitar el cerebro biológico es lo funciona"
:palm: :palm: :palm:
Las LLMs no imitan al cerebro biológico, vamos ni de lejos.
#16, las redes neuronales son las que imitan el cerebro, la arquitectura de los LLMs es circunstancial, muchas otras arquitecturas lo suficientemente grandes y entrenadas con la suficiente cantidad de datos también hubiesen funcionado bien, porque la idea clave es que las redes neuronales, ya cuentan con el cómputo y los datos que no tenían hace 50 años.

Y para nada se puede comparar la situación actual con él pasado. No estamos discutiendo de futuribles, sino de herramientas presentes que…   » ver todo el comentario
#24 "las redes neuronales son las que imitan el cerebro"
Dicho con el palillo en la boca, claramente xD
#28, palillo el tuyo si no sabes siquiera que las redes neuronales son un modelo matemático inspirado en como funciona el cerebro biológico. xD xD xD
#29 ah que de "simulan el cerebro humano" ya hemos bajado a "inspiradas en como funciona el cerebro humano" xD xD xD

Cuentame mas , no mejor no :roll:
Tio, en serio, un poco de rigpr, y menos hype
#30, pero qué hype? Yo tengo la culpa de que algunos os pongáis muy nerviositos cada vez que se demuestra que el camino de modelar matemáticamente el cerebro da resultados. Pero la verdad es la verdad es la que es.

Y no desvíes, verdad que si dentro de un año los modelos son mejores que los que tenemos ahora entonces ya sí, se habrá tocado techo y si no dentro de dos, ya sí, no se va a mejorar más, y si no dentro de tres.... xD xD xD

Es muy fácil decir que todo es hype, cuando se logre lo que se logre vas a decir que no es para tanto y ya se ha tocado techo.
#31 No hombre no, nunca se tocará techo, vamos a ver crecimiento y progreso infinito!
#9 Los argumentos PRO IA son que ya hay usos reales para la tecnología. Hay mucha gente que está usando IA para automatizaciones, generar código, generar imágenes para campañas promocionales, etc.

Si la postura ANTI es que la IA es un bluff y que explotará una burbuja y nos olvidaremos, pues no, eso no va a pasar.
Que se metan a una migracion de Cobol a java y me cuenten jejeje
#25 Tu quieres que se despierte Skynet y nos quiera matar a todos! :-D
Si le pido un basic compatible con Amstrad ejecutable en Windows que pueda usar toda la memoria ram 16 Gb o 32Gb no sería capaz de hacerlo
Crean un compilador que no sirve para nada.

Eso lo hice yo en la carrera también.
Para los que pensáis que es un desarrollo de mierda, recordaros que hace 3 años nos estábamos riendo de como la IA hacia manos con 6 o más dedos
Qué titular más sensacionalista, típico del sitio web este.

¿Qué compilador costó dos millones hacer? Porque la basura que han conseguido los del Claudio este no cuesta dos millones ni de lejos, tal vez hasta sea más barato programarlo un equipo de personas que lo que les costó a ellos.
comentarios cerrados

menéame