Tecnología, Internet y juegos
12 meneos
107 clics
Zig abandona GitHub y se queja de la obsesión de Microsoft con la IA ha arruinado el servicio

Zig abandona GitHub y se queja de la obsesión de Microsoft con la IA ha arruinado el servicio

La fundación que promueve el lenguaje de programación Zig ha abandonado GitHub debido a lo que sus dirigentes perciben como el declive del sitio para compartir código. El drama comenzó en abril de 2025, cuando el usuario de GitHub Aleksei NikiforovI inició un hilo titulado «safe_sleep.sh rara vez se cuelga indefinidamente». El proyecto Zig se traslada a Codeberg, un servicio de alojamiento git sin ánimo de lucro, porque GitHub ya no demuestra su compromiso con la excelencia en ingeniería.

| etiquetas: zig , fundación zig , github , ia , microsoft , codeberg
10 2 0 K 109
10 2 0 K 109
#4, los modelos razonadores lo que generan es una secuencia deductiva de pasos para llegar a la respuesta deseada, esta secuencia no es aleatoria, ni el espacio que exploran tan enorme para que no valga la pena explorarlo por su coste computacional sino que sigue una heuristica determinada por la función de recompensa aprendida mediante aprendizaje por refuerzo. El modelo no prueba combinaciones al azar en un espacio infinito, sino que poda el árbol de búsqueda descartando las ramas ilógicas o…   » ver todo el comentario
Están totalmente pillados por la enorme inversión hecha en IA y deben hacer lo que sea para que eso de la IA funcione. Por ejemplo han obligado a todos sus empleados a usar la IA tenga sentido o no. De momento Windows 11 está roto.

Hay un pequeño problema aquí y es que han tomado decisiones montados en el hype. La IA, en realidad no es todo lo que el hype dice y no va a llevar a ninguna superinteligencia.

En cambio, Apple se ha mantenido al margen de esta locura.

Estoy MUY impresionado por…   » ver todo el comentario
#2, tu comentario está muy equivocado, tal vez lo desconozcas pero los modelos razonadores han conseguido mejorar mucho precisamente porque en lugar de escupir la respuesta directamente se paran a analizar si lo que están diciendo es correcto no antes de soltar una respuesta. Antes de opinar con tanta vehemencia sobre una tecnología hay que molestarse en entenderla un poco.

en.wikipedia.org/wiki/Reasoning_model
#3

1. Los modelos razonadores generan una larga lista de puntos, que no son los que usan luego para generar el otro output.

2. El filtro de las respuestas no es posible porque la cantidad de potencia de cálculo que habría que meter tan sólo para reducir las alucinaciones en un solo orden de magnitud, representa más energía de la que nunca estará disponible.

Hablando de informarse y tal.

menéame