edición general
209 meneos
1296 clics
Se filtró el código fuente completo de Claude Code de Anthropic y se encontraron 8 características no publicadas, 26 comandos ocultos, y más de 120 variables | [EN]

Se filtró el código fuente completo de Claude Code de Anthropic y se encontraron 8 características no publicadas, 26 comandos ocultos, y más de 120 variables | [EN]

Anthropic estaría probando funciones avanzadas para Claude como memoria persistente que “sueña” (KAIROS), ejecución remota de planes complejos (ULTRAPLAN), agentes paralelos coordinados, control remoto del CLI y gestión de sesiones en segundo plano, junto con múltiples comandos y flags ocultos; mientras que BUDDY, una mascota virtual tipo Tamagotchi, probablemente sea una broma del 1 de abril.

| etiquetas: ai , ia , anthropic , codigo fuente , filtrado , claude , claude code
BUDDY — Una mascota de IA al estilo Tamagotchi que vive junto a tu pantalla. 18 especies (pato, ajolote, gordito...), niveles de rareza, estadísticas como CAOS y SNARK. El adelanto se lanza el 1 de abril de 2026. (Sí, la fecha es sospechosa; casi con seguridad es una broma del Día de los Inocentes en el código fuente).

KAIROS — Modo asistente persistente. Claude recuerda entre sesiones mediante registros diarios y luego "sueña" por la noche: un subagente bifurcado consolida tus…   » ver todo el comentario
#1 La parte del query engine es muy interesante. 46.000 líneas. Master class en como hacer orquestación de agentes.. Ya nadie tiene que improvisar cómo funcionan los agentes en cadena.
Ojo que puede ser todo una broma por April fools {0x1f525}
#2 Cierto ... no lo pense. Pero todavia estamos a 31.
Por lo poco que he podido leer en Twitter, la broma se va a ejecutar mañana.

#3 #4 #5
#7 Eso fue lo que dijo Skynet
#2 No lo es, está disponible para cualquiera. Mañana salen 15 nuevas IAs chinas
#4 Pues me parece bien, todo lo que sea dispersar y descentralizar este poder es una buena noticia
#2 demasiado pronto para ser un april fool anglosajon.
#2 Se filtró hace ya 3-4 días.
#20 Exacto, va a ser como cuando se contrata a un empleado idiota pero con mucho don de gentes, que a la larga lo jode todo pero sólo se da cuenta una o dos personas en toda la oficina.
Le he preguntado a Claude y la IA dice que todo es falso, que ni hay comandos raros, ni sueña con ovejas eléctricas.

Esta referencia me ha dejado mosca. :tinfoil:
#15 Ah mira, he pillado el chiste.

Yo una vez intenté hacer otro chiste de Blade Runner en una oficina llena de gente "normal" y se me quedaron mirando como si hubiera entrado por la puerta un alienígena xD
La lista de los truquitos que intentan adosarle deja de manifiesto que no hay nada en la dirección de meojorar la capacidad lógica o de disminuir las alucinaciones. Esto es sabido desde "siempre" por cualquiera que se haya mirado como funciona un LLM por dentro.
#14 Es que no pueden, ya lo dijo Sam Altman (lo único que debe haber dicho sincero en la última década).

Se pueden parchear mucho para que alucinen poco, se pueden poner prompts cojonudos, se puede usar Openclaw y sus 30.000 líneas de texto en ficheros .md para que la IA sepa que hacer exactamente antes siquiera de hacerle la primera petición... pero al final da igual, siempre se les acaba yendo un poco la pelota. O mucho. Y mira que Claude cada vez me sorprende para mejor, hasta tiene un…   » ver todo el comentario
#18 Todo esto está claro, pero es que irá a peor. Dado que una red neuronal es un repositorio de respuestas aprendidas, el entrenamiento será cada vez más completo. Esto significa que dará más y más porcentaje de respuestas correctas sin que haya mejorado ni lo más mínimo su capacidad lógica. La confianza en la IA aumentará y seguirá estando basada en nada. En tales condiciones, las alucinaciones serán mucho más peligrosas.
Tras leer la entradilla, me he tenido que tomar un lexatín.
Ya se filtró una versión anterior hace un año. Está bien que sigan fieles a sus principios.
Vaya chapuza

menéame