#1 La parte del query engine es muy interesante. 46.000 líneas. Master class en como hacer orquestación de agentes.. Ya nadie tiene que improvisar cómo funcionan los agentes en cadena.
BUDDY — Una mascota de IA al estilo Tamagotchi que vive junto a tu pantalla. 18 especies (pato, ajolote, gordito...), niveles de rareza, estadísticas como CAOS y SNARK. El adelanto se lanza el 1 de abril de 2026. (Sí, la fecha es sospechosa; casi con seguridad es una broma del Día de los Inocentes en el código fuente).
KAIROS — Modo asistente persistente. Claude recuerda entre sesiones mediante registros diarios y luego "sueña" por la noche: un subagente bifurcado consolida tus recuerdos mientras duermes.
ULTRAPLAN — Envía planes complejos a una instancia remota de Claude durante un máximo de 30 minutos. Aprobas el plan en tu navegador y luego lo "teletransportas" de vuelta a tu terminal.
Modo Coordinador — Ya disponible mediante CLAUDE_CODE_COORDINATOR_MODE=1. Genera agentes de trabajo paralelos que informan mediante notificaciones XML.
Bandeja de entrada UDS: Varias sesiones de Claude en tu máquina se comunican entre sí mediante sockets de dominio Unix.
Puente: claude remote-control te permite controlar tu CLI local desde claude.ai o tu teléfono.
Modo demonio: claude ps, attach, kill: supervisor de sesión completo con sesiones tmux en segundo plano.
También se encontraron más de 120 variables de entorno no documentadas, 26 comandos internos de barra diagonal (/teleport, /dream, /good-claude...), claves del SDK de GrowthBook para activar/desactivar funciones remotamente y USER_TYPE=ant, que desbloquea todo para los empleados de Anthropic.
#3 Abandona Sora, porque no es rentable, y prefiere que la capacidad de computo se enfoque en entranmiento y en servir los modelos que si son rentables.
#59 Ya veremos si es verdad. Los emiratos lo niegan [1] e Iran ya patinó acusándolos antes de ataques que fueron otros.
Pero es que es para reírse …. Iran lanza 1400 misiles en una semana contra los emiratos a objetivos civiles como aeropuertos y ahora se ponen todo indignados.
Mala idea atacar a tus vecinos cuando te están atacando.
No lo niego, ni voy a defender a los agresores. Ellos son los culpables.
Lo que digo es que atacar a un pais que no te ha atacado ni deja su territorio para atacarte es una mala idea. Luego cuando los paises arabes se cansen de que les tiren misiles a objetivos civiles y respondan os echareis las manos a la cabeza.
#47 Y Rusia lanza misiles Iskander todas las semanas, pero que uses un arma que tiene capacidad nuclear y lanzar un ataque nuclear son dos cosas muy diferentes.
#1La redada que capturó al presidente venezolano Nicolás Maduro fue una de las primeras operaciones militares importantes planificadas con la ayuda de un sistema de inteligencia artificial de vanguardia. En plena noche del 3 de enero, helicópteros del Ejército estadounidense sobrevolaron el espacio aéreo venezolano. Tras intercambiar disparos, los comandos se dirigieron a la residencia del presidente. Capturaron a Maduro y a su esposa y los llevaron a Nueva York para enfrentar cargos de narcotráfico. Se desconocen todos los detalles de cómo se utilizó a Claude en la redada contra Maduro. Sin embargo, según Axios, Claude ayudó a planificar la misión y fue utilizado durante la misma.
A finales de febrero, Anthropic reescribió su política, eliminando el compromiso vinculante de pausa. En retrospectiva, Kaplan declara que fue "ingenuo" pensar que Anthropic pudiera distinguir claramente entre peligro y seguridad. "Con el rápido avance de la IA, no nos pareció lógico asumir compromisos unilaterales... si la competencia lleva la delantera", afirma. La nueva versión de la política incluye compromisos de mayor transparencia sobre los riesgos de seguridad de la IA, incluyendo información adicional sobre el rendimiento de los modelos de Anthropic en las pruebas de seguridad. Se compromete a igualar o superar los esfuerzos de seguridad de la competencia. Y promete "retrasar" el desarrollo si los líderes consideran a Anthropic líder en la carrera de la IA y consideran que los riesgos de catástrofe son significativos. La empresa lo presentó como una concesión pragmática ante realidades incómodas. Pero, en general, el cambio al RSP dejó a Anthropic mucho menos limitada por sus propias políticas de seguridad. Y presagiaba una prueba más difícil por venir.
Dave Treadwell, vicepresidente sénior de servicios de comercio electrónico de Amazon, informó al personal el martes que desde el tercer trimestre de 2025 se ha producido una "tendencia de incidentes", incluyendo varios incidentes graves en las últimas semanas, según un documento interno obtenido por Business Insider. Al menos una de estas interrupciones estuvo relacionada con el asistente de programación de inteligencia artificial Q de Amazon, mientras que otras revelaron problemas más profundos, según explicó otro documento interno.
#11 Entre sunitas y chiitas se matan mas que entre musulmanes y cristianos. LLeva siendo asi desde 1501. Parece que algunos os sorprendeis a estas alturas de la película.
Le falto algo de notica al sensacionalismo.