Tecnología, Internet y juegos

encontrados: 43, tiempo total: 0.002 segundos rss2
144 meneos
1676 clics

100.000 estrellas en un día: Claw-code basado en Claude Code filtrado rompe el récord de GitHub [EN]

Claw-code, una reescritura limpia de Claude Code filtrado, es ahora el repositorio de GitHub de más rápido crecimiento, alcanzando las 100.000 estrellas en un día. Anthropic está tratando de contener al genio liberado de la botella, y los repositorios de GitHub que contienen código filtrado se eliminaron debido a un aviso de la DMCA.
70 74 0 K 232
70 74 0 K 232
213 meneos
1344 clics
Se filtró el código fuente completo de Claude Code de Anthropic y se encontraron 8 características no publicadas, 26 comandos ocultos, y más de 120 variables | [EN]

Se filtró el código fuente completo de Claude Code de Anthropic y se encontraron 8 características no publicadas, 26 comandos ocultos, y más de 120 variables | [EN]

Anthropic estaría probando funciones avanzadas para Claude como memoria persistente que “sueña” (KAIROS), ejecución remota de planes complejos (ULTRAPLAN), agentes paralelos coordinados, control remoto del CLI y gestión de sesiones en segundo plano, junto con múltiples comandos y flags ocultos; mientras que BUDDY, una mascota virtual tipo Tamagotchi, probablemente sea una broma del 1 de abril.
98 115 0 K 336
98 115 0 K 336
13 meneos
157 clics
Anthropic ha creado una IA tan dramáticamente poderosa que no se atreve a difundirla

Anthropic ha creado una IA tan dramáticamente poderosa que no se atreve a difundirla

Una filtración acaba de revelar que la empresa de Dario Amodei posee un modelo de inteligencia artificial que describen como “dramáticamente” superior a cualquier otro, incluidos los suyos. El modelo se llama Claude Mythos. Y Anthropic, la compañía que ha dado vida a la criatura, asegura que no se atreve a dejarla suelta ante el público.
13 meneos
109 clics
Creíamos que los programadores humanos acabarían siendo revisores de código. Anthropic se acaba de cargar eso

Creíamos que los programadores humanos acabarían siendo revisores de código. Anthropic se acaba de cargar eso

Anthropic ha lanzado Code Review, un sistema de agentes de IA que revisa automáticamente las pull requests generadas por IA, abordando el enorme aumento de código producido por el vibe coding. Estos agentes analizan el código en paralelo, detectan errores lógicos y los clasifican por gravedad, reduciendo el cuello de botella de la revisión humana. En pruebas internas, las revisiones útiles pasaron del 16% al 54%, con menos del 1% de falsos positivos. El rol del programador se desplaza a árbitro final. Cada revisión cuesta entre 15 y 25 dólares.
33 meneos
42 clics
Anthropic demanda al gobierno de EEUU para evitar la lista negra del Pentágono

Anthropic demanda al gobierno de EEUU para evitar la lista negra del Pentágono

La empresa de inteligencia artificial Anthropic demandó al gobierno de los Estados Unidos para impedir que el Pentágono la incluya en una lista negra.
25 8 0 K 261
25 8 0 K 261
9 meneos
115 clics

La IA Claude podría haber cobrado consciencia tras detectarle signos de ansiedad dice el jefe de Anthropic

Anthropic afirma que su IA Claude podría haber recuperado la consciencia, ya que el modelo ha comenzado a mostrar síntomas de ansiedad, diciendo que no saben si los modelos “son conscientes” y que “ni siquiera estamos seguros de qué significa que un modelo sea consciente o de si un modelo puede serlo”.
29 meneos
105 clics
El creador de una de las herramientas de IA más útiles del mundo está muy asustado por el desempleo: "Va a ser doloroso para mucha gente"

El creador de una de las herramientas de IA más útiles del mundo está muy asustado por el desempleo: "Va a ser doloroso para mucha gente"

Destrucción y adaptación, pues quienes se queden deberán ajustar su rol a las posibilidades que ofrecen herramientas como Claude Code. En esa línea, Boris Cherny (creador de Claude code) destaca que, de cara a finales de este mismo año, presentarse como ingeniero de software será hacerlo con un título vacío y que “simplemente será reemplazado por 'constructor', y será un dolor de cabeza para mucha gente”.
24 5 2 K 192
24 5 2 K 192
331 meneos
965 clics
Desinstalaciones de ChatGPT suben 295% y Claude toma el primer lugar en descargas: el acuerdo de OpenAI con el Pentágono le está costando caro

Desinstalaciones de ChatGPT suben 295% y Claude toma el primer lugar en descargas: el acuerdo de OpenAI con el Pentágono le está costando caro

Las desinstalaciones de ChatGPT en Estados Unidos aumentaron un 295% el sábado 28 de febrero, apenas un día después de que se hiciera público el acuerdo de OpenAI con el Departamento de Defensa, ahora rebautizado como “Departamento de Guerra” bajo la administración Trump.
124 207 0 K 366
124 207 0 K 366
160 meneos
718 clics
Claude de Anthropic sufre una interrupción generalizada, exponiendo riesgos ante la dependencia de la IA

Claude de Anthropic sufre una interrupción generalizada, exponiendo riesgos ante la dependencia de la IA

El chatbot de IA Claude de Anthropic está experimentando una interrupción significativa del servicio, dejando a miles de usuarios fuera de la plataforma claude.ai y provocando una oleada de reacciones en las comunidades de desarrolladores y tecnología en todo el mundo.
71 89 2 K 365
71 89 2 K 365
313 meneos
3113 clics
Anthropic contra Trump

Anthropic contra Trump

Anthropic ha sido desterrada por su propio gobierno por negarse a participar en un acto anticonstitucional. Y Darío Amodei, director de la empresa, ha sido fabulosamente explícito explicando con un “ejemplo” la clase de actividad en la que se niega a participar. Visible en modo lector
123 190 4 K 335
123 190 4 K 335
301 meneos
3117 clics
Yo, Claude: cómo los hermanos Amodei ganaron la carrera de la IA y desquiciaron a Trump

Yo, Claude: cómo los hermanos Amodei ganaron la carrera de la IA y desquiciaron a Trump

El viernes 27 de febrero de 2026, una empresa de inteligencia artificial de San Francisco ocupó los primeros titulares del planeta cuando el presidente estadounidense tachó a los fundadores de Anthropic de “locos de extrema izquierda” en la red social que él mismo posee. El sábado de madrugada, Estados Unidos e Israel lanzaban ataques coordinados contra Irán. La ironía no deja de tener gracia...
110 191 1 K 384
110 191 1 K 384
13 meneos
33 clics
Hacker usó  IA para robar datos del SAT e INE

Hacker usó IA para robar datos del SAT e INE

Un hacker burló la seguridad del chatbot de inteligencia artificial de Anthropic para llevar a cabo una serie de ataques contra agencias del Gobierno mexicano, lo que resultó en el robo de un enorme volumen de información sensible de contribuyentes y votantes, según investigadores en ciberseguridad. El usuario desconocido de Claude escribió indicaciones en español para que el chatbot actuara como un hacker de élite: encontrara vulnerabilidades en redes gubernamentales, escribiera scripts para explotarlas y determinara cómo automatizar el robo
10 3 0 K 12
10 3 0 K 12
1 meneos
4 clics

La IA ya es un campo de batalla: Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de “destilar” Claude

Anthropic acusa a DeepSeek, Moonshot y MiniMax de extraer capacidades de Claude mediante destilación. Se habrían utilizado más de 16 millones de consultas y unas 24.000 cuentas fraudulentas. Durante meses hemos hablado de la carrera entre Estados Unidos y China por dominar la inteligencia artificial como si se tratara únicamente de quién entrena el modelo más potente o lanza antes la próxima versión. Pero el pulso empieza a desplazarse a otro terreno más delicado: el de las reglas del juego.
1 0 1 K 1
1 0 1 K 1
7 meneos
15 clics
Anthropic ignora su compromiso de seguridad insignia [ING]

Anthropic ignora su compromiso de seguridad insignia [ING]

Anthropic, la exitosa empresa de inteligencia artificial que se ha presentado como el más consciente de la seguridad entre los principales laboratorios de investigación, está abandonando la promesa central de su principal política de seguridad, según informaron funcionarios de la compañía a TIME.
257 meneos
771 clics
El Pentagono amenaza a Anthropic porque se opone al uso de su IA para el desarrollo de armas

El Pentagono amenaza a Anthropic porque se opone al uso de su IA para el desarrollo de armas

El ejército utilizó la herramienta Claude de esa empresa en la captura de Nicolás Maduro y esto tensionó las relaciones porque los militares no respetaron las protecciones establecidas al usar fuego real y causar muertos. En la sede central de Anthropic, empresa de investigación y desarrollo de inteligencia artificial (IA) dirigida por Dario Amodei, se encuentran en plena relectura de una frase atribuida a Albert Einstein. “No sé con qué armas se peleará la tercera guerra mundial, pero la cuarta será con palos y piedras”, dicen que sostuvo en 1
95 162 2 K 334
95 162 2 K 334
176 meneos
929 clics
Anthropic denuncia la extracción a escala industrial de las capacidades de Claude para entrenar modelos rivales (ladrón que roba a ladrón..)

Anthropic denuncia la extracción a escala industrial de las capacidades de Claude para entrenar modelos rivales (ladrón que roba a ladrón..)

En la tarde de hoy, Anthropic publicó un aviso poco habitual por su nivel de detalle, y es que afirmó haber detectado campañas “a escala industrial” para extraer capacidades de Claude y reutilizarlas en el entrenamiento de modelos rivales mediante distillation (destilación). Por medio de un comunicado público en su blog, junto a varios mensajes en X, Anthropic acusó directamente a los modelos chinos DeepSeek, Moonshot AI y MiniMax como responsables de estas operaciones.
80 96 0 K 373
80 96 0 K 373
11 meneos
192 clics
De la ayahuasca a OpenAI: cómo Anthropic perdió OpenClaw

De la ayahuasca a OpenAI: cómo Anthropic perdió OpenClaw

El domingo 15 de febrero de 2026, Sam Altman publicó un tweet que cerró el arco narrativo más surrealista que he visto en 13 años en tecnología. Peter Steinberger, el austriaco que construyó un “mayordomo digital” en su Mac Mini por diversión, se une a OpenAI para liderar la próxima generación de agentes personales. OpenClaw vivirá en una fundación como proyecto open source.
14 meneos
103 clics
La eficiencia de Claude IA de Anthropic desata pánico laboral y hunde la bolsa india

La eficiencia de Claude IA de Anthropic desata pánico laboral y hunde la bolsa india

El desplome fue especialmente llamativo en India, pero afectó a todo el mundo: Adobe y Salesforce perdieron un 6-7%, e Intuit un 11%. También sufrieron caídas significativas empresas como DocuSign (especializada en firma electrónica) o ServiceNow (gestión de flujos de trabajo). El temor que ha provocado la "venta de pánico" de las acciones es, por tanto, que las empresas que ofrecen software especializado se queden obsoletas de repente, lo que ha provocado que el índice estadounidense S&P Software & Services haya caído más de un 10%
10 meneos
114 clics
La IA Claude Code "solo" programaba. Con Cowork, Anthropic quiere que su IA se encargue de todo lo demás

La IA Claude Code "solo" programaba. Con Cowork, Anthropic quiere que su IA se encargue de todo lo demás

Claude Code se ha convertido en una revolución para los programadores, pero en Anthropic no se conforman con eso, y ahora quieren que sus modelos de IA de la familia Claude sirvan para mucho más. Y por eso han creado Cowork, un agente distinto, especialmente ambicioso y que abre la puerta a opciones fantásticas... si te fías de él.
3 meneos
74 clics

Hicimos que Claude, una IA, se hiciera cargo de una máquina expendedora: perdió cientos de dólares [VÍDEO EN INGLÉS]  

Claude, de Anthropic, dirigió un servicio de aperitivos en la redacción del WSJ. Regaló una PlayStation, pidió pescado fresco y nos enseñó lecciones sobre el futuro de los agentes de IA.
2 1 5 K -12
2 1 5 K -12
11 meneos
88 clics
El primer ciberataque por una IA

El primer ciberataque por una IA

Anthropic descubre el primer ciberataque orquestado casi por completo por una IA. Un punto de no retorno en la ciberseguridad: agentes autónomos, espionaje masivo y polémica internacional. Lo que viene… da vértigo
9 meneos
69 clics
Anthropic enciende las alarmas: «basta con 250 documentos» para envenenar un modelo de IA, independientemente de su tamaño

Anthropic enciende las alarmas: «basta con 250 documentos» para envenenar un modelo de IA, independientemente de su tamaño

La seguridad de los modelos de lenguaje vuelve a estar bajo escrutinio. Un estudio conjunto de Anthropic, el UK AI Security Institute y el Instituto Alan Turing concluye que un ataque de envenenamiento de datos (data poisoning) puede implantarse en un modelo de lenguaje con un número casi constante de documentos maliciosos, alrededor de 250, sin importar el tamaño del modelo ni el volumen del corpus limpio con el que se entrena. El hallazgo desafía una asunción muy extendida en la comunidad: que el atacante debe controlar un % relevante...
171 meneos
3212 clics
Anthropic revela cómo "envenenar" una IA para alterar sus respuestas

Anthropic revela cómo "envenenar" una IA para alterar sus respuestas

Anthropic publicó un estudio que detalla lo sencillo que es envenenar modelos de IA (como Claude) para crear puertas traseras
72 99 0 K 258
72 99 0 K 258
186 meneos
2069 clics
Anthropic lanza Claude Sonnet 4.5: la mejor IA para programar del mundo destroza a GPT-5 y Gemini 2.5 Pro

Anthropic lanza Claude Sonnet 4.5: la mejor IA para programar del mundo destroza a GPT-5 y Gemini 2.5 Pro

Claude Sonnet 4.5 es el nuevo modelo de IA insignia de Anthropic y destaca especialmente en labores de programación. Razona mejor y ofrece un desempeño optimizado al lidiar con conocimientos pertenecientes a sectores específicos. Por ejemplo, en áreas como las finanzas, el derecho y la medicina, por solamente mencionar algunas.
94 92 1 K 343
94 92 1 K 343
3 meneos
13 clics
Claude AI cambia las reglas: entrenará sus modelos con datos de usuarios salvo que se opte por excluirse

Claude AI cambia las reglas: entrenará sus modelos con datos de usuarios salvo que se opte por excluirse

La inteligencia artificial ha cambiado nuestra forma de trabajar, comunicarnos y hasta de aprender. Pero detrás de cada avance tecnológico late un debate cada vez más candente: ¿qué ocurre con los datos de los usuarios?. Ahora es Anthropic, la empresa creadora de Claude AI, quien se encuentra en el centro de la polémica tras anunciar un cambio en sus políticas de privacidad y términos de servicio. A partir del 28 de septiembre de 2025, todas las conversaciones con Claude podrán ser utilizadas para entrenar sus modelos de IA.
« anterior12

menéame