Tecnología, Internet y juegos

encontrados: 1, tiempo total: 0.005 segundos rss2
18 meneos
91 clics
Investigador hackea agentes de IA de Anthropic, Google y Microsoft con prompt injection: roban credenciales, las tres pagan bug bounties y silencian la vulnerabilidad sin asignar CVE

Investigador hackea agentes de IA de Anthropic, Google y Microsoft con prompt injection: roban credenciales, las tres pagan bug bounties y silencian la vulnerabilidad sin asignar CVE

Aonan Guan, investigador de seguridad, ha demostrado durante varios meses que los agentes de IA de Anthropic, Google y Microsoft pueden ser secuestrados mediante ataques de prompt injection para robar API keys, tokens de GitHub y otros secretos. Las tres compañías pagaron bug bounties (100 dólares Anthropic, 500 dólares GitHub, una cantidad no revelada Google), Investigador hackea agentes IA de Anthropic, Google y Microsoft con prompt injection. Las tres pagan bounty pero no asignan CVE ni publican advisory.
14 4 0 K 377
14 4 0 K 377

menéame