Tecnología, Internet y juegos
9 meneos
69 clics
Anthropic enciende las alarmas: «basta con 250 documentos» para envenenar un modelo de IA, independientemente de su tamaño

Anthropic enciende las alarmas: «basta con 250 documentos» para envenenar un modelo de IA, independientemente de su tamaño

La seguridad de los modelos de lenguaje vuelve a estar bajo escrutinio. Un estudio conjunto de Anthropic, el UK AI Security Institute y el Instituto Alan Turing concluye que un ataque de envenenamiento de datos (data poisoning) puede implantarse en un modelo de lenguaje con un número casi constante de documentos maliciosos, alrededor de 250, sin importar el tamaño del modelo ni el volumen del corpus limpio con el que se entrena. El hallazgo desafía una asunción muy extendida en la comunidad: que el atacante debe controlar un % relevante...

| etiquetas: anthropic , envenenar , modelo ia , alarmas , documentos maliciosos , ia

menéame