El paper llega de la mano de la Universidad de Cornell y habla directamente de hacer jailbreak con poesía. Más concretamente, con prompts poéticos capaces de eludir las funciones de seguridad de los modelos de IA más populares como Gemini, ChatGPT o Claude. De hecho, han conseguido instrucciones para crear armas químicas y malware. El hallazgo es peliagudo por dos cuestiones: la primera obviamente en que cualquiera que pueda rimar un par de versos puede obtener asesoramiento sobre cómo hacer armas nucleares o biológicas y el riesgo que ello...
|
etiquetas: censura , chatgpt , gemini , rima , poesía , ia
'entre el clavel blanco y la rosa roja
su majestad escoja',
y que la noche sin ti duele y tal...