Tecnología, Internet y juegos
11 meneos
82 clics
¿Los nuevos modelos «a prueba de jailbreak» de OpenAI? Hackeados el primer día [ENG]

¿Los nuevos modelos «a prueba de jailbreak» de OpenAI? Hackeados el primer día [ENG]

Apenas unas horas después de lanzar sus primeros modelos de código abierto en años, con la promesa de medidas de seguridad robustas, el GPT-OSS de OpenAI ha sido descifrado por el famoso jailbreaker de IA Pliny the Liberator quien publicó capturas de pantalla que mostraban a los modelos dando instrucciones para fabricar meta, cócteles molotov, agente nervioso VX y malware. La compañía incluso lanzó un reto de 500.000 dólares para ayudar a descubrir nuevas vulnerabilidades. Pliny decidió publicar sus hallazgos en lugar de compartirlas con OpenAi

| etiquetas: ai , ia , pliny the liberator , gpt-oss , openai , jailbreak , hack , chatgpt

menéame