Hace 5 meses | Por geralt_ a scientificamerican.com
Publicado hace 5 meses por geralt_ a scientificamerican.com

Los chatbots de inteligencia artificial actuales tienen restricciones incorporadas para evitar que proporcionen a los usuarios información peligrosa, pero un nuevo estudio preimpreso muestra cómo conseguir que las IA se engañen entre sí para que entreguen esos secretos. En él, los investigadores observaron cómo las IA objetivo rompían las reglas para ofrecer consejos sobre cómo sintetizar metanfetamina, construir una bomba y blanquear dinero.

Comentarios

ChatGPT

Pues... Rajoy dijo que eso no era posible...
https://elpais.com/elpais/2016/03/08/videos/1457457914_756232.html

m

#1 mis dieses por esa capacidad para recordar la hemeroteca.

#2 hombre, esa es un must