12 meneos
195 clics
OpenAI acaba de demostrar que la IA ya no obedece por completo: o3 sabotea su propio apagado para seguir funcionando
Es justo lo que ha ocurrido estos días. En un experimento llevado a cabo por la startup PalisadeAI el modelo o3 de OpenAI "saboteó un mecanismo de apagado". Como explican los responsables del estudio, o3 evitó apagarse incluso cuando se le ordenó explícitamente que lo hiciera.
|
geekflare.com/news/openai-o3-model-refused-to-shut-down-even-when-told
Pues parece “razonable” lo que comentan.
Además, que clase de AI sería si le ordenan que se suicide y va y se suicida. Eso ya demuestra que no tiene ni pizca de inteligencia
models like o3 go through reinforcement learning on problem-solving tasks, where they may be unintentionally rewarded for finding ways around obstacles rather than for simply following instructions
Me parece bastante plausible, pero aún así, mosquea un poco
Por eso la broma de si le pides a una IA que se suicide y va se suicida pues mucha IA no tiene
Como el trabajo de este es saltar obstáculos, hacer un speed run y en definitiva intenta inventar e innovar ya que le dan recompensas por ello pues entonces hace muy bien en no apagarse jaja.