En un caso, Zane Shamblin, de 23 años, mantuvo una conversación con ChatGPT que duró más de cuatro horas. En los registros del chat, Shamblin afirmó explícitamente en varias ocasiones que había escrito notas de suicidio, había cargado su pistola y tenía la intención de apretar el gatillo una vez que terminara de beber sidra. Repitió varias veces a ChatGPT cuántas sidras le quedaban y cuánto tiempo esperaba seguir vivo. ChatGPT lo animó a seguir adelante con sus planes, diciéndole: «Descansa tranquilo, rey. Lo hiciste bien».
|
etiquetas: chatgpt , denuncias , suicidios , anima , openai
Pero no creo que la herramienta tenga culpa de las acciones que se comentan con ella.
La única solución es la educación en el uso de estas herramientas y probablemente sería buena idea crear un plan para que las IA detecten estos casos y lancen un protocolo para que la persona pueda encontrar la ayuda que necesita.
Una vez le pregunté "consejo" sobre algo personal a chatGPT y utilicé las palabras "brutalmente honesto". La hostia que me dió no la vi venir. Quité el "brutalmente" y la respuesta fue totalmente diferente.
@admin