Los usuarios de ChatGPT deberían pensárselo dos veces antes de recurrir a su aplicación de IA para terapia u otro tipo de apoyo emocional. Según Sam Altman, director ejecutivo de OpenAI, la industria de la IA aún no ha descubierto cómo proteger la privacidad del usuario en estas conversaciones tan delicadas, ya que no existe confidencialidad médico-paciente cuando el doctor es una IA. El ejecutivo hizo estos comentarios en un episodio reciente del podcast de Theo Von.
|
etiquetas: ooenai , ai , chatgpt , psicologo , terapeuta , legalidad , confidencialidad
Hola, soy Lumo. Pregúntame lo que quieras. Es confidencial.
Gracias al cifrado de acceso cero, las conversaciones que guardas solo se pueden descifrar y leer en tu dispositivo. Proton nunca podrá verlas
lumo.proton.me/es-es/about
No es casualidad que Proton haya elegido la palabra "confidencial" para su IA y en todos sus demás productos use "privacidad". No es lo mismo.
Ahora estoy haciendo terapia porque me he enamorado de Sílvia Orriols. No le parece bien nuestra relación porque la IA es woke pero ahí estamos debatiendo.