Hace 3 meses | Por spacemenko a businessinsider.es
Publicado hace 3 meses por spacemenko a businessinsider.es

Investigadores especializados han denunciado que el chatbot de inteligencia artificial puede llegar a filtrar información sobre personas reales. Al parecer, esto es lo que le ha ocurrido a un lector de Ars Technica, que ha revelado que ChatGPT está filtrando conversaciones privadas que incluyen contraseñas y otros datos personales de usuarios que no tienen nada que ver entre sí. El lector en cuestión ha compartido una serie de capturas de pantalla en las que se pueden ver nombres de usuario y contraseñas que parecen estar relacionados..

Comentarios

Robus

Los usuarios no tienen nada que ver entre sí pero estan usando la misma base de conocimientos, de ahí el problema.

Igual el truco es pensar que el ChatGPT es "internet" o "la vecina cotilla", no debes darle nunca información que no quieras que se sepa.