Hace 2 años | Por dmeijide a politico.com
Publicado hace 2 años por dmeijide a politico.com

El servicio de chat impulsado por la IA de la Línea de Texto para Situaciones de Crisis ha recopilado montones de datos de sus conversaciones con personas que sufren las situaciones más difíciles de la vida. Pero los datos que la organización benéfica recoge de sus conversaciones de texto en línea con la gente en sus momentos más oscuros no terminan ahí: La filial con fines de lucro de la organización utiliza una versión cortada y reempaquetada de esa información para crear y comercializar un software de atención al cliente.

Comentarios

dmeijide

#3 ¿Y quién ha dicho que haya diferencia? El problema es que los datos se un servicio de asistencia público se compartan con empresas con ánimo de lucro, no la IA.

Robus

has been wholly “anonymized,” stripped of any details that could be used to identify people who contacted the helpling

Pues entonces no veo el problema.

Bueno, dicen:

Some noted that studies of other types of anonymized datasets have shown that it can sometimes be easy to trace the records back to specific individuals, citing past examples involving health records, genetics data and even passengers in New York City taxis.

No me sirve, que otros lo hayan hecho mal no tiene que decir que todos lo hagan mal. Que prueben que pueden tracear a una persona y entonces que se quejen.

dmeijide

#1 El problema es que podrían usar esos datos para vender cosas a personas en esas situaciones. El software o cualquier otra cosa. No que los sujetos puedan ser identificados, que también.

Robus

#2 y donde esta la diferencia entre que lo haga una persona o una IA?