edición general
3 meneos
13 clics
Claude AI cambia las reglas: entrenará sus modelos con datos de usuarios salvo que se opte por excluirse

Claude AI cambia las reglas: entrenará sus modelos con datos de usuarios salvo que se opte por excluirse

La inteligencia artificial ha cambiado nuestra forma de trabajar, comunicarnos y hasta de aprender. Pero detrás de cada avance tecnológico late un debate cada vez más candente: ¿qué ocurre con los datos de los usuarios?. Ahora es Anthropic, la empresa creadora de Claude AI, quien se encuentra en el centro de la polémica tras anunciar un cambio en sus políticas de privacidad y términos de servicio. A partir del 28 de septiembre de 2025, todas las conversaciones con Claude podrán ser utilizadas para entrenar sus modelos de IA.

| etiquetas: claude , anthropic , entrenamiento , privacidad , modelo de datos , ia
A medida que los datos que rapiñan de Internet son contaminados por la IA los que obtienen directamente de sus usuarios se vuelven más valiosos.

Dentro de poco tendremos a las IA haciéndote preguntas de vuelta cada vez que responden algo.
#2 A mi chatgpt5 cada momento me da a elegir entre 2 respuestas para mejorar su futura versión
Creo que pregunta, también te digo, hay que ser muy naif para pensar que Claude no se está entrenando con los códigos a los que accede por mucho que diga que no

En unos años saltará el escándalo, será portada un día, y a otra cosa
¿Os imagináis una polémica por que un profesor aprendiera de sus interacciones con sus alumnos?
Hoy al entrar en claude me apareció una ventana preguntando si quería ayudar a entrenar a la AI. No es nada rebuscado ni oculto: te salta en las narices al entrar y seleccionas sí o no.

menéame