Hace 8 años | Por juzama a xataka.com
Publicado hace 8 años por juzama a xataka.com

Hace un par de días os presentábamos a Tay, un bot conversacional desarollado por Microsoft que se basaba en un sistema de inteligencia artificial, Tay comenzó a funcionar en Twitter pero, apenas un par de días después, Microsoft ha decidido "dormirlo" temporalmente. ¿El motivo? Hacer "algunos ajustes" después de que el bot, que "aprende" de sus interacciones con usuarios, se convirtiera en un bot racista que incluso llegó a publicar consignas nazis.

Comentarios

juzama

#1 De que se les ha vuelto racista sí, pero no han salido noticias (hasta ahora ) de que lo hayan retirado por ello.