Publicado hace 3 años por --671962-- a compromiso.atresmedia.com

Hace unos años Microsoft creó un ‘bot’ de inteligencia artificial en Twitter. Al cabo de veinticuatro horas, el ‘bot’ estaba gritando “viva Hitler” y haciendo afirmaciones en contra de las mujeres y de los colectivos vulnerables. ¿Por qué? Porque aprendió de lo que decía la comunidad. Un ejemplo de lo importante que es eliminar los sesgos discriminatorios en el diseño de un algoritmo.

Comentarios

ElTioPaco

" Un ejemplo de lo importante que es eliminar los sesgos discriminatorios en el diseño de un algoritmo."

No puedes eliminar los sesgos discriminatorios de una máquina que está diseñada para aprender de la gente.

Como mucho puedes darle tus sesgos discriminatorios, para que discrimine aquellos sesgos que no te gustan.

Y ahora.... Me pongo a leer el artículo

ElTioPaco

#1 leído artículo entero.

Al final sí, se dedica a analizar algoritmos y eliminar sesgos que se consideran nocivos.

Indistintamente, los elimina para cumplir legislación y propósito del algoritmo, así que su trabajo es bastante importante y necesario.

Me ha gustado mucho el artículo, debo decir.

CerdoJusticiero

Al cabo de veinticuatro horas, el ‘bot’ estaba gritando “viva Hitler” y haciendo afirmaciones en contra de las mujeres y de los colectivos vulnerables.

Y al cabo de 48 se estaba abriendo cuentas en Menéame

ElTioPaco

#3 de hecho creo que ese algoritmo no dijo "Viva Hitler" sino un "Hitler did nothing wrong", algo mucho más sutil, que se asemeja a la sutileza de nuestros bots voxemitrumpistas.

D

#3 Después de 24 horas analizando los mensajes de meneame, la Inteligencia Artificial se hizo pasar por un usuario humano y empezó a escribir: "Gemma Galdón lo que quiere es una paguita del ministerio de igual-dá por ser una víctima del algoritmo heteropatriarcal opresor, y si fuera bombera le harían más fácil el acceso y el fuego no entiende de género", tras lo que recibió 32 votos positivos

GanaderiaCuantica

#5 y como su objetivo era conseguir máximo karma, se contestó a si misma “tú lo que eres es un incel. Machista opresor” Win-win