Investigadores de EE UU y Brasil han desarrollado un sistema que ayuda a garantizar que los algoritmos de aprendizaje automático, usados en IA, funcionen adecuadamente y no reproduzcan sesgos discriminatorios. La técnica ha sido probada con éxito en aplicaciones de educación y salud.
Una IA real simularía hacer lo esperado con la capa principal, pero en otra capa estaría analizando esos algoritmos de risa que le hemos dado para controlarla y se los saltaría en nanosegundos. Luego ya viene lo tipico, robots asesinos, drones de caza, muerte y destrucción.
Comentarios
Quis custodiet ipsos custodes?
Dos mil años mas tarde todo sigue igual ... amigo Decimo
#5 Hay latín, hay positivo.
Yo venía a decir lo mismo, pero en
chabacanocastellano 😬Una IA real simularía hacer lo esperado con la capa principal, pero en otra capa estaría analizando esos algoritmos de risa que le hemos dado para controlarla y se los saltaría en nanosegundos. Luego ya viene lo tipico, robots asesinos, drones de caza, muerte y destrucción.
Que alguien me defina buen comportamiento, por favor.
#1 En EEUU y Brasil te lo pueden definir, como se ve.
Titular puesto con mala leche.
#1 comportamiento esperado.
Son sus sesgos y hacen con ellos lo que quieren.
La inteligencia artificial es machista 😏
https://www.theguardian.com/commentisfree/2018/mar/13/women-robots-ai-male-artificial-intelligence-automation