Actualidad y sociedad

Amazon ha dejado de usar por sexista a la inteligencia artificial que le revisaba los currículums

#20 no sabes como va la AI, verdad?
#22 Conozco como funciona, no en profundidad, pero si los conceptos básicos. Tengo un amigo doctorado en matemáticas que trabaja en un campo similar y tenemos nuestras buenas charlas.
Pero si crees que he dicho algo mal, me puedes corregir, siempre es bueno aprender.
#24 sin problema. No te estaba recriminado nada.
Basicamente, no hay un equipo de programadores. Los algoritmos estan hechos y solo hay que afinarlos y "alimentarlos" con datos.
Si esos datos estan sesgados o al categorizarlos se aplican criterios subjetivos pues la IA tendra problemas, como el que apuntabas de racismo en la IA de Microsoft.
Pero esos sesgos en los datos no suelen ser problema de los que implementan el modelo.
En mi opinion, con las personas pasa lo mismo. Si a un niño que nació en carolina del sur en pleno siglo xix le preguntas por un negro, seguramente su sesgo le kkeve a considerar que no son personas o vete tu a saber. Pero el niño no es racista intrinsecamente, es la educacion que ha recibido.
Especialmente en el tema del lenguaje, es muy dificil que una IA pille dobles sentidos, ironias o humor. Son cosas muy sutiles. De ahí que al entrenarla con conversaciones en chats o similar terminen aprendiendo cosas muy chungas
#25 Bien, no son programadores, son personas que entrenan la IA. Al entrenarla, como tú bien dices, terminarán aprendiendo cosas muy chungas si los chats o conversaciones son muy chungas. Y supongo que eso pasará unas pruebas para ver si funciona, supervisadas por personas. Esas personas, si son machistas, no verán el machismo en su funcionamiento. Lo verán algo normal. ¿Me equivoco?
#26 si y no. Los que entrenan tienen que preparar y limpiar los datos, pero no son ellos los responsables del sesgo en el juego de datos.
Si entrenas a un sistema de machine learning para reconocer caras de personas y no le enseñas ninguna foto de un negro, de quien es la responsabilidad? De quien prepara el dataset, de quien lo usa o de ambos? En cualquier caso no se puede decir que el algoritmo sea racista
#27 Pues de quien prepara esos datos, de quien los usa o de ambos. Personas que están involucradas al fin y al cabo. Lo que he llamado de forma errónea "equipo de programadores".
Pero vengo a decir lo mismo. Si esas personas no contemplan ciertas sensibilidades, pues luego pasa lo que pasa.

menéame