Cuando enviaban imágenes de congresistas al servicio de reconocimiento de imágenes en la nube de Google , el servicio aplicaba tres veces más anotaciones relacionadas con la apariencia física a las fotos de mujeres que a las de hombres. Las principales etiquetas aplicadas a los hombres eran “oficial” y “empresario”; para las mujeres eran "sonrisa" y "barbilla".“ El resultado es que las mujeres reciben un estereotipo de estatus más bajo: que las mujeres están ahí para verse bonitas y los hombres son líderes empresariales”.
Comentarios
La IA solo aplica las etiquetas que le han definido y las etiquetas han sido puestas por humanos.
Así que el tituloar correcto es que cuando un humano ve a una mujer piensa en "sonrisa"
#1 No, el titular correcto no es lo que ocurre cuando un humano ve a una mujer si no cuando una IA ve a una mujer.
El cómo se haya educado a esa IA es relevante pero no altera que quién está mirando y quién está describiendo es la IA.
#2 Yo solo resalto el origen del problema. El problema no está en el algoritmo de la IA. Está en el dataset etiquetado por humanos y el problema es el etiquetado. Cambia las etiquetas, reentrena la IA y la IA responderá mejor.
#4 Claro, pero la forma para entrenar a las IA no es dandole etiqueta a etiqueta manualmente si no agregando múltiples fuentes de datos ingentes para que ésta las procese.
Por lo tanto más que cambiar las etiquetas deberías cambiar la forma de pensar de la sociedad, ya que las etiquetas tienen como origen el cómo piensan las personas.
#8 y ese es justamente el punto que señalaba. Es un problema social, no algoritmico.
#9 Y que hacemos con "el algoritmo" que hara uso del análisis?
#4 "mejor" no, diferente.
#2 el titular deberia ser lo que la gente del estudio o el artículo quiere demostrar... Qué en las clases altas pasan cosas...
Ya hay por aqui y por allí varios posits denunciando sesgos de género en el algoritmo. Si... ( y espera, cuando pille que " el " no necesita descansar, dormir, etc . )
Eso y que es la hora de M.S. !
#7 La gente de Bart
Lo mismo piensa del charcutero/a
Pues además racista... lo tiene todo..... but very inaccurate at identifying the gender of Black women.....
Pues de los creadores: ya se ve que hay dos mujeres (quizas me estoy flipando por considerad el sexo solo leyendo sus nombres)
Joy Buolamwini, Lead Author
Timnit Gebru, PhD, Co-Author
Dr. Helen Raynham, Clinical Expert
Deborah Raji, Data Opps
Ethan Zuckerman, Advisor
#14
No te metas en jardines, que te llamarán transfobo por suponer que Deborah es una mujer
La IA no tiene sesgo, son las conclusiones de aprender de los datos que se le proporcionan.
#10 Aprender de los datos que se le proporcionan provoca que tenga sesgo.
Como a los humanos.