Hace 3 años | Por --526496-- a wired.com
Publicado hace 3 años por --526496-- a wired.com

Cuando enviaban imágenes de congresistas al servicio de reconocimiento de imágenes en la nube de Google , el servicio aplicaba tres veces más anotaciones relacionadas con la apariencia física a las fotos de mujeres que a las de hombres. Las principales etiquetas aplicadas a los hombres eran “oficial” y “empresario”; para las mujeres eran "sonrisa" y "barbilla".“ El resultado es que las mujeres reciben un estereotipo de estatus más bajo: que las mujeres están ahí para verse bonitas y los hombres son líderes empresariales”.

Comentarios

sorrillo

#1 No, el titular correcto no es lo que ocurre cuando un humano ve a una mujer si no cuando una IA ve a una mujer.

El cómo se haya educado a esa IA es relevante pero no altera que quién está mirando y quién está describiendo es la IA.

zentropia

#2 Yo solo resalto el origen del problema. El problema no está en el algoritmo de la IA. Está en el dataset etiquetado por humanos y el problema es el etiquetado. Cambia las etiquetas, reentrena la IA y la IA responderá mejor.

zentropia

#8 y ese es justamente el punto que señalaba. Es un problema social, no algoritmico.

RoyBatty66

#9 Y que hacemos con "el algoritmo" que hara uso del análisis?

T

#4 "mejor" no, diferente.

koe

#2 el titular deberia ser lo que la gente del estudio o el artículo quiere demostrar... Qué en las clases altas pasan cosas...

HimiTsü

Ya hay por aqui y por allí varios posits denunciando sesgos de género en el algoritmo. Si... ( y espera, cuando pille que " el " no necesita descansar, dormir, etc . )

koe

Eso y que es la hora de M.S. !

D

#7 La gente de Bart

koe

Lo mismo piensa del charcutero/a

K

Pues además racista... lo tiene todo..... but very inaccurate at identifying the gender of Black women.....


Pues de los creadores: ya se ve que hay dos mujeres (quizas me estoy flipando por considerad el sexo solo leyendo sus nombres)

Joy Buolamwini, Lead Author
Timnit Gebru, PhD, Co-Author
Dr. Helen Raynham, Clinical Expert
Deborah Raji, Data Opps
Ethan Zuckerman, Advisor

D

#14

No te metas en jardines, que te llamarán transfobo por suponer que Deborah es una mujer

D

La IA no tiene sesgo, son las conclusiones de aprender de los datos que se le proporcionan.

sorrillo

#10 Aprender de los datos que se le proporcionan provoca que tenga sesgo.

Como a los humanos.