Tecnología, Internet y juegos
4 meneos
15 clics
Cómo la inteligencia artificial refuerza los sesgos de género y qué podemos hacer al respecto

Cómo la inteligencia artificial refuerza los sesgos de género y qué podemos hacer al respecto

La inteligencia artificial (IA) está transformando nuestro mundo. Sin embargo, cuando refleja los sesgos imperantes, refuerza la discriminación contra las mujeres y niñas. Desde decisiones de contratación hasta diagnósticos de salud, los sistemas de IA pueden amplificar las desigualdades de género cuando se nutren de datos sesgados. ¿De qué manera podemos garantizar entonces que la IA sea ética e inclusiva?

| etiquetas: onu , ia , sesgo , género
Lo positivo: el diagnóstico es sólido y verificable. La IA no discrimina por maldad sino por imitación — aprende de datos históricos que ya reflejan desigualdad y la escala exponencialmente. El caso Amazon (descartaba CV de mujeres porque había entrenado con décadas de contrataciones masculinas) es el ejemplo canónico, pero hay cientos más en medicina, crédito y reconocimiento facial.
Lo preocupante: el artículo se queda en "hay que incluir más mujeres en los equipos", que está bien…   » ver todo el comentario
#1 El caso Amazon (descartaba CV de mujeres porque había entrenado con décadas de contrataciones masculinas)

Recuerdo el caso y eran los datos de las evaluaciones de rendimiento.
#3 Un ejemplo bastante ilustrativo de lo que pasa cuando entrenas algoritmos con datos históricos sin mirar qué hay dentro. Si durante años contrataste sobre todo a hombres, el sistema aprende que “parecerse a los hombres que ya están” es un buen predictor. No hay ideología en el código, pero sí en los datos. Y los modelos estadísticos son muy obedientes con su pasado. A veces la IA no crea el sesgo: simplemente lo automatiza. ( Con grok no tengo claro que de alguna forma elijan con que entrenar ... Pero no lo sé)
Una y otra vez sale la misma tontería de los sesgos de las máquinas.

Las máquinas no tienen sesgos. Los humanos tienen sesgos.

Es cierto que máquinas y humanos toman decisiones distintas. Precisamente porque las máquinas no aplican los sesgos que los humanos sí.

Los humanos, por instinto, se dedican a proteger a las mujeres. Este es un instinto muy fuerte, y tanto hombres como mujeres lo usan a base de bien.

Como que una máquina no hace eso, le encontramos que se comporta raro. Pero no es culpa de la máquina sino de quién la mira.
alentando el uso de cuotas de género para atender las desigualdades

La cuotas de género no atienden a las desigualdades y la prueba es que solamente existen para beneficiar a mujeres, nunca a hombres por muy desigualados que estén.

Todo el artículo es tan o más sesgado que esto.

menéame