La inteligencia artificial (IA) está transformando nuestro mundo. Sin embargo, cuando refleja los sesgos imperantes, refuerza la discriminación contra las mujeres y niñas. Desde decisiones de contratación hasta diagnósticos de salud, los sistemas de IA pueden amplificar las desigualdades de género cuando se nutren de datos sesgados. ¿De qué manera podemos garantizar entonces que la IA sea ética e inclusiva?
|
etiquetas: onu , ia , sesgo , género
Lo preocupante: el artículo se queda en "hay que incluir más mujeres en los equipos", que está bien… » ver todo el comentario
Recuerdo el caso y eran los datos de las evaluaciones de rendimiento.
Las máquinas no tienen sesgos. Los humanos tienen sesgos.
Es cierto que máquinas y humanos toman decisiones distintas. Precisamente porque las máquinas no aplican los sesgos que los humanos sí.
Los humanos, por instinto, se dedican a proteger a las mujeres. Este es un instinto muy fuerte, y tanto hombres como mujeres lo usan a base de bien.
Como que una máquina no hace eso, le encontramos que se comporta raro. Pero no es culpa de la máquina sino de quién la mira.
La cuotas de género no atienden a las desigualdades y la prueba es que solamente existen para beneficiar a mujeres, nunca a hombres por muy desigualados que estén.
Todo el artículo es tan o más sesgado que esto.