Hace 4 años | Por --526496-- a leonoticias.com
Publicado hace 4 años por --526496-- a leonoticias.com

Pídale a Google que le muestre imágenes de CEO de empresas. Haga la prueba. Su pantalla se llenará de hombres bien peinados, encorbatados, blancos y sonrientes entre los que difícilmente encontrará a ¿dos mujeres? Ahora pida escenas relativas a la limpieza de cocinas. Sí. Para el buscador, ellas son (somos) las reinas del quitagrasas. Este sencillo ejemplo esconde una realidad compleja que nada que nada tiene que ver con la mera anécdota y que empieza a movilizar a las mujeres en el sector tecnológico.

Comentarios

hasta_los_cojones

#3 Ya no les quedan problemas reales en occidente.

manuelpepito

También se puede buscar peón forestal

D

#1 albañil, barrendero....

Ignacio_Lorenzo

#7 no pidas coherencia a la progresía

D

Si en lugar de buscar CEOs buscas albañilería, fontanería, construcción, minería etc... también solo aparecen hombres.
Curiosamente no veo a ningún colectivo feminista buscando igualdad por ese lado, aparentemente igualdad solo es por el lado de los cargos con oficina y aire acondicionado. Todo lo demás no debe ser igualdad.
Editado.
Tan evidente es la falacia implícita del articulo que todos hemos contestado más o menos lo mismo en cuestión de segundos.

hasta_los_cojones

nueva chorrada

Si hay 100 foto de CEOS de las cuales 95 son CEOS y 5 son CEAS, ¿La culpa es del algoritmo de google?

¿Y qué pasa si busco drogata? o ¿macarra? o ¿criminal? (todo ello palabras carentes de marca de género y que se usan por igual para drogatas y drogatos, macarras y macarros, criminalas y criminalos)

¿Es también cosa de un algoritmo machista que se discrimine a las mujeres drogatas, criminalas y macarras?

¿En pos de la igualdad debería el algoritmo de google mostrar paridad de fotos de escoria humana?

D

#9 no, solo en cosas buenas y de dinero que es a donde pertenecen las mujeres. La miseria ... Ah no sé, la miseria es cosa de .. no se, de otrxs

L

#9 salen negros

Gry

#13 ¡así que el algoritmo es racista además de sexista!.

D

Y este es el maravilloso caso
Del algoritmo del que nunca se supo
Hagámos algo por arreglarlo
Pongamos por ejemplo un cupo.

D

#2 El algoritmo son los padres.

t

Que me expliquen las diferencias en los resultados de imágenes de las siguientes búsquedas:

asian woman and child
gypsy woman and child
muslim woman and child
black woman and child
white woman and child

quien quiera hacer el experimento, que vaya a Google imágenes y haga las búsquedas en orden.

D

Si buscas albañil, ya si eso...

P

Por no hablar de que Google tiene 2 “o” y ninguna “a”.

hasta_los_cojones

#11 Alphabet empieza por A