Hace 3 años | Por --168071-- a xataka.com
Publicado hace 3 años por --168071-- a xataka.com

Especialistas en aprendizaje automático de Amazon han estado dando forma a una herramienta para revisar los currículums de solicitantes de empleo desde 2014

Comentarios

D

#3 Se refiere a una institución educativa solo de mujeres, tipo Mercedarias. Quienes habían estuidado allí también se les restaba puntos.

ioxoi

#8 Si es así para materias como programación, entonces no es machismo, es realidad.

ioxoi

#12 veo que tú no te has leído el hilo, revisalo y comprenderás que eso mismo ya lo he dicho en cristiano dos comentarios antes, pero estamos discutiendo sobre "all-women’s colleges" En particular para CV orientados a TIC.

D

#10 Que es realidad el que???????????????

ioxoi

#13 no te has enterado de nada, mira el hilo y descubrirás que estamos hablando de los centros solo femeninos para formar en TIC, te devuelvo el negativo y te mando a mi ilustre lustra de ignorados.

placeres

#3 Hay universidades solo de mujeres igual que hay universidades católicas-evangélicas etc etc. En ambos casos para que las niñas no se perviertan cuando abandonen la sagrada protección paterna.

Dado que tienen un sesgo por razones ajenas a las educativas, es fácil prejuzgar que la educación no es la prioridad.

La IA analizando los resultados laborales de todas las licenciadas llegó a la conclusión que son una universidad de tercera con mediocre formación y eso queda muy mal decirlo alto Aunque siempre cabe que se base en resultados alterados por las condiciones de hace décadas y que una licenciada reciente tenga un rendimiento bueno y está siendo injustamente tratadas por defectos en los datos.

D

#11 la IA con los datos q le pasaron, los de los actuales trabajadores de amazon, vio q habia pocas de esas y por ello asumio q es poco recomendable.

A .i me parece q lo mas probable es q tu no tengas ni puta idea de como funciona una IA y vengas aqui a pontificar pq cualquier gilipollez es buena para sacar tu polla herida y q el resto sufra como ha sufrido ella.

D

#1 la inteligencia artificial se parece a su creador. Inteligencia artificial no es la panacea de la objetividad.

No tengo ni idea de los algoritmos que usa, ni quien la ha diseñado, ni que valora como positivo o negativo.

D

Para toda la caverna que comenta. Leed la noticia, para variar.

Mltfrtk

La IA es machista, porque el equipo de programación es machista. Como aquella IA de google que "salió" racista.

k

#20 no sabes como va la AI, verdad?

Mltfrtk

#22 Conozco como funciona, no en profundidad, pero si los conceptos básicos. Tengo un amigo doctorado en matemáticas que trabaja en un campo similar y tenemos nuestras buenas charlas.
Pero si crees que he dicho algo mal, me puedes corregir, siempre es bueno aprender.

k

#24 sin problema. No te estaba recriminado nada.
Basicamente, no hay un equipo de programadores. Los algoritmos estan hechos y solo hay que afinarlos y "alimentarlos" con datos.
Si esos datos estan sesgados o al categorizarlos se aplican criterios subjetivos pues la IA tendra problemas, como el que apuntabas de racismo en la IA de Microsoft.
Pero esos sesgos en los datos no suelen ser problema de los que implementan el modelo.
En mi opinion, con las personas pasa lo mismo. Si a un niño que nació en carolina del sur en pleno siglo xix le preguntas por un negro, seguramente su sesgo le kkeve a considerar que no son personas o vete tu a saber. Pero el niño no es racista intrinsecamente, es la educacion que ha recibido.
Especialmente en el tema del lenguaje, es muy dificil que una IA pille dobles sentidos, ironias o humor. Son cosas muy sutiles. De ahí que al entrenarla con conversaciones en chats o similar terminen aprendiendo cosas muy chungas

Mltfrtk

#25 Bien, no son programadores, son personas que entrenan la IA. Al entrenarla, como tú bien dices, terminarán aprendiendo cosas muy chungas si los chats o conversaciones son muy chungas. Y supongo que eso pasará unas pruebas para ver si funciona, supervisadas por personas. Esas personas, si son machistas, no verán el machismo en su funcionamiento. Lo verán algo normal. ¿Me equivoco?

k

#26 si y no. Los que entrenan tienen que preparar y limpiar los datos, pero no son ellos los responsables del sesgo en el juego de datos.
Si entrenas a un sistema de machine learning para reconocer caras de personas y no le enseñas ninguna foto de un negro, de quien es la responsabilidad? De quien prepara el dataset, de quien lo usa o de ambos? En cualquier caso no se puede decir que el algoritmo sea racista

Mltfrtk

#27 Pues de quien prepara esos datos, de quien los usa o de ambos. Personas que están involucradas al fin y al cabo. Lo que he llamado de forma errónea "equipo de programadores".
Pero vengo a decir lo mismo. Si esas personas no contemplan ciertas sensibilidades, pues luego pasa lo que pasa.

D

La extrema derecha que atenta, como entran por el aro...

RoterHahn

Pensaba que era del Jueves. lol lol lol

Ka0

A cualquier cosa llaman inteligencia artifical.

D

pero q es realidad, que???????

vilgeits

Habrá que poner una imbecilidad artificial para hacer las cosas políticamente correctos.

M

#5 sería lo lógico.

D

Maldito patriarcado llega hasta las máquinas, digo, máquinos

y

Bueno pues que chicas se travistan en chicos y los chicos en chicas a ver qué pasa con la ia

s

A ver, como dicen, la inteligencia artificial esta entrenada por una base de datos y si la base de datos esta mas inclinada a hombres, supongo que tendrá el sesgo de elegir a hombres.
Pero eso hace preguntarnos dos cosas, la base de datos es sexista o es que la base de datos representa la realidad, a lo mejor es que la mayoría de los curriculums de programación llegan de hombres, a lo mejor hasta ahora los candidatos mas elegidos por los reclutadores han sido hombres(cosa que tampoco tiene que significar sexismo, sino tanto por volumen como adecuación para el puesto).

Por otro lado también hay que tener en cuenta que antes de pasarle los datos a la inteligencia artificial se suelen normalizar y se quita la información irrelevante, como por ejemplo una columna que en toda la base de datos tiene el mismo valor(que podría ser el genero), o se puede obviar alguna información aposta para que el sistema no la tome en cuenta.

La verdad es que el articulo no parece entrar en que revisiones han hecho para decidir que la IA es sexista, pero yo me apuesto que gran peso en la decisión no es por fallo del algoritmo o de los datos, sino que no estan bien vistos los resultados.

k

#18 me queda la duda de que habian usado de funcion de coste. Me explico, como relacionan los CV con la calidad de la persona como trabajador? Doy por hecho que estan con aprendizaje supervisado

s

#21 A ver, no creo que tenga sentido que no sea supervisado. Por el lado de la función de coste no se cuan compleja es la recolección de datos y su procesamiento previo antes de alimentar la AI. Pero por lo que leo del articulo de reuters, entiendo que lo hacen en base al texto y que toman todo el texto en cuenta.

In effect, Amazon’s system taught itself that male candidates were preferable. It penalized resumes that included the word “women’s,” as in “women’s chess club captain.” And it downgraded graduates of two all-women’s colleges, according to people familiar with the matter.


Con eso tampoco deja claro como han decidido que esos eran los factores que influyan en el valor del CV.

Pero si, no esta claro como calculan el valor de CV, y sin es complicado opinar de manera mas objetiva.

t

La inteligencia artificial también las oprime, que raro.