Actualidad y sociedad
15 meneos
147 clics

Amazon ha dejado de usar por sexista a la inteligencia artificial que le revisaba los currículums

Especialistas en aprendizaje automático de Amazon han estado dando forma a una herramienta para revisar los currículums de solicitantes de empleo desde 2014

| etiquetas: amazon , inteligencia artificial , sexista
12 3 2 K 103
12 3 2 K 103
Titular alternativo, la inteligencia artificial confirma que hay diferencias as entre sexos, como no es políticamente correcto, la apagamos.
#1 Mas bien, si enseñas valores machistas, tendrás resultados machistas, el problema es la base de datos de aprendizaje que se basaba en CV masculinos y centros no "femeninos".
lo que no termino de entender es que leches pinta un centro de estudios femenino en TIC ?(
#3 Se refiere a una institución educativa solo de mujeres, tipo Mercedarias. Quienes habían estuidado allí también se les restaba puntos.
#8 Si es así para materias como programación, entonces no es machismo, es realidad.
#10 Ale, otro que no se ha leído la noticia. Pego parte del original:

Amazon’s system taught itself that male candidates were preferable. It penalized resumes that included the word “women’s,” as in “women’s chess club captain.” And it downgraded graduates of two all-women’s colleges.
#12 veo que tú no te has leído el hilo, revisalo y comprenderás que eso mismo ya lo he dicho en cristiano dos comentarios antes, pero estamos discutiendo sobre "all-women’s colleges" En particular para CV orientados a TIC.
#10 Que es realidad el que???????????????
#13 no te has enterado de nada, mira el hilo y descubrirás que estamos hablando de los centros solo femeninos para formar en TIC, te devuelvo el negativo y te mando a mi ilustre lustra de ignorados.
#3 Hay universidades solo de mujeres igual que hay universidades católicas-evangélicas etc etc. En ambos casos para que las niñas no se perviertan cuando abandonen la sagrada protección paterna.

Dado que tienen un sesgo por razones ajenas a las educativas, es fácil prejuzgar que la educación no es la prioridad.

La IA analizando los resultados laborales de todas las licenciadas llegó a la conclusión que son una universidad de tercera con mediocre formación y eso queda muy mal decirlo alto Aunque siempre cabe que se base en resultados alterados por las condiciones de hace décadas y que una licenciada reciente tenga un rendimiento bueno y está siendo injustamente tratadas por defectos en los datos.
#11 la IA con los datos q le pasaron, los de los actuales trabajadores de amazon, vio q habia pocas de esas y por ello asumio q es poco recomendable.

A .i me parece q lo mas probable es q tu no tengas ni puta idea de como funciona una IA y vengas aqui a pontificar pq cualquier gilipollez es buena para sacar tu polla herida y q el resto sufra como ha sufrido ella.
#1 la inteligencia artificial se parece a su creador. Inteligencia artificial no es la panacea de la objetividad.

No tengo ni idea de los algoritmos que usa, ni quien la ha diseñado, ni que valora como positivo o negativo.
Para toda la caverna que comenta. Leed la noticia, para variar.
La IA es machista, porque el equipo de programación es machista. Como aquella IA de google que "salió" racista.
#20 no sabes como va la AI, verdad?
#22 Conozco como funciona, no en profundidad, pero si los conceptos básicos. Tengo un amigo doctorado en matemáticas que trabaja en un campo similar y tenemos nuestras buenas charlas.
Pero si crees que he dicho algo mal, me puedes corregir, siempre es bueno aprender.
#24 sin problema. No te estaba recriminado nada.
Basicamente, no hay un equipo de programadores. Los algoritmos estan hechos y solo hay que afinarlos y "alimentarlos" con datos.
Si esos datos estan sesgados o al categorizarlos se aplican criterios subjetivos pues la IA tendra problemas, como el que apuntabas de racismo en la IA de Microsoft.
Pero esos sesgos en los datos no suelen ser problema de los que implementan el modelo.
En mi opinion, con las personas pasa lo mismo. Si a un…   » ver todo el comentario
#25 Bien, no son programadores, son personas que entrenan la IA. Al entrenarla, como tú bien dices, terminarán aprendiendo cosas muy chungas si los chats o conversaciones son muy chungas. Y supongo que eso pasará unas pruebas para ver si funciona, supervisadas por personas. Esas personas, si son machistas, no verán el machismo en su funcionamiento. Lo verán algo normal. ¿Me equivoco?
#26 si y no. Los que entrenan tienen que preparar y limpiar los datos, pero no son ellos los responsables del sesgo en el juego de datos.
Si entrenas a un sistema de machine learning para reconocer caras de personas y no le enseñas ninguna foto de un negro, de quien es la responsabilidad? De quien prepara el dataset, de quien lo usa o de ambos? En cualquier caso no se puede decir que el algoritmo sea racista
#27 Pues de quien prepara esos datos, de quien los usa o de ambos. Personas que están involucradas al fin y al cabo. Lo que he llamado de forma errónea "equipo de programadores".
Pero vengo a decir lo mismo. Si esas personas no contemplan ciertas sensibilidades, pues luego pasa lo que pasa.
La extrema derecha que atenta, como entran por el aro...
Pensaba que era del Jueves. xD xD xD
A cualquier cosa llaman inteligencia artifical.
pero q es realidad, que???????
Habrá que poner una imbecilidad artificial para hacer las cosas políticamente correctos.
#5 sería lo lógico.
Bueno pues que chicas se travistan en chicos y los chicos en chicas a ver qué pasa con la ia
Maldito patriarcado llega hasta las máquinas, digo, máquinos
A ver, como dicen, la inteligencia artificial esta entrenada por una base de datos y si la base de datos esta mas inclinada a hombres, supongo que tendrá el sesgo de elegir a hombres.
Pero eso hace preguntarnos dos cosas, la base de datos es sexista o es que la base de datos representa la realidad, a lo mejor es que la mayoría de los curriculums de programación llegan de hombres, a lo mejor hasta ahora los candidatos mas elegidos por los reclutadores han sido hombres(cosa que tampoco tiene que…   » ver todo el comentario
#18 me queda la duda de que habian usado de funcion de coste. Me explico, como relacionan los CV con la calidad de la persona como trabajador? Doy por hecho que estan con aprendizaje supervisado
#21 A ver, no creo que tenga sentido que no sea supervisado. Por el lado de la función de coste no se cuan compleja es la recolección de datos y su procesamiento previo antes de alimentar la AI. Pero por lo que leo del articulo de reuters, entiendo que lo hacen en base al texto y que toman todo el texto en cuenta.

In effect, Amazon’s system taught itself that male candidates were preferable. It penalized resumes that included the word “women’s,” as in “women’s chess club captain.” And it

…   » ver todo el comentario
La inteligencia artificial también las oprime, que raro.
comentarios cerrados

menéame