EDICIóN GENERAL
346 meneos
2549 clics
Amazon retira la herramienta basada en IA para el reclutamiento porque mostró sesgos contra las mujeres

Amazon retira la herramienta basada en IA para el reclutamiento porque mostró sesgos contra las mujeres

En efecto, el sistema de Amazon aprendió que los candidatos masculinos eran preferibles. Se penalizaron los currículos que incluían la palabra "mujeres", como en "capitán del club de ajedrez para mujeres". Y degradó a los graduados de dos universidades femeninas, según personas relacionadas con el tema. No especificaron los nombres de las universidades. Amazon cambió los programas para hacerlos neutrales a estos términos particulares. Pero eso no era garantía de que las máquinas no idearan otras formas de clasificar a los candidatos...

| etiquetas: amazon , genero , sesgo , recruiting , contratacion , ia , robots
Comentarios destacados:                                  
#148 #7 Sí que se dan algunas pautas para entender cómo pudo llegar a esas conclusiones:

That is because Amazon’s computer models were trained to vet applicants by observing patterns in resumes submitted to the company over a 10-year period. Most came from men, a reflection of male dominance across the tech industry.

Entiendo que la entrenaron para imitar los patrones de contratación empleados por humanos (la mayoría de ellos hombres) durante un periodo de diez años. Si en su mayoría eran hombres, esa IA "aprenderá" que eso es lo correcto, y por tanto tenderá a desechar los CVs que impliquen la presencia de mujeres, simplemente porque le han enseñado que lo normal es coger a los hombres.

Lo interesante es que aquí la gente está interpretando que esa IA era mejor que los humanos a la hora de contratar personal, cuando lo cierto es que según parece no era así en absoluto: simplemente hacía lo mismo que habían hecho los de recursos humanos durante diez años, solo que de forma automática. Y por tanto estaba reproduciendo también los mismos problemas y errores que éstos hubieran provocado.

cc #11
Imagen de la IA en cuestión :-D  media
Venga valientes, a quemar karma!!
#2 allá que voy:

O sea, que construyen una IA para ser objetivos y la desactivan porque sus resultados les parecen subjetivos...... y en vez de pensar en el por qué de la subjetividad imperante, no le demos pie a pensar otras cosas ...... no vayamos a sorprendernos con nuestros más internos demonios .....


O sea, como cangrejos
#2 ¿Y por qué Amazon ha retirado su herramienta de IA?
Con haberla prohibido abolido era mas que suficiente...
La cosa es que a mî, me hace sonrojarme. ( medio risa, medio vergüenza)
La IA es heteropatriarcal machirulo opresora
#4 Y falocentrista
#5 E inteligente! xD
#4 Pues sí, si lo dice The Guardian ...

Women must act now, or male-designed robots will take over our lives
www.theguardian.com/commentisfree/2018/mar/13/women-robots-ai-male-art

:-D
#13 Yo quiero robots femeninos, que cocinen y la chupen.
#66 Me han bloqueado los votos por culpa de algún ofendidito. Pero te lo dejo escrito. +1
#100 Espérame que voy :-D
#100 Me pasa constantemente y aplico el remedio obvio. De todos modos ahí va algo de karma.

Ofendiditos, sois un problema en MNM y un gran peligro para la sociedad.
#100 te pongo un positivo por si te sirve
#66 Cuidado, los SJW ya están en el caso y no les gusta nada que los robots se fabriquen basándose en el sistema binario de hombre-mujer

archive.is/lTy2D [eng]
#66, y lo de cocinar no urge tanto :-P
#66 Tendria que haber robots chupadores para ellos y ellas :-D

De hecho...  media
#66 Y aunque no cocinen...
#13, ¡ya le están echando la culpa a que los robots los diseñaron hombres! :-P

Bueno, pues a mi me parece un tema muy interesante estudiar el motivo por el que la IA parece que prefiere a los hombres. Me imagino que simplemente habrá sido por algún análisis de datos en el que ha visto que (debido a cómo es la sociedad actualmente) los hombres en general progresan más que las mujeres. Vamos, que la IA no es machista sino que ha sacado sus deducciones de cómo está la sociedad actualmente.
#13 If a non-diverse workforce is creating them, they are more prone to be implanted with unexamined, undiscussed, often unconscious assumptions and biases about things such as race, gender and class.

En realidad es todo lo contrario. El equipo del que habla la notícia ha intentado eliminar un sesgo y no lo ha conseguido.

Porque no era un sesgo sino su ausencia, y lo que realmente estaban haciendo era obligar a la IA a aplicar el sesgo que les molaba, lo que es mucho más difícil.
#4 La IA refleja los sesgos de la sociedad, ya que los datos para entrenarla vienen de ahí. Asi que si la sociedad es "heteropatriarcal machirulo opresora", lo raro es que la IA no lo sea.

Por ejemplo, la IA tiene un sesgo contra los negros, ya que le cuesta mucho reconocer sus caras. Eso es porque la mayor parte de fotos en internet son de blancos.
#28 La ausencia de datos no produce un sesgo sino, a lo sumo, problemas de convergencia. Y desde luego no produce "sesgos en contra" de ningún grupo, sólo hace menos fiables los resultados.

Suponer que los resultados obtenidos por la IA son el fruto de la sociedad es suponer bastante. No sabes cómo se han recogido los datos con los que se ha entrenado a esa IA (entiendo que deben ser datos internos de procesos de selección de Amazon). Esos datos pueden ser parámetros totalmente…   » ver todo el comentario
#48 La ausencia de datos de un grupo produce sesgos muy dificil de corregir. Si la IA ve que el 99% de las fotos con gente lavando platos son mujeres, creerá que la foto con un hombre lavando platos es una mujer.

Pero tienes razón en que faltan datos en la noticia para saber por qué se han creado esos sesgos.
#52 Tampoco soy yo un experto en procesamiento de imágenes, pero me consta que la IA está bastante lejos de ser capaz de reconocer algo tan preciso como que en una foto se vea a una persona lavando platos. Distinguir el sexo probablemente sí se haya conseguido.

Los modelos de este tipo tienen parámetros de convergencia. Yo no sé qué modelo han usado. Con un modelo de regresión (que no entra dentro de la IA) tienes un p-valor que te indica si el peso asociado a un factor (por ejemplo, el peso…   » ver todo el comentario
#73 Reconocer el sexo de una persona es más difícil que el hecho de que esté lavando platos. ¿Tú reconoces el sexo de cualquier otro animal que no sea un homo sapiens por su cara? Es de lo más difícil reconocer si una persona es masculina o femenina por su cara.
#91 Insisto en que no soy un experto en el tema, pero me sonaba que había trabajos sobre reconocimiento del sexo de la persona a través de la cara.

link.springer.com/article/10.1007/s11263-006-8910-9

Ahora te toca a ti encontrar el reconocimiento de lavado de platos :P.
#91 la cámara del móvil de mi pareja acierta razonablemente bien el sexo y la edad de quien enfocas.
#91 A mi me cuesta lo suyo con algunos humanos.
#73 Hay IA que te dicen en texto lo que se ve en una imagen. Por ejemplo: www.captionbot.ai/
#48 Todo depende de como entrenes el algoritmo. Si en vez de mujer en esas fotos, pones persona, ¿ya deja de tener sesgo? En ciertas ocasiones es más tema de semántica que de otra cosa y de los datos disponibles.

PD: Las IA no creen nada, dejemos de humanizar estas herramientas.
#52 Estás suponiendo que se le ha entrenado con datos sesgados, lo que es mucho suponer. Dudo mucho que Amazon alimente su IA, en la que habrá metido esfuerzo y dinero, con datos sesgados para luego retirarla. Lo que sí puede pasar es que las discriminaciones positivas lleven a que una mujer con el mismo currículo que un hombre tenga peor desempeño en el trabajo, porque ha llegado a ese punto mediante ayudas.
#84 Me imagino que hayan entrenado a la IA con los datos de los CV de los candidatos rechazados y aceptados. Esos candidatos rechazados fueron rechazados porque a la persona responsable le pareció así. Si esas personas responsables tienen un sesgo la IA lo va a replicar y va a ser muy dificil corregirlo.
#48 #84 ¿Alguno os habéis leído el artículo? Dice exactamente cómo se entrenó la IA y si, eran datos sesgados:

That is because Amazon’s computer models were trained to vet applicants by observing patterns in resumes submitted to the company over a 10-year period. Most came from men, a reflection of male dominance across the tech industry.
#52 ¿Y no crees que si la IA ve que el 99% de mujeres analizadas son menos productivas va a creer que efectivamente son menos productivas? El posible sesgo no puede venir de ahí.
#48 Este es un problema del que se ha hablado mucho, recomiendo esta columna de hace dos años: www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-whi

Menciona además un estudio de ProPublica sobre el software con el que algunos juzgados en EEUU determinan las penas y posibilidades de reincidencia de criminales, y que por sistema declaraba que los criminales negros tenían el doble de posibilidades de reincidir que los blancos. Que el software puede ser mejor que un humano es discutible, pero que hay que monitorizar y cambiar "humanamente" los sesgos también.
#72 Es que a la IA hay que cogerla con pinzas, porque es una herramienta que, por más que lleve la palabra "inteligencia" integrada en ella, de inteligente tiene poco.

Este tipo de técnicas son una forma perfeccionada de los modelos de regresión clásicos, y están diseñadas para predecir en base a ciertas variables, tras haberse entrenado con datos. Los problemas de este tipo de modelos son incontables. Por ejemplo: 1) Suponen una "linealidad" en los datos que no existe en…   » ver todo el comentario
#48 Has dado en el clavo. Amazon ha entrenado la IA con los curriculums de sus trabajadores y sus correspondientes rendimientos que tiene medidos de antemano, y la IA ha aprendido que las mujeres rinden menos, y que las de colegios femeninos directamente se tocan el papo a dos manos.
Si tenemos en cuenta que una IA no es más que una red neuronal con pesos, que al final se reduce a pura matemática, la conclusión no es sólo clara, si no imparcial, e inapelable. Lo digo por si alguien aún piensa que esto de las IAs es "magia". No, es pura matemática.
#48 Es obvio que esos datos tendrán el mismo nivel de sesgos que la procedencia que tienen, es de suponer que bastante alto, dado que intervienen seres humanos con prejuicios en prácticamente todas las fases del proceso. Lo único que podría no estar sesgado son partes de la evaluación del rendimiento que estén totalmente automatizadas, y automatizadas de forma no sesgada, dicho sea de paso. Si ya es difícil evitar los sesgos en estudios científicos a doble ciego, es fácil de imaginar el nivel de sesgo que pueden tener los datos en ámbitos como este.
#28 el contraste menor dentro del área comúnmente conocida como cara no tiene nada que ver en el análisis de imagen xD
#50 Te puedo dar otros ejemplos, pero si vas a venir con tu libro a poner caras riéndote paso de intentar tener una conversación.
#55 da la casualidad que justo he currado en ese campo. Mierda cámara + bajo contraste = "ruido"
#61 Un humano puede distinguir perfectamente si una persona negra es mujer o hombre, los mejores algoritmos de ahora fallan el 30% de las veces (para blancos es el 1% o así). Tu teoría podría explicar unas diferencias más pequeñas. No es por el contraste sino por la falta de ejemplos para clasificarlo:
news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelli

Aquí otro paper sobre sesgos en la IA:
homes.cs.washington.edu/~my89/publications/bias.pdf
#67 estoy hablando del paso anterior a la IA. La adquisición de datos, el paso de "hacer ver" al programa, donde el sesgo es imposible de meter.

En este paso, la información que obtienes es peor por la propia naturaleza de una cámara. Cuánta luz hace falta para distinguir la cara de alguien blanco? Cuánta más luz hace falta para alguien no tan blanco?

Ahora añade que lo quieres hacer en tiempo real con una cámara de mierda (mi caso) pues pasa que curiosamente falla más con "ciertos colores"
#70 Sí, caras con menos contraste son más dificiles de reconocer. Ahora bien, la IA reconoce mejor el sexo de una cara que un humano para una cara blanca; pero falla el 30% para una cara negra (un humano ni de coña falla 30%). Eso no es por el tipo de imagen sino por el tipo de datos.

La IA se basa en millones de imagenes, y para negros no existen.
#55 Pero en ese ejemplo tiene razón. Lo de la clasificación de fotos de negros como de simios no tiene nada que ver con el racismo, por ejemplo. Pero cuando uno tiene prejuicios, quiere demostrar sus teorías aunque choquen con la realidad. ¿Verdad?
#28 Es cierto, apenas hay millones de fotos de negros con que poder entrenar el reconocimiento facial.
#28 "La IA refleja los sesgos de la sociedad, ya que los datos para entrenarla vienen de ahí."

Mmmmm... esa afirmación sí que tiene sesgo.
#28 En seguros de Auto, el sexo es un factor claro: las mujeres toman menos riesgos.

Pues bien, como eso era discriminación, se dictaminó que había que subir las primas de seguros a las mujeres.


www.theguardian.com/money/blog/2017/jan/14/eu-gender-ruling-car-insura


Y ha sido peor.
#28 Menuda pamplina. Amazon habrá entranado esta IA con los datos de los curriculums de sus empleados actuales, y el rendimiento que le da cada uno (que llevan tiempo midiendo según los envíos que saca adelante cada uno). Así que, de "sesgos de sociedad", nada de nada, si no datos contantes y sonantes. Tampoco hay que ser un genio, ni usar una IA, para darse cuenta que los varones tienen mejor orientación espacial y más fuerza física, hechos que ayudan sin duda a ser más productivos localizando objetos y empaquetándolos.
#28 Las tecnologías tienden a responder a las necesidades del grupo dominante. A las IAs les cuesta reconocer caras oscuras en buena parte porque el período de prueba se hizo principalmente con gente blanca y se dio por bueno con ese estándar (me pregunto también, no soy óptico ni artista, si las teces más oscuras representan un problema de contraste).

Ocurrió algo parecido con Kodak y la fotografía en color. Se usaba un estándar, la "Shirley card" que favoreció procesos que reflejaban mejor las teces claras. Cuando se dieron cuenta del problema en Japón a mediados de los 90 empezaron a usar su propio estándar.
#4 Normal. Garbage in, garbage out. :roll:
#4 del heteropatriarcado al heteromachinado...
#4 El heteropatriarcado ha penetrado en la estructura del universo y empozoña toda la materia. Es un constructo subatómico.
Es Inteligencio Artificiol.
Lo que no dice es por qué la IA llegó a la conclusión de que las mujeres de un colegio femenino o las que fueron capitanas de un club de ajuedrez femenino son peores candidatas que los hombres
#7 Ya... esa duda me ha quedado a mi también. Dice algo de que se basa en revisiones de plantillas anteriores que eran mayoritariamente masculinas, pero eso no terminaría de explicar del todo nada.
#8 Tampoco dice si también considera peores candidatos a los que fueron a universidades masculinas o a los que fueron jugadores de fútbol americano en la universidad o el instituto, porque eso significaría que no penaliza a las mujeres, sino ciertos patrones educativos "poco diversos". No sería raro que los considerase "incompletos" socialmente hablando. Me parece muy raro este tipo de sesgo
#11 Sensacionalista y a otra cosa.
#7 Sí que se dan algunas pautas para entender cómo pudo llegar a esas conclusiones:

That is because Amazon’s computer models were trained to vet applicants by observing patterns in resumes submitted to the company over a 10-year period. Most came from men, a reflection of male dominance across the tech industry.

Entiendo que la entrenaron para imitar los patrones de contratación empleados por humanos (la mayoría de ellos hombres) durante un periodo de diez años. Si en su mayoría…   » ver todo el comentario
#8 Hay por ahí estudios en los que dicen que las mujeres tienden a escribir curriculos más extensos y con palabras más "colaborativas", mientras que los hombres tienden a usar términos más enérgicos, tipo "dirigir" o "liderar". Puede ser que el programa haya aprendido a premiar las combinaciones más frecuentes o más relacionadas con los empleados actuales. Aquí un estudio de una experta en machine learning sobre el tema, por si aporta alguna idea nueva: fortune.com/2015/03/26/the-resume-gap-women-tell-stories-men-stick-to-
#7 #8 #148 Es el principio de "garbage in, garbage out". Al final, estos sistemas están limitados por los datos con los que se entrenan, y en este caso los datos están generados por los candidatos que entregan sus currículums y por los empleados de recursos humanos que toman las decisiones.

Si los empleados tienen sesgos, el programa también, y además es muy difícil, por no decir imposible, "engañar" al sistema para que ignore esos sesgos (vease #86).
#7 Lo que no dice es por qué la IA llegó a la conclusión de que las mujeres de un colegio femenino o las que fueron capitanas de un club de ajuedrez femenino son peores candidatas que los hombres

Entrenamiento por redes neuronales. Es como funcionan estas cosas.

Se le dan ejemplos reales de curriculums y mediciones de productividad hasta que a partir del curriculum es capaz de predecir con la mayor fiabilidad posible la productividad del candidato.

Lo que habrán hecho es darle un multiplicador de productividad a las mujeres, para que tienda a obtener más mujeres. No hay mucho más que puedan hacer, trastear dentro de una red neuronal es imposible.
#26
Lo que habrán hecho es darle un multiplicador de productividad a las mujeres

Discriminación positiva en IA?
#118 jajajaj se te ve puesto en el tema.

Las mejores explicaciones de #26 y #40
#7 Las razones por las que un sistema IA adquiere unos pesos determinados (que es lo que luego marca su comportamiento) no se pueden saber, del mismo modo que no pueden interpretarse esos pesos. Es una de las limitaciones de este tipo de técnicas. Lo que sí sabemos es que el sesgo observado es fruto de un sesgo en los datos. Osea que, o la recogida de datos no es objetiva, o las mujeres tienen un rendimiento peor (siempre en promedio). Lo más probable es que sea una combinación de ambas.
#40 Perdona, si los datos indicasen que los hombres son mejores en algo a las mujeres ¿Consideras eso sesgo en los datos?
Es que no me queda claro de donde sacas que los datos con los que han alimentado la IA están sesgados.
#65 El concepto de sesgo en los datos no tiene que significar que haya un "sesgo cognitivo". Lo que quiero decir es que si la IA está penalizando a las mujeres, es porque los datos, en su conjunto, resumen que las mujeres rinden peor. Lo interesante es que esto no tiene porqué verse a simple vista.

La razón por la que se produce ese sesgo en los datos puede ser que los datos hayan sido recogidos con criterios poco objetivos (por ejemplo, la opinión de jefes de equipo), pudiendo ser un reflejo de una discriminación. Otra posible razón (si los datos se han recogido objetivamente) es que las mujeres rindan peor.

Yo no sé cómo se han recogido los datos, así que sólo puedo especular con posibles causas.
#69 Lo que quiero decir es que si la IA está penalizando a las mujeres, es porque los datos, en su conjunto, resumen que las mujeres rinden peor
¿No consideras entonces la opción más obvia que justificaría el sesgo humano y el de la IA?
Que en X tareas las mujeres sean mejores y en otras peores. Y lo mismo con los hombres.
#94 Claro, es que es algo que se retroalimenta. Si las mujeres rinden peor, sus jefes perciben que rinden peor, y entonces dan peores informes. Y luego, quizá, los indicadores objetivos también las penalizan, por lo que estarían penalizadas por partida doble. Pero si hubiese un cierto machismo injusto, también podría reflejarse.

En general, es un tema complejo. Creo que esta IA, además, se usaba para perfiles técnicos, donde los hombres suelen destacar.
#69 Por eso sería importante ver de que datos obtiene el sesgo y si son erróneos o no. O programar a la IA para que pueda contestar: ¿Por qué prefieres a hombres frente a mujeres? Y que nos diera ella la razón (ella, je, je, je, la inteligencia artifical)
#97 Una red neuronal no puede hacer eso. Es el motivo por el que las considero inútiles.
#69 puede ser que los datos hayan sido recogidos con criterios poco objetivos (por ejemplo, la opinión de jefes de equipo),

Puede ser, pero esos jefes humanos aplicarán sesgos humanos, y eso implica puntuar mejor a las mujeres (respecto de un criterio no segado) por el solo hecho de serlo.

En cualquier caso, si lo que se programa es que la IA escoja a los candidatos que serán mejor evaluados por sus jefes, eso es lo que obtendrás. Hay que saber qué es lo que se quiere.
#40 No se trata de que las mujeres rindan menos (que puede que lo hagan, pero no es el elmento relevante aquí). Si rindieran menos, pero tuvieran un curriculum que correla con ese rendimiento menor, la red neuronal no haría diferencias.

Si penaliza a las mujeres, lo que muestra es que ha aprendido que el curriculum de una mujer tiende a estar hinchado en comparación a su productividad. Y muy probablemente sea debido a las cuotas.

Me apuesto lo que quieras a que si pudieran meter la raza del candidato (o cualquier otro elemento sobre el que haya cuotas) ocurriría lo mismo.
#7 por ningún motivo, solo por ser mujeres. Como entiendo el artículo (leído rápidamente, perdón si simplifico) se fijaba en los términos, nada más. Es decir, cogía los cvs, veía más de lo que le interesaba en hombres y luego generalizaba y quitaba valor a las mujeres, solo por el hecho de serlo. Es decír, si llegaba una crack sí o sí iba a quedar por debajo que un igual masculino, al haber generalizado sobre las capacidades de los candidatos según la variable sexo.

Ha ocurrido con el sexo, pero podría haber sido ser de Madrid, pelirrojo o ser de metro y medio, siempre que apareciese en su CV.
#7 unqualified candidates were often recommended for all manner of jobs, the people said. With the technology returning results almost at random, Amazon shut down the project

Vamos, que no funcionaba, en general
#7 Lo del colegio es bastante simple.

Si eres el mejor del colegio, lo eres de los dos sexos. Si eres el mejor del colegio femenino (o masculino), eres el mejor de solo el 50% cuando el otro es el mejor del 100% de la población.

A grandes rasgos puedo entender perfectamente el sesgo; yo también apostaría por alguien que vaya a un colegio mixto a falta de conseguir más información sobre los candidatos.
#7 A lo mejor es que la IA ha llegado a la conclusión de que nada bueno puede salir de una "universidad femenina". Que aquí nos quejamos del Opus y su segregación por sexos pero allí lo llevan al sigueinte nivel. :-S

¿Os imagináis lo que pasaría si a alguien se le ocurriera hacer una universidad masculina?
#7 si hubieran sido suficientemente buenas habrían hecho un equipo de ajedrez mixto, no veo que los genitales externos te perjudiquen en esta competición, si tuvieron que desdoblar el equipo es que no entraban en los margenes del (probablemente existente antes) equipo masculino... así como hipótesis
#7 Tal vez a la IA le pareció raro que los sujetos X del colegio sólo para sujetos X tienen una mayor probabilidad de tomarse una baja médica de unos 9 meses que deriva en una época de menor productividad... y asumió que el colegio X produce trabajadores defectuosos :shit:
Es lo que ocurre cuando revisas los datos en bruto.
Todo el que haya sido responsable de un grupo de personas en el trabajo sabe por experiencia que las mujeres causan más problemas que los hombres, pero no lo dirá porque está mal visto.
#10 Al menos en albañilería, pesca de altura y minería eso no es verdad.
#12 Tú has trabajado en pocas obras con mujeres albañiles.
#17 Albañilas
#17 seguramente, porque no es una profesión con mucha presencia de mujeres. A eso se refiere, creo.
#17 Yo no he visto ni una en mi vida.
#39 Yo conozco a una.
#90 Y seguramente sea mas tío que tía.
#12 Una pena que trabajar en la mina estuviese prohibido para las mujeres hasta el 96, seguro que de no ser así habría muchas más elpais.com/diario/2006/05/14/domingo/1147578758_850215.html
#10 Pues no será en mi empresa, que me callo.
Y no soy precisamente el feminista radical de la web.
#10 no ha sido mi experiencia, tampoco puedo decir que los hombres sean más problemáticos.
#10 Puedes dar datos de estudios que muestren que los equipos con mujeres trabajan peor?
#29 no creo que pueda, porque ese tipo de estudios no se permiten :-)
#32 Por supuesto que se permiten, no digas chorradas. Anda que no hay gente trabajando en como funcionan los groupos en función de la diversidad: scholar.google.nl/scholar?hl=en&as_sdt=0,5&q=gender+diversity+

Venga te pongo uno abierto al azar: gap.hks.harvard.edu/impact-gender-diversity-performance-business-teams

"Teams with an equal gender mix perform better than male-dominated teams in terms of sales and…   » ver todo el comentario
#36 el que tu me enseñas no trata de demostrar que los equipos con mujeres trabajan peor, si no todo lo contrario. Los que no se permiten son los puedan sugerir cualquier tipo de ventaja masculina.
Ejemplo:
quillette.com/2018/09/07/academic-activists-send-a-published-paper-dow
#49 Es bastante largo, me puedes mandar un resumen?

Si un paper tiene resultados novedosos y con unos métodos fiables no te lo rechazan. Las revistas quieren esa publicidad.
#58 a las revistas que iban a publicarlo les cayó todo el aparato mediático de género en los huevos, y se tiraron atrás.
El resumen (eres un poco vago, por cierto :): Entre un grupo grande de hombres, tiende a haber más estúpidos y más genios, que entre un grupo de mujeres, que no llegan tanto a los extremos.
#76 Gracias por el resumen. Dónde está el paper? Me gustaría leerlo.
#58 Mentira. Se da el caso de un paper aceptado y a punto de publicarse, creo que con premio y todo, que por presión de feministas se retiró y de censuró en otros medios.
#58 Por desgracia se conocen muchos casos de estudios que llegan a conclusiones no feministas y se impide su publicación, o peor: se exige que se censure parte de las conclusiones para que puedan ser publicados.

No es que "mientan", solo que no dicen toda la verdad.
#36 Los estudios feministas siempre están permitidos. La pega es que las concluisiones las sabes antes de que empiece el estudio, por lo que es tirar el dinero.
#29 ¿no te vale el de la noticia? La IA asoció factores asociados a ser mujer con una menor productividad. Parece bastante objetivo.
#37 No es en absoluto objetivo. La IA aprende de la sociedad. Si la sociedad cree que las mujeres son peores, la IA aprenderá a discriminar a las mujeres. La IA discrimina contra negros y cree que los hombres lavando platos son mujeres. Si quieres te puedo mandar referencias.
#41 si por que seguro que Amazon entrena a su IA con post de forocoches y programas de 13tv
#41 Negativo por decir tonterías sin fundamento.
#41 no, no aprende con los criterios de la sociedad, sino con las variables de entrada y las condiciones de validación del resultado. Esta IA puede estar sesgando porque las variables de que analiza sean solo de rendimiento individuales y no tengan en cuenta cómo afecta el individuo al grupo.
#44 "Second, their members scored higher on a test called Reading the Mind in the Eyes, which measures how well people can read complex emotional states from images of faces with only the eyes visible."

Resumiendo, el estudio se centra en una habilidad que se le da mejor a las mujeres. Si para puntuar el rendimiento se hubiera puntuado lo bien que se caza un ciervo hubiera ganado los grupos con mas hombres.
#29 ¿Quién iba a financiarlos? :-D
#10 Aparentemente los datos refutan tus observaciones. La principal causa es una mayor inteligencia social y emocional para trabajar en equipo.
#38 Aparentemente estamos aprendiendo a escribir con google translator.
#10 Fuente? Tiendo a desconfiar de frases falaces del estilo de "Todo el mundo sabe que..."
#10 Yo soy antifeminazi premium.

Y tengo compañeras en las que confío al 200%, super trabajadoras, compañeras de las de verdad que no te dejan en la estacada nunca y tengo otras que son para darles de hostias y no parar. Lo mismo pasa con los tíos.

El sexo creo que aquí no pinta nada.
#10 De ahí el viejo chiste:

¿Qué hacen tres neuronas en el cerebro de una mujer? Juntarse dos y criticar a la otra. :troll:
#10 xD Claro que sí, todo el que no diga cosas con las que tú estás de acuerdo, no es porque no las piensa, sino porque no se atreve...

Qué subiditos estáis algunos.
#10 el problema puede estar en la selección de personal o en la falta de liderazgo de cara al sexo opuesto. Cada persona es un mundo y obviamente hay hombres muy torpes que no sabe tratar con mujeres.
#10 Tengo amplia experiencia. No estoy de acuerdo. Hay un caso en el que sí que eso es cierto: Las mujeres que han sido ascendidas para cumplir con cuotas sexuales. Esas son todo un problema cuando están en su puesto.

Siendo hombre, que supongo que influye, las relaciones personales en el trabajo son mucho más fáciles con otros hombres. Con las mujeres tambén me entiendo, pero es un esfuerzo notablemente mayor. Esto se podría interpretar diciendo que las mujeres son más problemáticas. Esto lo digo en general, porque hay mujeres que no, que nada.

Lo que mejor me ha funcionado jamás es intentar ligar y dejar que me rechacen. Esto rompe un montón de cosas en la relación que antes estaban por el medio y despues no están.
#10 Toda mujer que haya trabajado en un ambiente mayoritariamente masculino sabe que la mayoría de los hombres son machistas, te valoran menos por ser mujer y tienden a ver antes tu culo que tu capacidad de trabajo, pero no lo dirá porque está mal visto.
Hombre el haber estado segregadas durante su educación a mi me parece algo que echaría para atrás tanto a hombres como a mujeres.

Habiendo otros/as candidatos que han estudiado en universidades normales, me parece normal que cuente como hándicap.
#14 no solo eso, las cinco universidades femeninas que quedan en EEUU tienen sobre todo programas de estudio de artes y estudios de género. Quizás en una empresa privada interese menos ese tipo de perfil, por ejemplo si buscan programadores una mujer que haya estudiado en el MIT o en CalTech será mejor que otra mujer que haya estudiado en Vassar o Barnard.

¡Que ni Lisa Simpson quería ir a Vassar! Y eso que es ya mixta pero con pocos hombres.
Amazon (mythology: female warrior).
"The company’s experiment, which Reuters is first to report, offers a case study in the limitations of machine learning."

Me encanta cuando periodistas que no tienen ni puñetera idea de lo que están hablando se ponen a emitir juicios de valor. :roll:
#16 pues tiene razón: ha demostrado que resulta más difícil doblegarla a criterios subjetivos.
Los sesgos y la inteligencia van de la mano, aspirar a tener una inteligencia sin sesgos es una utopía.
#18 Bueno, el sesgo es una forma de ver la falta de inteligencia, se puede ver al revés. Si tienes sesgos no tienes una inteligencia "completa".
#25 Existe la inteligencia innata, que tienen todas las personas actúen como actúen por el mero hecho de tener un cerebro que funciona, y luego está lo que reconocemos socialmente como inteligencia y que está fundamentada en el ejercicio en tareas específicas y habitualmente en la demostración de cierto nivel educativo.

Cuando afirmamos socialmente que alguien es muy inteligente o que es muy estúpido nos referimos a esto último, a cómo dentro de los cánones sociales aplican esa inteligencia…   » ver todo el comentario
#82 Algunas veces es una lástima poder poner solo un positivo.
#82 Un debate interesantísimo con un pannel de un nivel que por aquí cerquita ni se ve ni se espera.

He cambiado mi punto de vista sobre el efecto de la cultura en la cognición.

Estamos más jodidos de lo supuesto.
Esto me recuerda a cuando se decía de mandar curriculums sin foto ni nombre y resulta que al final haciéndolo así seleccionaban todavía más a hombres, por lo que tiraron para atrás.
#22 ¿Fuente?
#22 En USA está mal visto incluir tu foto en el CV y para ofertas de trabajo público es motivo de rechazo del candidato.
#22 En Australia hicieron una "seleccion automática" para evitar el sesgo y resultó que contrataban todavía más hombres.

(llevo un rato buscando esa noticia, pero he visto que #60 ya la ha puesto)

Me huelo a que este caso es algo parecido. Como los resultados nos han sido políticamente correctos y ha seleccionado más hombres, ahora hay que buscar la excusa de que la máquina es sexista.

Y creo que aquí no lo ha planteado nadie: Quizá lo que esto evidencie es que en "la vida real" se privilegia a las mujeres aunque estén menos preparadas.
#22 Hasta donde sé es algo que se sigue haciendo mucho en el mundo anglosajón ¿fuente?
Así empezó Skynet. Primero mujeres (Sarah Connor), luego hombres... y al final la humanidad entera.
#23 Calla chivato >:-(
#23 ¿Y no incluye "mujeres y hombres" a la humanidad entera? ¡Ah no, es verdad!
#43 Cierto, está el colectivo LGTBXYZKHRMNOPQRabcdefghijklmnopqrstuvwxyz.

Me he asegurado de no dejarme ninguna letra para que no me puedan acusar...

¡ Cono, me falta una !
#23 Skynet fue a por Sarah Connor al no poder cargarse a John Connor "en el futuro" y cuando va a por ellos ya lleva tiempo en guerra con la humanidad :troll:
A la IA hay que entrenarla por lo que si el entrenamiento fue con modelos sesgados, los resultados van a estar sesgados. Ahora, si los modelos estaban bien quiere decir que... :roll:
Si vas a construir una IA para procesos de selección de candidatos, lo mejor que puede hacerse es volver a los famosos "sistemas expertos" del milenio pasado. Eran poco más que una serie de reglas if-else encadenadas pero al menos sabías exactamente qué pasaba en cada punto del proceso y quién era el responsable.

Las IAs de hoy en día suelen basarse en cantidades absurdas de datos para entrenar modelos de "caja negra" así que, si hay un problema, no puedes terminar el error fácilmente, ni corregirlo. Y si además usas las evaluaciones y métricas de personas con sesgos, al final el modelo los aprende.
#33 El problema de usar un sistema experto es que necesitas a un "experto", y la gente de RRHH lleva años pegando palos de ciego y admitiendo que las técnicas de reclutamiento que usan no valen para tomar por el culo. Por eso se están intentando utilizar sistemas como este.

La clave para evitar el sesgo es usar marcadores 100% objetivos, siempre que puedas desarrollarlos, lo que no es necesariamente fácil.
#54 Creo que has dado en el clavo. El problema no es la tecnología en sí, sino decenas de años de malas decisiones por las que ahora se intenta culpar a otros.
#54 como comentaba antes, no es sólo un problema de los marcadores objetivos, sino de qué marcadores se utilizan. Por ejemplo, si la IA fuera para fichar jugadores y solo se valoraran los goles y el precio, esa IA solo ficharía delanteros. En este caso, al valorar solo datos objetivos de desempeño INDIVIDUAL aparentemente ganan los hombres como grupo. A lo mejor, es hipótesis, las mujeres mejoran el rendimiento del grupo, pero si no se valoran esas variables, por muy objetivas que sean las otras, los resultados estarán sesgados.
Otra cosa es que sea real esto de beneficiar al grupo, pues por un lado son más empaticas y menos competitivas, pero en mi vida he visto las rencillas y rencores entre las tías de un antiguo curro en el que estuve.
#54 imagina que una empresa enorme digitaliza todos los procesos de selección y los cruza con los indicadores de evaluación de desempeño (la típica revisión anual de objetivos)

Eso querría decir que cree que los hombres van a sacar mejor nota en la evaluación que las mujeres, y es cierto, porque a una mujer de baja por maternidad no se le hace evaluación de desempeño, no cobra comisiones si es comercial...

En EEUU al tener mucho menos permiso de maternidad que en España depende de si Amazon lo mejora o no.
#33 reinventar la rueda pero con más palabrería molona xD
#33 Pues no le veo mucha gracia a un sistema en el que un humano decida las sentencias condicionales. Al menos con un sistema caja negra puede ser que obtengas algo que no hayas pensado tú previamente.
#33 Enfrenta tu sistema experto con una IA basada en Deep Learning, Algoritmos genéticos o similares... Si por algo está avanzando la IA es precisamente porque un sistema experto no es inteligencia en absoluto, son simples reglas hechas a mano por un programador. Las redes neuronales en cierta forma aprenden de la experiencia y pueden adaptarse a ciertos cambios. Tienen pegas como todo (sesgo de datos como ya han dicho), pero permiten encontrar patrones que un humano no puede, o que le costaría demasiado tiempo.
Esta noticia te dice lo que tus prejuicios mandan, si eres machista pensarás que las mujeres son inferiores, si eres programador podrás intuir que quizás hayan pasado éstos sus sesgos a la inteligencia artificial.
#42 Eso no funciona así. La IA no está programada para gestionar los datos de una manera concreta. Ella auto evalúa los datos de entrada y en función de eso busca correlaciones y factores predominantes para identificar los mejores candidatos. Y de alguna manera (sin intervención humana) ha llegado a la conclusión que los candidatos cuyo perfil se intuye que es femenino serán peores empleados.
#75 Intervención humana tiene: los datos de entrada.
#88 #75 Quizás lo evalúe en términos puramente económicos.
#42 Soy informático, tengo unas nociones mínimas de los fundamentos de las redes neuronales y su entrenamiento y problemas relacionados, y te digo no tiene nada que ver con "sus sesgos".
Pues esto tiene 2 opciones:
1. El modelo es incorrecto y da resultados incorrectos
2. El modelo es correcto y da resultados correctos que son politicamente incorrectos
#45 Un modelo generado automáticamente a partir de datos creados por humanos no es "incorrecto", pero los datos van a reflejar los sesgos de los humanos y por lo tanto el modelo también.
A nadie más le llama la atención que haya universidades femeninas en EEUU? Aquí no segregan por sexos ni las del OPUS.
La IA ha aprendido rápido que no puedes fiarte de seres que sangran por la vagina durante 5 días y no mueren.
Es lógico, probablemente la IA se limitaba a buscar el mejor candidato para las empresas y usa los mismos baremos discriminatorios que ellas, sobre todo en lo referente a "cargas familiares", o a la disponibilidad y capacidad de dedicación a la empresa.
Así que, a esto se referían con lo de "La robótica nos va a quitar puestos de trabajo" :troll:
#63 Por culpa de lo de abajo.
weaponsofmathdestructionbook.com/
libro que estoy leyendo ahora mismo. Es mas que interesante y habla de temas como este.
No deis a las feministas un motivo para que no permitan avanzar a las IA sin que ellas metan mano o tendremos un retraso que ni la santa inquisición causaba en su época :wall:
#74 con la ciencia hemos topado amigo. :-/ Me temo que la nueva Inquisición no permitirá el avance científico.
Esto es debido a que amazon
Quiere gente buena en tecnología
La cosa cambiaría
Si reclutase gente para una guardería

Si has estudiado magisterio
No encontrarías trabajo
Porque entre las piernas
Te cuelga tu pene para abajo
#80 Eres todo un poeta
#80 abajo no me gusta, queda mejor badajo
Borrado
Hay varios casos de IA con sesgos. Lo bueno sería realmente estudiar el motivo por el que se producen estos sesgos. Que datos han llevado a la IA a juzgar con sesgo. Porque por algún motivo habrá llegado a esa conclusión la IA. Es un tema de la IA o es un tema de los datos con que se nutre a la IA. ¿Con que datos se nutre a la IA?
¿Si mostrase sesgo contra los hombes estaría bien?
#95 Pues claro. nadie quiere proteger a los hombres, solo a las mujeres.
#95 Leticia dolera se tatuaria el logo de amazon en la teta izquierda. :troll:
La mayoría de las grandes empresas tienen sistemas de filtrado automático. Reciben cientos de CVs al día y utilizan este tipo de algoritmos para decidir cuales merecen ser evaluados.
Así que si tenéis más de 40 años y estáis hartos de mandar vuestro CV y que no os llamen de una oferta, pensad en este tipo de noticias y que posiblemente vuestra candidatura ni siguiera les ha llegado a los de recursos hunanos.
#96 También es momento para recordar que en vuestros CV solo se debería poner lo que le interesa a uno poner :roll:.
«123

menéame