Hace 5 años | Por SemosOsos a reuters.com
Publicado hace 5 años por SemosOsos a reuters.com

En efecto, el sistema de Amazon aprendió que los candidatos masculinos eran preferibles. Se penalizaron los currículos que incluían la palabra "mujeres", como en "capitán del club de ajedrez para mujeres". Y degradó a los graduados de dos universidades femeninas, según personas relacionadas con el tema. No especificaron los nombres de las universidades. Amazon cambió los programas para hacerlos neutrales a estos términos particulares. Pero eso no era garantía de que las máquinas no idearan otras formas de clasificar a los candidatos...

Comentarios

b

#4 Y falocentrista

D

#5 E inteligente! lol

g

#4 Pues sí, si lo dice The Guardian ...

Women must act now, or male-designed robots will take over our lives
https://www.theguardian.com/commentisfree/2018/mar/13/women-robots-ai-male-artificial-intelligence-automation

D

#13 Yo quiero robots femeninos, que cocinen y la chupen.

D

#100 Espérame que voy

D

#100 Me pasa constantemente y aplico el remedio obvio. De todos modos ahí va algo de karma.

Ofendiditos, sois un problema en MNM y un gran peligro para la sociedad.

i

#100 te pongo un positivo por si te sirve

Battlestar

#66 Cuidado, los SJW ya están en el caso y no les gusta nada que los robots se fabriquen basándose en el sistema binario de hombre-mujer

http://archive.is/lTy2D [eng]

D

#66, y lo de cocinar no urge tanto

apetor

#66 Tendria que haber robots chupadores para ellos y ellas

De hecho...

KarmaBajoCero

#66 Y aunque no cocinen...

D

#13 If a non-diverse workforce is creating them, they are more prone to be implanted with unexamined, undiscussed, often unconscious assumptions and biases about things such as race, gender and class.

En realidad es todo lo contrario. El equipo del que habla la notícia ha intentado eliminar un sesgo y no lo ha conseguido.

Porque no era un sesgo sino su ausencia, y lo que realmente estaban haciendo era obligar a la IA a aplicar el sesgo que les molaba, lo que es mucho más difícil.

D

#48 La ausencia de datos de un grupo produce sesgos muy dificil de corregir. Si la IA ve que el 99% de las fotos con gente lavando platos son mujeres, creerá que la foto con un hombre lavando platos es una mujer.

Pero tienes razón en que faltan datos en la noticia para saber por qué se han creado esos sesgos.

D

#52 Tampoco soy yo un experto en procesamiento de imágenes, pero me consta que la IA está bastante lejos de ser capaz de reconocer algo tan preciso como que en una foto se vea a una persona lavando platos. Distinguir el sexo probablemente sí se haya conseguido.

Los modelos de este tipo tienen parámetros de convergencia. Yo no sé qué modelo han usado. Con un modelo de regresión (que no entra dentro de la IA) tienes un p-valor que te indica si el peso asociado a un factor (por ejemplo, el peso asociado a ser hombre o mujer) es significativo. Así, si tienes muy pocas mujeres en tu modelo, el p-valor lo que va a hacer es indicarte que no te puedes fiar de ese parámetro, porque no tienes bastante tamaño muestral. No se introduce ningún sesgo, símplemente el modelo fracasa al entrenarse.

Priorat

#73 Reconocer el sexo de una persona es más difícil que el hecho de que esté lavando platos. ¿Tú reconoces el sexo de cualquier otro animal que no sea un homo sapiens por su cara? Es de lo más difícil reconocer si una persona es masculina o femenina por su cara.

D

#91 Insisto en que no soy un experto en el tema, pero me sonaba que había trabajos sobre reconocimiento del sexo de la persona a través de la cara.

https://link.springer.com/article/10.1007/s11263-006-8910-9

Ahora te toca a ti encontrar el reconocimiento de lavado de platos :P.

Gry

#91 la cámara del móvil de mi pareja acierta razonablemente bien el sexo y la edad de quien enfocas.

D

#91 A mi me cuesta lo suyo con algunos humanos.

S

#73 Hay IA que te dicen en texto lo que se ve en una imagen. Por ejemplo: https://www.captionbot.ai/
#48 Todo depende de como entrenes el algoritmo. Si en vez de mujer en esas fotos, pones persona, ¿ya deja de tener sesgo? En ciertas ocasiones es más tema de semántica que de otra cosa y de los datos disponibles.

PD: Las IA no creen nada, dejemos de humanizar estas herramientas.

jarenare

#52 Estás suponiendo que se le ha entrenado con datos sesgados, lo que es mucho suponer. Dudo mucho que Amazon alimente su IA, en la que habrá metido esfuerzo y dinero, con datos sesgados para luego retirarla. Lo que sí puede pasar es que las discriminaciones positivas lleven a que una mujer con el mismo currículo que un hombre tenga peor desempeño en el trabajo, porque ha llegado a ese punto mediante ayudas.

D

#84 Me imagino que hayan entrenado a la IA con los datos de los CV de los candidatos rechazados y aceptados. Esos candidatos rechazados fueron rechazados porque a la persona responsable le pareció así. Si esas personas responsables tienen un sesgo la IA lo va a replicar y va a ser muy dificil corregirlo.

P

#48 #84 ¿Alguno os habéis leído el artículo? Dice exactamente cómo se entrenó la IA y si, eran datos sesgados:

That is because Amazon’s computer models were trained to vet applicants by observing patterns in resumes submitted to the company over a 10-year period. Most came from men, a reflection of male dominance across the tech industry.

d

#52 ¿Y no crees que si la IA ve que el 99% de mujeres analizadas son menos productivas va a creer que efectivamente son menos productivas? El posible sesgo no puede venir de ahí.

vixia

#48 Este es un problema del que se ha hablado mucho, recomiendo esta columna de hace dos años: https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem.html

Menciona además un estudio de ProPublica sobre el software con el que algunos juzgados en EEUU determinan las penas y posibilidades de reincidencia de criminales, y que por sistema declaraba que los criminales negros tenían el doble de posibilidades de reincidir que los blancos. Que el software puede ser mejor que un humano es discutible, pero que hay que monitorizar y cambiar "humanamente" los sesgos también.

D

#72 Es que a la IA hay que cogerla con pinzas, porque es una herramienta que, por más que lleve la palabra "inteligencia" integrada en ella, de inteligente tiene poco.

Este tipo de técnicas son una forma perfeccionada de los modelos de regresión clásicos, y están diseñadas para predecir en base a ciertas variables, tras haberse entrenado con datos. Los problemas de este tipo de modelos son incontables. Por ejemplo: 1) Suponen una "linealidad" en los datos que no existe en la realidad (los sistemas IA corrigen esta suposición de linealidad, a cierto coste); 2) Suponen una "inmutabilidad" en los procesos que gobiernan los datos, siendo incapaces de prever cambios (por ejemplo, cambios sociales, como que los negros dejen de delinquir tanto); 3) Sólo reflejan las variables que se les dan como entrada, de modo que si hay algún factor importante que el investigador no contempla, el modelo nunca advertirá de ello, tratando de ajustarse lo mejor posible a los datos.

Usar modelos de IA está bien, pero nunca debe dejarse que estos tengan plena autonomía en la toma de decisiones, y menos en aspectos sociales como estos.

D

#48 Es obvio que esos datos tendrán el mismo nivel de sesgos que la procedencia que tienen, es de suponer que bastante alto, dado que intervienen seres humanos con prejuicios en prácticamente todas las fases del proceso. Lo único que podría no estar sesgado son partes de la evaluación del rendimiento que estén totalmente automatizadas, y automatizadas de forma no sesgada, dicho sea de paso. Si ya es difícil evitar los sesgos en estudios científicos a doble ciego, es fácil de imaginar el nivel de sesgo que pueden tener los datos en ámbitos como este.

box3d

#28 el contraste menor dentro del área comúnmente conocida como cara no tiene nada que ver en el análisis de imagen lol

D

#50 Te puedo dar otros ejemplos, pero si vas a venir con tu libro a poner caras riéndote paso de intentar tener una conversación.

box3d

#55 da la casualidad que justo he currado en ese campo. Mierda cámara + bajo contraste = "ruido"

D

#61 Un humano puede distinguir perfectamente si una persona negra es mujer o hombre, los mejores algoritmos de ahora fallan el 30% de las veces (para blancos es el 1% o así). Tu teoría podría explicar unas diferencias más pequeñas. No es por el contraste sino por la falta de ejemplos para clasificarlo:
http://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212

Aquí otro paper sobre sesgos en la IA:
https://homes.cs.washington.edu/~my89/publications/bias.pdf

box3d

#67 estoy hablando del paso anterior a la IA. La adquisición de datos, el paso de "hacer ver" al programa, donde el sesgo es imposible de meter.

En este paso, la información que obtienes es peor por la propia naturaleza de una cámara. Cuánta luz hace falta para distinguir la cara de alguien blanco? Cuánta más luz hace falta para alguien no tan blanco?

Ahora añade que lo quieres hacer en tiempo real con una cámara de mierda (mi caso) pues pasa que curiosamente falla más con "ciertos colores"

D

#70 Sí, caras con menos contraste son más dificiles de reconocer. Ahora bien, la IA reconoce mejor el sexo de una cara que un humano para una cara blanca; pero falla el 30% para una cara negra (un humano ni de coña falla 30%). Eso no es por el tipo de imagen sino por el tipo de datos.

La IA se basa en millones de imagenes, y para negros no existen.

D

#55 Pero en ese ejemplo tiene razón. Lo de la clasificación de fotos de negros como de simios no tiene nada que ver con el racismo, por ejemplo. Pero cuando uno tiene prejuicios, quiere demostrar sus teorías aunque choquen con la realidad. ¿Verdad?

f

#28 Es cierto, apenas hay millones de fotos de negros con que poder entrenar el reconocimiento facial.

Joice

#28 "La IA refleja los sesgos de la sociedad, ya que los datos para entrenarla vienen de ahí."

Mmmmm... esa afirmación sí que tiene sesgo.

D

#28 En seguros de Auto, el sexo es un factor claro: las mujeres toman menos riesgos.

Pues bien, como eso era discriminación, se dictaminó que había que subir las primas de seguros a las mujeres.


https://www.theguardian.com/money/blog/2017/jan/14/eu-gender-ruling-car-insurance-inequality-worse


Y ha sido peor.

squanchy

#28 Menuda pamplina. Amazon habrá entranado esta IA con los datos de los curriculums de sus empleados actuales, y el rendimiento que le da cada uno (que llevan tiempo midiendo según los envíos que saca adelante cada uno). Así que, de "sesgos de sociedad", nada de nada, si no datos contantes y sonantes. Tampoco hay que ser un genio, ni usar una IA, para darse cuenta que los varones tienen mejor orientación espacial y más fuerza física, hechos que ayudan sin duda a ser más productivos localizando objetos y empaquetándolos.

D

#28 Las tecnologías tienden a responder a las necesidades del grupo dominante. A las IAs les cuesta reconocer caras oscuras en buena parte porque el período de prueba se hizo principalmente con gente blanca y se dio por bueno con ese estándar (me pregunto también, no soy óptico ni artista, si las teces más oscuras representan un problema de contraste).

Ocurrió algo parecido con Kodak y la fotografía en color. Se usaba un estándar, la "Shirley card" que favoreció procesos que reflejaban mejor las teces claras. Cuando se dieron cuenta del problema en Japón a mediados de los 90 empezaron a usar su propio estándar.

D

#4 Normal. Garbage in, garbage out. roll

minardo

#4 del heteropatriarcado al heteromachinado...

D

#4 El heteropatriarcado ha penetrado en la estructura del universo y empozoña toda la materia. Es un constructo subatómico.

neotobarra2

#22 ¿Fuente?

D

#22 En USA está mal visto incluir tu foto en el CV y para ofertas de trabajo público es motivo de rechazo del candidato.

Frippertronic

#22 Hasta donde sé es algo que se sigue haciendo mucho en el mundo anglosajón ¿fuente?

JohnBoy

#7 Ya... esa duda me ha quedado a mi también. Dice algo de que se basa en revisiones de plantillas anteriores que eran mayoritariamente masculinas, pero eso no terminaría de explicar del todo nada.

GatoMaula

#11 Sensacionalista y a otra cosa.

vixia

#8 Hay por ahí estudios en los que dicen que las mujeres tienden a escribir curriculos más extensos y con palabras más "colaborativas", mientras que los hombres tienden a usar términos más enérgicos, tipo "dirigir" o "liderar". Puede ser que el programa haya aprendido a premiar las combinaciones más frecuentes o más relacionadas con los empleados actuales. Aquí un estudio de una experta en machine learning sobre el tema, por si aporta alguna idea nueva: http://fortune.com/2015/03/26/the-resume-gap-women-tell-stories-men-stick-to-facts-and-get-the-advantage/

sotanez

#7 #8 #148 Es el principio de "garbage in, garbage out". Al final, estos sistemas están limitados por los datos con los que se entrenan, y en este caso los datos están generados por los candidatos que entregan sus currículums y por los empleados de recursos humanos que toman las decisiones.

Si los empleados tienen sesgos, el programa también, y además es muy difícil, por no decir imposible, "engañar" al sistema para que ignore esos sesgos (vease #86).

D

#26
Lo que habrán hecho es darle un multiplicador de productividad a las mujeres

Discriminación positiva en IA?

Sr.No

#118 jajajaj se te ve puesto en el tema.

Las mejores explicaciones de #26 y #40

D

#7 Las razones por las que un sistema IA adquiere unos pesos determinados (que es lo que luego marca su comportamiento) no se pueden saber, del mismo modo que no pueden interpretarse esos pesos. Es una de las limitaciones de este tipo de técnicas. Lo que sí sabemos es que el sesgo observado es fruto de un sesgo en los datos. Osea que, o la recogida de datos no es objetiva, o las mujeres tienen un rendimiento peor (siempre en promedio). Lo más probable es que sea una combinación de ambas.

D

#40 Perdona, si los datos indicasen que los hombres son mejores en algo a las mujeres ¿Consideras eso sesgo en los datos?
Es que no me queda claro de donde sacas que los datos con los que han alimentado la IA están sesgados.

D

#65 El concepto de sesgo en los datos no tiene que significar que haya un "sesgo cognitivo". Lo que quiero decir es que si la IA está penalizando a las mujeres, es porque los datos, en su conjunto, resumen que las mujeres rinden peor. Lo interesante es que esto no tiene porqué verse a simple vista.

La razón por la que se produce ese sesgo en los datos puede ser que los datos hayan sido recogidos con criterios poco objetivos (por ejemplo, la opinión de jefes de equipo), pudiendo ser un reflejo de una discriminación. Otra posible razón (si los datos se han recogido objetivamente) es que las mujeres rindan peor.

Yo no sé cómo se han recogido los datos, así que sólo puedo especular con posibles causas.

D

#69 Lo que quiero decir es que si la IA está penalizando a las mujeres, es porque los datos, en su conjunto, resumen que las mujeres rinden peor
¿No consideras entonces la opción más obvia que justificaría el sesgo humano y el de la IA?
Que en X tareas las mujeres sean mejores y en otras peores. Y lo mismo con los hombres.

D

#94 Claro, es que es algo que se retroalimenta. Si las mujeres rinden peor, sus jefes perciben que rinden peor, y entonces dan peores informes. Y luego, quizá, los indicadores objetivos también las penalizan, por lo que estarían penalizadas por partida doble. Pero si hubiese un cierto machismo injusto, también podría reflejarse.

En general, es un tema complejo. Creo que esta IA, además, se usaba para perfiles técnicos, donde los hombres suelen destacar.

Priorat

#69 Por eso sería importante ver de que datos obtiene el sesgo y si son erróneos o no. O programar a la IA para que pueda contestar: ¿Por qué prefieres a hombres frente a mujeres? Y que nos diera ella la razón (ella, je, je, je, la inteligencia artifical)

D

#97 Una red neuronal no puede hacer eso. Es el motivo por el que las considero inútiles.

D

#69 puede ser que los datos hayan sido recogidos con criterios poco objetivos (por ejemplo, la opinión de jefes de equipo),

Puede ser, pero esos jefes humanos aplicarán sesgos humanos, y eso implica puntuar mejor a las mujeres (respecto de un criterio no segado) por el solo hecho de serlo.

En cualquier caso, si lo que se programa es que la IA escoja a los candidatos que serán mejor evaluados por sus jefes, eso es lo que obtendrás. Hay que saber qué es lo que se quiere.

D

#40 No se trata de que las mujeres rindan menos (que puede que lo hagan, pero no es el elmento relevante aquí). Si rindieran menos, pero tuvieran un curriculum que correla con ese rendimiento menor, la red neuronal no haría diferencias.

Si penaliza a las mujeres, lo que muestra es que ha aprendido que el curriculum de una mujer tiende a estar hinchado en comparación a su productividad. Y muy probablemente sea debido a las cuotas.

Me apuesto lo que quieras a que si pudieran meter la raza del candidato (o cualquier otro elemento sobre el que haya cuotas) ocurriría lo mismo.

D

#7 por ningún motivo, solo por ser mujeres. Como entiendo el artículo (leído rápidamente, perdón si simplifico) se fijaba en los términos, nada más. Es decir, cogía los cvs, veía más de lo que le interesaba en hombres y luego generalizaba y quitaba valor a las mujeres, solo por el hecho de serlo. Es decír, si llegaba una crack sí o sí iba a quedar por debajo que un igual masculino, al haber generalizado sobre las capacidades de los candidatos según la variable sexo.

Ha ocurrido con el sexo, pero podría haber sido ser de Madrid, pelirrojo o ser de metro y medio, siempre que apareciese en su CV.

daaetur

#7 unqualified candidates were often recommended for all manner of jobs, the people said. With the technology returning results almost at random, Amazon shut down the project

Vamos, que no funcionaba, en general

D

#7 Lo del colegio es bastante simple.

Si eres el mejor del colegio, lo eres de los dos sexos. Si eres el mejor del colegio femenino (o masculino), eres el mejor de solo el 50% cuando el otro es el mejor del 100% de la población.

A grandes rasgos puedo entender perfectamente el sesgo; yo también apostaría por alguien que vaya a un colegio mixto a falta de conseguir más información sobre los candidatos.

Penetrator

#7 A lo mejor es que la IA ha llegado a la conclusión de que nada bueno puede salir de una "universidad femenina". Que aquí nos quejamos del Opus y su segregación por sexos pero allí lo llevan al sigueinte nivel.

¿Os imagináis lo que pasaría si a alguien se le ocurriera hacer una universidad masculina?

zenko

#7 si hubieran sido suficientemente buenas habrían hecho un equipo de ajedrez mixto, no veo que los genitales externos te perjudiquen en esta competición, si tuvieron que desdoblar el equipo es que no entraban en los margenes del (probablemente existente antes) equipo masculino... así como hipótesis

jm22381

#7 Tal vez a la IA le pareció raro que los sujetos X del colegio sólo para sujetos X tienen una mayor probabilidad de tomarse una baja médica de unos 9 meses que deriva en una época de menor productividad... y asumió que el colegio X produce trabajadores defectuosos

D

Todo el que haya sido responsable de un grupo de personas en el trabajo sabe por experiencia que las mujeres causan más problemas que los hombres, pero no lo dirá porque está mal visto.

T

#10 Al menos en albañilería, pesca de altura y minería eso no es verdad.

Nathaniel.Maris

#12 Tú has trabajado en pocas obras con mujeres albañiles.

vilgeits

#17 Albañilas

D

#17 seguramente, porque no es una profesión con mucha presencia de mujeres. A eso se refiere, creo.

D

#17 Yo no he visto ni una en mi vida.

SOBANDO

#39 Yo conozco a una.

D

#90 Y seguramente sea mas tío que tía.

vixia

#12 Una pena que trabajar en la mina estuviese prohibido para las mujeres hasta el 96, seguro que de no ser así habría muchas más https://elpais.com/diario/2006/05/14/domingo/1147578758_850215.html

D

#10 Pues no será en mi empresa, que me callo.
Y no soy precisamente el feminista radical de la web.

D

#10 no ha sido mi experiencia, tampoco puedo decir que los hombres sean más problemáticos.

D

#10 Puedes dar datos de estudios que muestren que los equipos con mujeres trabajan peor?

briarreos

#29 no creo que pueda, porque ese tipo de estudios no se permiten

briarreos

#36 el que tu me enseñas no trata de demostrar que los equipos con mujeres trabajan peor, si no todo lo contrario. Los que no se permiten son los puedan sugerir cualquier tipo de ventaja masculina.
Ejemplo:
https://quillette.com/2018/09/07/academic-activists-send-a-published-paper-down-the-memory-hole/

D

#49 Es bastante largo, me puedes mandar un resumen?

Si un paper tiene resultados novedosos y con unos métodos fiables no te lo rechazan. Las revistas quieren esa publicidad.

briarreos

#58 a las revistas que iban a publicarlo les cayó todo el aparato mediático de género en los huevos, y se tiraron atrás.
El resumen (eres un poco vago, por cierto :): Entre un grupo grande de hombres, tiende a haber más estúpidos y más genios, que entre un grupo de mujeres, que no llegan tanto a los extremos.

D

#76 Gracias por el resumen. Dónde está el paper? Me gustaría leerlo.

D

#58 Mentira. Se da el caso de un paper aceptado y a punto de publicarse, creo que con premio y todo, que por presión de feministas se retiró y de censuró en otros medios.

D

#58 Por desgracia se conocen muchos casos de estudios que llegan a conclusiones no feministas y se impide su publicación, o peor: se exige que se censure parte de las conclusiones para que puedan ser publicados.

No es que "mientan", solo que no dicen toda la verdad.

D

#36 Los estudios feministas siempre están permitidos. La pega es que las concluisiones las sabes antes de que empiece el estudio, por lo que es tirar el dinero.

D

#29 ¿no te vale el de la noticia? La IA asoció factores asociados a ser mujer con una menor productividad. Parece bastante objetivo.

D

#37 No es en absoluto objetivo. La IA aprende de la sociedad. Si la sociedad cree que las mujeres son peores, la IA aprenderá a discriminar a las mujeres. La IA discrimina contra negros y cree que los hombres lavando platos son mujeres. Si quieres te puedo mandar referencias.

vjp

#41 si por que seguro que Amazon entrena a su IA con post de forocoches y programas de 13tv

D

#41 Negativo por decir tonterías sin fundamento.

vacuonauta

#41 no, no aprende con los criterios de la sociedad, sino con las variables de entrada y las condiciones de validación del resultado. Esta IA puede estar sesgando porque las variables de que analiza sean solo de rendimiento individuales y no tengan en cuenta cómo afecta el individuo al grupo.

l

#44 "Second, their members scored higher on a test called Reading the Mind in the Eyes, which measures how well people can read complex emotional states from images of faces with only the eyes visible."

Resumiendo, el estudio se centra en una habilidad que se le da mejor a las mujeres. Si para puntuar el rendimiento se hubiera puntuado lo bien que se caza un ciervo hubiera ganado los grupos con mas hombres.

HaCHa

#29 ¿Quién iba a financiarlos?

D

#10 Aparentemente los datos refutan tus observaciones. La principal causa es una mayor inteligencia social y emocional para trabajar en equipo.

D

#38 Aparentemente estamos aprendiendo a escribir con google translator.

j

#10 Fuente? Tiendo a desconfiar de frases falaces del estilo de "Todo el mundo sabe que..."

D

#10 Yo soy antifeminazi premium.

Y tengo compañeras en las que confío al 200%, super trabajadoras, compañeras de las de verdad que no te dejan en la estacada nunca y tengo otras que son para darles de hostias y no parar. Lo mismo pasa con los tíos.

El sexo creo que aquí no pinta nada.

Penetrator

#10 De ahí el viejo chiste:

¿Qué hacen tres neuronas en el cerebro de una mujer? Juntarse dos y criticar a la otra.

neotobarra2

#10 lol Claro que sí, todo el que no diga cosas con las que tú estás de acuerdo, no es porque no las piensa, sino porque no se atreve...

Qué subiditos estáis algunos.

D

#10 el problema puede estar en la selección de personal o en la falta de liderazgo de cara al sexo opuesto. Cada persona es un mundo y obviamente hay hombres muy torpes que no sabe tratar con mujeres.

D

#10 Tengo amplia experiencia. No estoy de acuerdo. Hay un caso en el que sí que eso es cierto: Las mujeres que han sido ascendidas para cumplir con cuotas sexuales. Esas son todo un problema cuando están en su puesto.

Siendo hombre, que supongo que influye, las relaciones personales en el trabajo son mucho más fáciles con otros hombres. Con las mujeres tambén me entiendo, pero es un esfuerzo notablemente mayor. Esto se podría interpretar diciendo que las mujeres son más problemáticas. Esto lo digo en general, porque hay mujeres que no, que nada.

Lo que mejor me ha funcionado jamás es intentar ligar y dejar que me rechacen. Esto rompe un montón de cosas en la relación que antes estaban por el medio y despues no están.

Findopan

#10 Toda mujer que haya trabajado en un ambiente mayoritariamente masculino sabe que la mayoría de los hombres son machistas, te valoran menos por ser mujer y tienden a ver antes tu culo que tu capacidad de trabajo, pero no lo dirá porque está mal visto.

Valverdenyo

Es Inteligencio Artificiol.

J

Pues esto tiene 2 opciones:
1. El modelo es incorrecto y da resultados incorrectos
2. El modelo es correcto y da resultados correctos que son politicamente incorrectos

sotanez

#45 Un modelo generado automáticamente a partir de datos creados por humanos no es "incorrecto", pero los datos van a reflejar los sesgos de los humanos y por lo tanto el modelo también.

g

"The company’s experiment, which Reuters is first to report, offers a case study in the limitations of machine learning."

Me encanta cuando periodistas que no tienen ni puñetera idea de lo que están hablando se ponen a emitir juicios de valor. roll

D

#16 pues tiene razón: ha demostrado que resulta más difícil doblegarla a criterios subjetivos.

L

Hombre el haber estado segregadas durante su educación a mi me parece algo que echaría para atrás tanto a hombres como a mujeres.

Habiendo otros/as candidatos que han estudiado en universidades normales, me parece normal que cuente como hándicap.

E

#14 no solo eso, las cinco universidades femeninas que quedan en EEUU tienen sobre todo programas de estudio de artes y estudios de género. Quizás en una empresa privada interese menos ese tipo de perfil, por ejemplo si buscan programadores una mujer que haya estudiado en el MIT o en CalTech será mejor que otra mujer que haya estudiado en Vassar o Barnard.

¡Que ni Lisa Simpson quería ir a Vassar! Y eso que es ya mixta pero con pocos hombres.

D

Venga valientes, a quemar karma!!

D

#2 ¿Y por qué Amazon ha retirado su herramienta de IA?
Con haberla prohibido abolido era mas que suficiente...

D

Es lo que ocurre cuando revisas los datos en bruto.

D

No deis a las feministas un motivo para que no permitan avanzar a las IA sin que ellas metan mano o tendremos un retraso que ni la santa inquisición causaba en su época wall

oliver7

#74 con la ciencia hemos topado amigo. Me temo que la nueva Inquisición no permitirá el avance científico.

D

La IA ha aprendido rápido que no puedes fiarte de seres que sangran por la vagina durante 5 días y no mueren.

D

A nadie más le llama la atención que haya universidades femeninas en EEUU? Aquí no segregan por sexos ni las del OPUS.

HimiTsü

La cosa es que a mî, me hace sonrojarme. ( medio risa, medio vergüenza)

sorrillo

#25 Existe la inteligencia innata, que tienen todas las personas actúen como actúen por el mero hecho de tener un cerebro que funciona, y luego está lo que reconocemos socialmente como inteligencia y que está fundamentada en el ejercicio en tareas específicas y habitualmente en la demostración de cierto nivel educativo.

Cuando afirmamos socialmente que alguien es muy inteligente o que es muy estúpido nos referimos a esto último, a cómo dentro de los cánones sociales aplican esa inteligencia innata que viene de meramente tener un cerebro.

Por otro lado están los sesgos, los que son socialmente más reconocidos son aquellos que afectan a la raza, al género o a posiciones políticas, etc. por poner algunos ejemplos.

En ese sentido existen indicios, estudios científicos, que apuntan a que los ciudadanos que entendemos con un nivel educativo superior están más radicalizados en sus posturas políticas, tienen más y mejores herramientas para elegir entre la información la que confirma sus sesgos y justificarse a sí mismos el motivo por el que descartan aquella información que los podría poner en entredicho.

Se habla de ello en este panel y batería de preguntas a uno de los participantes:

[ENG]
[ENG]

T

#82 Algunas veces es una lástima poder poner solo un positivo.

D

#82 Un debate interesantísimo con un pannel de un nivel que por aquí cerquita ni se ve ni se espera.

He cambiado mi punto de vista sobre el efecto de la cultura en la cognición.

Estamos más jodidos de lo supuesto.

reithor

Amazon (mythology: female warrior).

systembd

Si vas a construir una IA para procesos de selección de candidatos, lo mejor que puede hacerse es volver a los famosos "sistemas expertos" del milenio pasado. Eran poco más que una serie de reglas if-else encadenadas pero al menos sabías exactamente qué pasaba en cada punto del proceso y quién era el responsable.

Las IAs de hoy en día suelen basarse en cantidades absurdas de datos para entrenar modelos de "caja negra" así que, si hay un problema, no puedes terminar el error fácilmente, ni corregirlo. Y si además usas las evaluaciones y métricas de personas con sesgos, al final el modelo los aprende.

systembd

#54 Creo que has dado en el clavo. El problema no es la tecnología en sí, sino decenas de años de malas decisiones por las que ahora se intenta culpar a otros.

vacuonauta

#54 como comentaba antes, no es sólo un problema de los marcadores objetivos, sino de qué marcadores se utilizan. Por ejemplo, si la IA fuera para fichar jugadores y solo se valoraran los goles y el precio, esa IA solo ficharía delanteros. En este caso, al valorar solo datos objetivos de desempeño INDIVIDUAL aparentemente ganan los hombres como grupo. A lo mejor, es hipótesis, las mujeres mejoran el rendimiento del grupo, pero si no se valoran esas variables, por muy objetivas que sean las otras, los resultados estarán sesgados.
Otra cosa es que sea real esto de beneficiar al grupo, pues por un lado son más empaticas y menos competitivas, pero en mi vida he visto las rencillas y rencores entre las tías de un antiguo curro en el que estuve.

E

#54 imagina que una empresa enorme digitaliza todos los procesos de selección y los cruza con los indicadores de evaluación de desempeño (la típica revisión anual de objetivos)

Eso querría decir que cree que los hombres van a sacar mejor nota en la evaluación que las mujeres, y es cierto, porque a una mujer de baja por maternidad no se le hace evaluación de desempeño, no cobra comisiones si es comercial...

En EEUU al tener mucho menos permiso de maternidad que en España depende de si Amazon lo mejora o no.

box3d

#33 reinventar la rueda pero con más palabrería molona lol

i

#33 Pues no le veo mucha gracia a un sistema en el que un humano decida las sentencias condicionales. Al menos con un sistema caja negra puede ser que obtengas algo que no hayas pensado tú previamente.

M

#33 Enfrenta tu sistema experto con una IA basada en Deep Learning, Algoritmos genéticos o similares... Si por algo está avanzando la IA es precisamente porque un sistema experto no es inteligencia en absoluto, son simples reglas hechas a mano por un programador. Las redes neuronales en cierta forma aprenden de la experiencia y pueden adaptarse a ciertos cambios. Tienen pegas como todo (sesgo de datos como ya han dicho), pero permiten encontrar patrones que un humano no puede, o que le costaría demasiado tiempo.

D

Esto es debido a que amazon
Quiere gente buena en tecnología
La cosa cambiaría
Si reclutase gente para una guardería

Si has estudiado magisterio
No encontrarías trabajo
Porque entre las piernas
Te cuelga tu pene para abajo

D

#80 Eres todo un poeta

D

#80 abajo no me gusta, queda mejor badajo

D

Esta noticia te dice lo que tus prejuicios mandan, si eres machista pensarás que las mujeres son inferiores, si eres programador podrás intuir que quizás hayan pasado éstos sus sesgos a la inteligencia artificial.

D

#42 Eso no funciona así. La IA no está programada para gestionar los datos de una manera concreta. Ella auto evalúa los datos de entrada y en función de eso busca correlaciones y factores predominantes para identificar los mejores candidatos. Y de alguna manera (sin intervención humana) ha llegado a la conclusión que los candidatos cuyo perfil se intuye que es femenino serán peores empleados.

Priorat

#75 Intervención humana tiene: los datos de entrada.

D

#88 #75 Quizás lo evalúe en términos puramente económicos.

D

#42 Soy informático, tengo unas nociones mínimas de los fundamentos de las redes neuronales y su entrenamiento y problemas relacionados, y te digo no tiene nada que ver con "sus sesgos".

D

La mayoría de las grandes empresas tienen sistemas de filtrado automático. Reciben cientos de CVs al día y utilizan este tipo de algoritmos para decidir cuales merecen ser evaluados.
Así que si tenéis más de 40 años y estáis hartos de mandar vuestro CV y que no os llamen de una oferta, pensad en este tipo de noticias y que posiblemente vuestra candidatura ni siguiera les ha llegado a los de recursos hunanos.

D

#96 También es momento para recordar que en vuestros CV solo se debería poner lo que le interesa a uno poner roll.

s

A la IA hay que entrenarla por lo que si el entrenamiento fue con modelos sesgados, los resultados van a estar sesgados. Ahora, si los modelos estaban bien quiere decir que... roll

powernergia

Es lógico, probablemente la IA se limitaba a buscar el mejor candidato para las empresas y usa los mismos baremos discriminatorios que ellas, sobre todo en lo referente a "cargas familiares", o a la disponibilidad y capacidad de dedicación a la empresa.

sorrillo

Los sesgos y la inteligencia van de la mano, aspirar a tener una inteligencia sin sesgos es una utopía.

T

#18 Bueno, el sesgo es una forma de ver la falta de inteligencia, se puede ver al revés. Si tienes sesgos no tienes una inteligencia "completa".

Priorat

Hay varios casos de IA con sesgos. Lo bueno sería realmente estudiar el motivo por el que se producen estos sesgos. Que datos han llevado a la IA a juzgar con sesgo. Porque por algún motivo habrá llegado a esa conclusión la IA. Es un tema de la IA o es un tema de los datos con que se nutre a la IA. ¿Con que datos se nutre a la IA?

c

https://weaponsofmathdestructionbook.com/
libro que estoy leyendo ahora mismo. Es mas que interesante y habla de temas como este.

c

Así empezó Skynet. Primero mujeres (Sarah Connor), luego hombres... y al final la humanidad entera.

D

#23 Calla chivato

D

#23 ¿Y no incluye "mujeres y hombres" a la humanidad entera? ¡Ah no, es verdad!

D

#43 Cierto, está el colectivo LGTBXYZKHRMNOPQRabcdefghijklmnopqrstuvwxyz.

Me he asegurado de no dejarme ninguna letra para que no me puedan acusar...

¡ Cono, me falta una !

Wir0s

#23 Skynet fue a por Sarah Connor al no poder cargarse a John Connor "en el futuro" y cuando va a por ellos ya lleva tiempo en guerra con la humanidad

SOBANDO

¿Si mostrase sesgo contra los hombes estaría bien?

D

#95 Pues claro. nadie quiere proteger a los hombres, solo a las mujeres.

Ramsay_Bolton

#95 Leticia dolera se tatuaria el logo de amazon en la teta izquierda.

jarenare

Borrado

D

Así que, a esto se referían con lo de "La robótica nos va a quitar puestos de trabajo"

D

#63 Por culpa de lo de abajo.

1 2 3