Hace 3 años | Por JanSmite a uv.es
Publicado hace 3 años por JanSmite a uv.es

Un estudio sobre ilusiones visuales en redes neuronales artificiales, en el que participa la Universitat de València, revela que la percepción artificial no elimina las subjetividades y los sesgos propios del cerebro humano. Que las máquinas pueden equivocarse en su percepción de la realidad, como lo hacen las personas, es una de las principales conclusiones de un trabajo recientemente publicado en la revista Vision Research.

Relacionada: Una cámara controlada por IA confunde la cabeza de un árbitro calvo con el balón y fastidia la emisión del partido
Hace 3 años | Por mr_b a xataka.com
Publicado hace 3 años por mr_b
a xataka.com

La inteligencia artificial, el reconocimiento de objetos y otros avances ha permitido que las grabac [...]

Comentarios

D

#8 Ahí lo bonito del asunto, que de forma colateral incluso se replican nuestras debilidades o carencias

neotobarra2

#1 #4 No me he leído el artículo aún. Así que no sé si esto va de lo que decís vosotros o de lo que dice #6. Desde luego si es el segundo caso, ya le vale a #0 poner ese "relacionada" en la entradilla, porque invita a pensar que se trata de simples errores como lo que decís vosotros, y no de sesgos ni de nada equiparable a la psique humana.

Ahora bien, lo que dicen #6 y #8 también es cierto, y resulta más interesante. Ya se dio un caso de una IA a la que enseñaron a contratar personal, y que acabaron deshabilitando porque discriminaba a las mujeres. Aquí todo el mundo criticaba que esa decisión era fruto de las presiones feministas o de la ideología de género, que obligaba a actuar en contra de la realidad incluso cuando era una IA (que no podía ser machista) la que contrataba a hombres y descartaba a las mujeres... Y luego investigabas un poco y veías que a la IA se la había enseñado ofreciéndole los CVs de las personas contratadas en las décadas anteriores. Lógicamente la IA aprendió a hacer lo mismo que se había estado haciendo durante las décadas anteriores: a discriminar a las mujeres.

JanSmite

#14 En realidad, la relacionada sí está relacionada: tomar, percibir, una cosa por otra, sea por apariencia, por forma, por tamaño, etc. Es como cuando vemos la imagen de Gandalf y Frodo sobre el carro cuando el primero llega a Hobbiton: no hay truco digital, han jugado con la perspectiva para que veamos lo que no es, ambos personajes de tamaños diferentes, cuando, en realidad, son aproximadamente del mismo tamaño.

Enlazando con lo que dice #4, es muy probable que el problema sea que le enseñamos a la IA, diseñamos sus algoritmos, para que vean y perciban como lo hacemos nosotros, para que su función se adapte lo más posible a lo que necesitamos. Es decir, seguramente el problema sea que diseñamos la IA a nuestra imagen y semejanza, y por eso su forma de percibir tenga las percepciones ilusorias que tenemos nosotros, o similares.

neotobarra2

#15 No sé, la verdad es que ya he leído el artículo y no me queda claro si va en una dirección o en la otra... Igual no lo he entendido bien.

JanSmite

#18 De hecho, es lo que comenta el artículo: que han hecho las CNN que se encargan de la visión a partir de los sistemas neuronales biológicos, con lo que no es extraño que tengan defectos similares, y proponen un cambio de paradigma.

daTO

#15 ..o no. La estrategia de buscar patrones es básica para cualquier sistema complejo. Ahorra analizar imágenes"píxel por píxel" y permite atajos. Son necesarios, pero a veces se confunden, por ejemplo, las pareidolias. No estoy seguro de que sea exclusivo de humanos.

d

#14 a ver si simplemente elegía a los mejores...

neotobarra2

#16 No, puedes revisarlo, lo he buscado:

https://www.bbc.com/mundo/noticias-45823470

La IA discriminaba a las mujeres simplemente por indicar el CV que pertenecía a una mujer, y lo hacía porque había aprendido que eso es "lo correcto".

d

#17 lo que te digo es que los mejores igual eran hombres. En no sé qué país se hizo lo de currículums a ciegas y resulta que la selección era mayor de hombres, sin saber ni siquiera quién enviaba el currículum. Se anuló la medida porque no era paritaria

l

#19 Hay un tutorial de entrenar un buscador de ropa y complementos con fotos. Sacas la foto y te busca zapatillas o lo que sea.
La entreno y le mostraba zapatillas iguales, pero tambien modelos con las misma postura y ropa del mismo estilo.
Hay que evitar que la IA aprenda cosas que no se buscan y hay trucos: Por ejemplo, duplicar las fotos de entrenamiento haciendo espejo y recortandolas y moviendolas para tener mas fotos de entrenamiento con variaciones.
Tambien hay que enseñarle los fallos. En el caso que dices, mostrandoles negros que no son delicuentes o cocineros que no son mujeres, o hombre con el pelo largo que no son mujeres.

#17 #24 Es tan facil como quitar la edad o foto de los curriculums si quieres que no afecte, aunque tal vez aprenda a distingir sexo por el texto escrito.
Lo hombres pueden eludir la obligaciones familiares y si no tienen mujer no tiene modo de concebir un hijo. Y si es Gay con pareja hombre mejor aun. Para las empresas tiene ventajas reales, pero no deberiamos permitir que las empresas se lucren a costa de las familias.

#11 Hay ataques adversarios que hacen creer a las IA cosas que el ojo humano no puede ver.

d

#27 o tal vez los hombres hacen mejor algunas cosas que las mujeres en general, por aquello del dimorfismo sexual. Y viceversa.

En ciencia no hay que descartar ninguna hipótesis, aunque no parezca paritaria. Las creencias de cada uno en ciertas ideologías no son ciencia.

Rudolf_Rocker

#14 Estuve en una conferencia que hablaba precisamente de eso, y ponian como ejemplo una IA de EEUU que la entrenaron para intentar identificar presuntos delincuentes por su aspecto. Terminaba identificando a todos los negros como delincuentes, porque una IA no es más que un comparador de datos a gran escala, después con tal cantidad de datos calcula la probabilidad y toma una decisión, no puede hacer mas que eso en la actualidad, entonces queda sujestionado ese comparador con los sesgos éticos y morales de los datos que le suministres.

P

#14 Es como lo que dice la Biblia, que "Dios creó al hombre a su imagen y semejanza"

Lo que pasa es que cuando se mira lo que hace otro (la IA) se ven más fácilmente los sesgos que cuando lo hace uno mismo.

Ainur

Llamar "Percepciones ilusorias" desde luego queda mejor que "El algoritmo no es perfecto y a veces se equivoca" ademas de como que le da similitud con la psique humana, que siempre mola, aunque sea mentira.

k

A priori me parecia que seria la tipica mierda de articulo sobre IA y es bastante interesante.

eltoloco

Lo que se ha llamado de toda la vida falso positivo, pero asimilarlo al cerebro humano queda más cool..

t

¿Sueñan los androides con ovejas eléctricas?

systembd

A ver... lo queramos o no, nuestro cerebro es básicamente una gran red neuronal natural que toma valores y los clasifica para poder tomar decisiones rápidamente y con un menor esfuerzo. Los sesgos son debidos a los datos previos que hemos adquirido (y lo que no podemos clasificar, lo consideramos malo o peligroso). No es algo mágico, es algo peor... es matemáticas basadas en química orgánica.

D

Apuntar todo con detalle para cuando tengamos que enfrentarnos a Skynet

Matt-Max

Unos colegas míos hicieron "alucinar" a una IA dándole un prior falso de que había muchos perros:

Spirito

Tal vez, de ahí a la conciencia haya solo unos pocos pasos.

D

Vas a ver tú cuando inventen el LSD para máquinas.

froidl_and_pablob

puede ser, percepciones ilusorias o mal entendidos. Se le desincronizan las neuronas.

froidl_and_pablob

#10 Se puede equivocar por que a veces hay tantos inputs provenientes de tantas fuentes y tiempos distintos que cuesta eliminar el ruido de fondo y se considera por error como otro input. No lo hace con mala intención. Es que la marean.

M

fb me acaba de banear por subir la foto de una calva con implantes en un grupo donde bromeabamos con los pelos del coño y con qué se hacian las cejas de las muñecas.
no he visto la apologia del odio al melón o la calvofobia en sus términos, malditas IAS castradoras.

Rocio_Siri

Cada dia mas cerca de ser sustituidos por maquinas.