Hace 5 años | Por HarrySeldon a xataka.com
Publicado hace 5 años por HarrySeldon a xataka.com

De acuerdo a una nueva investigación del MIT y la Universidad de Cardiff, algunos robots impulsados por inteligencia artificial serían capaces de "desarrollar prejuicios contra otros robots cuando están trabajando juntos". Aunque aquí hay que mencionar que esto dependerá del contexto y la situación en concreto, este comportamiento es muy parecido a lo que ocurre en los grupos de trabajo de los humanos.

Comentarios

m

#2 [...] Los primeros resultados de la investigación mostraron que los robots copiaron estrategias que les dieron una mejor recompensa en el corto plazo, lo que indicaba que la alta capacidad cognitiva no era algo determinante para poder "desarrollar prejuicios". [...]

Curioso artículo. Intenta transmitir que lo que denomina "prejuicios" son perjudiciales y que hasta los robots basados en IA los desarrollan, pero en cambio indica que este hecho les resultó beneficioso a los robots.

m

#13 Pero eso es tu opinión, yo hablo del estudio.

In a game of give and take, each individual makes a decision as to whether they donate to somebody inside of their own group or in a different group, based on an individual's reputation as well as their own donating strategy, which includes their levels of prejudice towards outsiders.

Lo que dice es que los individuos toman nota de la reputación del resto de grupos y del suyo propio, y que en función de eso, en el futuro lo tendrá en cuenta / tomará nota de cara a relacionarse con esos otros grupos, lo cual no parece mala estrategia.

El estudio también dice que desde un principio mezclas todos los grupos, entonces no hay prejuicios hacia otros grupos, lo cual es obvio porque si partes de todos los grupos mezclados es como decir que no hay tales.

La cuestión, más allá de tu ejemplo, es que la realidad es que la sociedad está dividida en grupos, y no hablo de blancos y negros, sino de grupos de poder, grupos empresariales, grupos políticos, etc. Y tratar de inculcar la idea de que por ejemplo las eléctricas, o las empresas de telefonía, o tal monarquía, o éste o el otro partido político se han comportado de manera ruín, corrupta o inmoral no implica que se deba tener cuidado con otros del mismo grupo, me resulta cuanto menos poco inteligente.

En resumen, que cuando hablan de prejuicios, si te lees el artículo, en realidad están hablando de experiencia, de cultura de grupo, y a menos que ésta esté sesgada (que podría, pero no tiene por qué) lejos de ser un dolor de muelas como tú intentas dar a entender, es una información valiosa para el grupo. Y como siempre se formará algún grupo antes o después, decirles al resto de individuos que está feo usar esa información no deja de ser pedirles que jueguen en desventaja. Nada de problemas bucales...

D

#50 Tienes razón. Sólo puntualizar que por prejuicio yo entiendo el tener una opinión o una tendencia anterior a tener la experiencia. Que para algo es un pre-juicio Si ya hay experiencia previa deja de ser por definición un prejuicio.

m

#51 Y en eso tienes toda la razón del mundo. Creo que en el título metieron prejuicios porque vendía más, y quiero pensar que conocen la diferencia, pero si realmente se refieren a prejuicios, entonces es que han sacado las conclusiones que les ha dado la gana. En la entradilla usan otro término, y ése está mejor empleado:

Computer science and psychology experts suggest discrimination is also a non-human phenomenon that could make autonomous machines susceptible

Obvio. Es que ni IA ni humanos hacen falta: Si un mosquito te intenta picar y le tratas de aplastar con la zapatilla, el mosquito no desarrolla prejuicios contra las personas que le acerquen una zapatilla, el mosquito simplemente no es imbécil y claro que discriminará y la siguiente vez que otra persona se la acerque, recordará el "ZÁS" rozando sus alas.

anor

#4 Ea cierto, quien tiene el prejuicio cree estar en posesion de la verdad. Solo si otros le hacen ser conscientes de que lo que creen verdad no lo es, pueden abamdonar su prejuicio, pero es no es nada facil, sobre todo si esta en grupo con los mismos prejuicios.

c

Titular tonto de la semana.

Priorat

#3 ¿Por qué?

D

#3 premio al “comentario cero razonamiento” de la semana

c

#20 Hablar de que una IA desarrolla "prejuicios" en el sentido humano es una bobada. Una IA desarrollará lo que le indiquen en la programación.

Esta investigación consistió en el desarrollo de un simulador de trabajo en equipo, una especie de juego con dos grupos de robots autónomos, cada uno tenía el objetivo de donar objetos ya sea a otros robots de su propio equipo o a los del otro bando, esto basándose en la reputación de cada robot y las estrategias de donación.

D

#21 No, no lo es.

La programación de una IA está pensada para que sea capaz de buscar datos, analizar información y adaptarse al resultado. Si una IA tiene prejuicios no significa que fue programada con ellos, sino que ha desarrollado prejuicios a partir de los datos que la propia IA ha recabado y lo que podríamos llamar "las experiencias que ha tenido".

c

#24 Nanay. Si no la programas para que "adquiera prejuicios" no los adquiere.

D

#42 La programas para que interactúe con los datos que obtiene y aprenda lo que da resultado y lo que no. Si durante este proceso los prejuicios le funcionan o confirman los datos, los adquirirá.

c

#49 Pero no todos los datos y tampoco aprende sacando conclusiones de esos datos para las que no fue programada.

Por eso eso de que "adquiere prejuicios" es una bobada. Los adquiere porque así se le ha dirigido.

D

#55 No, el algoritmo no le indica los prejuicios, en todo caso le indica la metodología para sacar conclusiones (que generalmente es asignar más valor a los resultados que contribuyen al fin de los que no contribuyen o lo hacen negativamente, o directamente cargarse las líneas que contribuían menos). Una IA avanzada ya no necesita ser alimentada por sus programadores, está preparada para leer datos directamente de Internet, por tanto no puedes culpar a los programadores de alimentarla solo con datos erróneos.

Entonces sí que adquiere prejuicios. Había sido programada sin ellos, ha buscado los datos más fiables con su propia definición de fiabiidad (probablemente las fuentes que haya encontrado más fiables en el pasado) y ha llegado a conclusiones prejuiciosas.

c

#56 Ya. El algorimo no le indica "prejuicios" y la IA tampoco adquiere "prejuicios". Saca conclusiones según se. le ha indicado.

Yo no hablo de que al programa se. le "alimente con datos erroneos", simplemente indico qie la IA sigue su programa. Una obviedad que se omite...

No, no adquiere prejuicios. Saca conclusiones según el programa. Tu mismo lo dices al principio.

D

#57 Pero si esas conclusiones las consideramos prejuiciosas, nosotros podemos decir que ha adquirido prejuicios.

Al final un sistema de aprendizaje por redes neuronales no es tan distinto de un aprendizaje humano. Si no podemos decir que una IA adquiere prejuicios, podríamos decir lo mismo de un ser humano, que solo saca conclusiones según su cerebro está preparado para hacerlo.

c

#58 Por supuesto. El lenguaje es muy flexible.

Efectivamente, las redes neuronales intentan imitar el aprendizaje humano. El ser humano es infinitamente más complejo. Por supuesto que los prejuicios son resultado de "conclusiones", la diferencia es el volumen de datos de entrada infinitamente mayor que en cualquier IA y los múltiples procesos sobre los mismos, también infinitamente superiores a cualquier IA.

El origen de los prejuicios humanos es mucho más complejo....

voidcarlos

#21 No sé, tú diseñas una red neuronal convolucional con decenas de input y varias capas, y difícilmente le estarás diciendo gran cosa en la programación.

c

#29 Y si solo haces eso, tendrás unos circuitos que no hacen nada.

voidcarlos

#41 Al contrario, solo hay que hacer eso, y enchufarle el entrenamiento, a ver qué aprende el sistema.

c

#43 De eso nada. Hace falta un programa.

voidcarlos

#44 Bueno, no sé de qué hablas exactamente, pero de las redes neuronales que he desarrollado yo, no se necesita nada más. Es un tema apasionante, ya que la red neuronal va aprendiendo con el entrenamiento a semejanza de como lo podría hacer un cerebro humano.

c

#45 Software. Hablo de software.

Necesitas software. Sin software no hay aprendizaje, ni red neuronal, ni nada de nada.

voidcarlos

#46 Obviamente la red neuronal está sustentada sobre un framework, pero ese software no tiene la capacidad de indicar qué prejuicio desarrolla la red neuronal.

c

#47 No, pero le. da. la. pisibilidad de desarrollar prejuicios. La noticia ya indica que la red neuronal está diseñada para eso.

Lo curioso sería que el piloto automático de un Tesla desarrollara prejuicios sobre el comportamiento social de los inmmigrantes, por ejemplo. Eso si sería noticiable....

Rorschach_

#38 Y la persecución en 'Bullit' con dos marcas en competencia... Ford y Dodge.

Rorschach_

#38 Me callo la boca...

'... para los más observadores, al ver el Ford Mustang dando tumbos de acá para allá, saltará a la vista que le falta en su calandra delantera y en su parte posterior el caballo salvaje galopante que da nombre al modelo. La razón fue una decisión del propio Steve McQueen que era además del protagonista, productor de la película. Le sentó muy mal que él se jugara los cuartos y que Ford no quisiese ceder sus vehículos ni invertir en un proyecto donde uno de sus modelos iba a quedar inmortalizado para los restos.

Así que ni corto ni perezoso, les quitó a las dos unidades utilizadas en rodaje cualquier distintivo que los identificara para no hacerle a Ford todavía más publicidad gratuita.'
http://www.eleconomista.es/ecomotor/motor/noticias/5912986/07/14/Por-que-el-teniente-Frank-Bullitt-camuflo-su-Ford-Mustang.html

#53

blodhemn

R2D2 porque le haces ésto a C3PO (pero mira que eres cabrón).

T

Las inteligencias artificiales tienen dos defectos, vulnerabilidades, talones de aquiles, lo que sea:

1- Están "programadas" por humanos.
2- Son "alimentadas" por humanos.

Tienen un 100% de posibilidades de reproducir lo más básico de los humanos (porque no dan para mucho más aún) Por eso son bastante buenas para tareas muy acotadas, aunque sean complejas, pero son inútiles para nada medianamente humano.

squanchy

#8 Has dejado claro que no tienes ni puta idea de lo que es una inteligencia artificial. Felicidades. El primer zasca, que tus puntos 1 y 2 son en realidad el mismo punto.

T

#18 Claro que si, maestro Ng. Lo que usted diga.

Rorschach_

'Yo, robot'

D

#9 A esa película estaría bien que le hicieran una limpieza (fuera publicidad, por ejemplo). Igual hasta quedaría bien y todo. Después de todo, salen las cuatro leyes

Rorschach_

#14 No recuerdo que publi lleva, quizá la Ducati, pero vamos, que eso por ejemplo sale en cualquier película, serie, el coche de fulanito o el de menganito...

D

#15 Converse y Audi como poco y bien descarado

Rorschach_

#25 Claro, pero por eso te decía que si no es un Chevrolet, es un no sé qué, aquí fue un Audi, en algo se tiene que desplazar y las monedas son las monedas.
Sí, los de las zapas es algo más traído por lo pelos pero bueno...

D

#30 Lo de Audi fue una escena bastante larga donde se centraba bastante la cámara en la calandra del coche, a pesar de no venir a cuento.

Conde_Lito

#9 Tú, robot, y aquí el mío.

Rorschach_

#34 El mío tiene doble cerebro positrónico.

Conde_Lito

#35 Con tanto positrón le ha dado cortocircuíctus y se le ha quedado paralizada la parte derecha del cuerpo, ni el ojo puede abrir. lol

Rorschach_

#37 Touche! lol

D

Los prejuicios no son más que juicios u opiniones basados en experiencias previas.

Es extremadamente lógico que una IA, para ahorrar en el procesamiento de información se base en esos hechos anteriores para prever el resultado final de cualquier operación. Y además tienen la ventaja de que por realizar esta cadena de comandos no les van a llamar racistas.

Noctuar

#16 No necesariamente en experiencias propias. Los prejuicios pueden ser simplemente creencias heredadas mediante imitación, educación o adoctrinamiento.

D

Entonces es que van por el buen camino...

ayatolah

Esto acerca a Rober Bodegas a ser sustituido por una inteligencia artificial.

squanchy

#6 "Esto era un payo que no..." (leer con voz de Stephen Hawking).

D

Sin embargo no todo está perdido. Ya que dentro del mismo experimento se encontró que el prejuicio se puede reducir cuando hay una mayor cantidad de "subpoblaciones" dentro de los grupos de trabajo. Es decir, al tener una mayor variedad de robots no se generan alianzas perjudiciales, ya que se disminuye la condición de minoría y todos cooperan entre sí, reduciendo así la susceptibilidad al prejuicio.
Divide y vencerás (en este caso, conseguirás que los robots sean mas eficientes en su tarea global). Recuerda al individualismo operante, cada vez mas, en las sociedades modernas.

D

Abran conocido a la población de bots de menéame

D

#7 ¡Dios Santo, lo que han visto mis pobres ojos!

D

#26 ¡Madre De Dios! Me acabo de dar cuenta. Por esto si que me merezco un baneo y no por insultar.

Es que no se puede arreglar de ninguna manera. Me dan ganas de darme de vaja para que comentarios como estos desaparezcan.

Me merezco lo del chiste del Guardia Civil.

D

Entre esto y la de la IA de Microsoft que empezó a decir cosas racistas, no sé, a ver si vamos a ser nosotros los que estamos equivocados

sinozzuke

A mi este comentario me ha dejado flipado:
Esta noticia, tal como está escrita, es falsa, y es un ejemplo más de la tergiversación a la que nos tienen acostumbrados los medios de comunicación con tal de obtener sensacionalismo a base de mezclar robots, inteligencia artificial y atribuir a los robots características de comportamiento humano que no tienen.

Algún medio ha fantaseado (por no decir mentido) con la noticia original y los demás medios han ido copiando el despropósito. Si leéis la publicación original de la investigación:
https://www.nature.com/articles/s41598-018-31363-z
veréis que no habla ni de robots ni de inteligencia artificial.

No se utilizan robots sino 'agentes', que son un pequeño programa de ordenador que se replica muchas veces y se hace interactuar con otros agentes. La programación es programación clásica (se incluye el pseudocódigo en el artículo) y se basa en un algoritmo genético. Es cierto que algunas personas consideran los algoritmos genéticos como una rama de la inteligencia artificial, pero también es cierto que datan de los años 70 del siglo pasado, y en aquel entonces a cualquier desarrollo que se saliese de la informática habitual se le llamaba inteligencia artificial. Creo que los algoritmos genéticos entran más dentro de los algoritmos de optimización y de búsqueda de soluciones a problemas intratables por otros medios, pero no me atrevería a llamarlos inteligencia artificial.

https://www.xataka.com/robotica-e-ia/grupo-robots-autonomos-ai-desarrollaron-prejuicios-al-trabajar-equipo-nuevo-estudio-mit#c1286478

D

Que cansinas son las IAS, solo les supera Carmena.

cocainomano

Xatakamierda deberia estar bloqueado en meneame, que asco de weblogs y su basura