Hace 5 años | Por --175549-- a eldiario.es
Publicado hace 5 años por --175549-- a eldiario.es

Racistas, sexistas y hasta convertidos en auténticos psicópatas. Los sistemas de inteligencia artificial que aprenden por sí mismos pueden adquirir los peores prejuicios y rasgos de la personalidad humana al ser entrenados con los datos menos oportunos. Mientras que algunos estudios alertan sobre el problema, empresas tecnológicas como Microsoft y Google se ven afectadas una y otra vez.

Comentarios

JackNorte

Que la mayoria ignoremos las palabras de otros o nuestras propias interpretaciones de la realidad no significa que las ias puedan hacerlo al menos todavia, quizas o necesiten mas datos o una interpertracion global o local o una conjuncion de ambas.
Pero temo que si interpretan de forma literal muchas cosas no les quedara mas remedio que eliminarnos lol.

D

El programa llegó incluso a decir que “Hitler hubiera hecho un mejor trabajo que el mono que tenemos ahora [se refería a Obama]. Donald Trump es nuestra única esperanza”.

lol lol lol lol

La primera frase es sublime: difícil ofender a más gente y con más fuerza con solo una docena de palabras... Con la segunda llama Hitler a Donald Trump de forma muy sibilina.

southern

Siempre que leo artículos de este tipo me pregunto si no será que este tipo de comportamientos totalitarios son una especie de "efecto emergente". En otras palabras, que la "maldad" es un efecto inevitable de la inteligencia. ¿Habéis visto Ex Machina?

southern

#4 Sí, quizá por ahora sí, pero me refería al momento en el que llegásemos a la singularidad.

aunotrovago

#5 #3 #4 Digamos que en el experimento de la IA se desarrollaba la capacidad de aprender desde Internet y alguien ha dicho: bien, probemos a meter también los comentarios.

D

#3 Todo lo contrario, la maldad se asocia con la mezquindad, el paletismo. Si basamos una IA en los paletos que pululan por internet, es lo que hay.
Lo correcto es hacer una IA basada en gente 'buena'.

southern

#5 No creo... ¿no te parece que comportamientos como mentir (que podemos considerar "malo") indican inteligencia? Una inteligencia "real", ¿no haría todo lo posible por su propia subsistencia y la de aquellos de su grupo (comportamientos egoístas, manipulación, racismo,...)?

D

#3 Sí y me encantó.Estamos a 2 o 3 pasos de eso.
Menos para los candidos, en fin habrá de todo.
Viva el neoludismo!!

D

Nazis, nazis por todas partes...

f

#1 bueno, míralo por la parte positiva ... por lo menos la IA no será socialdemócratas .... oh waitt !!

Socavador

Supongo que será como las personas...si te nutres de información de mierda, vas a terminar con los sesos hechos puré y a lo mejor hasta te acabas metiendo en VOX con participación activa...o en una secta que odie a los pitufos.

s

#14 Y se nutren de la basura que suelta la gente por la red para desahogarse de las frustraciones de su vida. Así que las IA acaban padeciendo las "neurosis" de la gente

Priorat

Lo cual nos lleva a que una persona inteligente alimentada con datos sesgados puede ser terrible.

No solo importa la inteligencia, sino los datos que la alimentan.

D

Anda pero la IA no meaba colonia?

EsePibe

Cuando una persona escucha una tontería se nota que pone una expresión extraña en la cara y mueve un poco la cabeza hacia atrás. ¿Qué es lo que está pasando por su cerebro en ese momento?, o mejor dicho, ¿qué es lo que ha pasado?

Todo lo que leemos o escuchamos lo contrastamos con una "base de datos cultural" y otra "base de datos contextual", si nosotros leemos o escuchamos "el lobo sobrevolaba majestuosamente la pradera" nos choca por que sabemos que los lobos no vuelan. Hemos contrastado la información con una "base de datos cultural".

Pero podría ser que estemos hablando de un lobo al que se le ha enseñado de alguna manera a utilizar un ala delta y entonces al contrastar con la base de datos contextual no nos choque y aceptemos esa información como válida.

Para que un bot no sea vandalizado por toda es a panda de niñatos nazis de /b/ primero tiene que tener una base de datos cultural medianamente sólida para que cuando alguien le diga que hittler fue un tío cojonudo le responda "eres gilipollas".

Es decir se trata de hacer bots que no sean unos ingenuos que se tratan todo lo que les cuentan.