Hace 6 años | Por Ovlak a omicrono.elespanol.com
Publicado hace 6 años por Ovlak a omicrono.elespanol.com

Una sección de investigación de Facebook desarrolló una IA para mejorar los chatbots de Facebook. Para probarla, dejaron a dos máquinas de este tipo manteniendo una conversación libre entre sí. El resultado, el más inesperado de todos: crearon un nuevo idioma. Al principio pensaban que era un error, pero se pudo comprobar que sí, que se estaban comunicando en un lenguaje nuevo y desarrollado por ‘ellos’.

Comentarios

D

#7 Este artículo (y la fuente de la que procede) es sensacionalista y no se ajusta a la realidad. El informe de Facebook ( https://s3.amazonaws.com/end-to-end-negotiator/end-to-end-negotiator.pdf ) dice únicamente esto respecto a lo que aquí se presenta como un gran logro de inteligencia artificial: "The second model is fixed as we found that updating the parameters of both agents led to divergence from human language".
¿Qué significa esto? El desarrollo de Facebook intentaba enseñar a negociar a dos agentes. La negociación era muy simple. Se tenía un conjunto de objetos y ambas partes negociaban para repartir los objetos según la valoración que a cada objeto le daba cada parte. Para enseñar a los agentes de inteligencia artificial utilizaron algo más de 5.800 diálogos de negociaciones mantenidas previamente entre dos personas para repartirse objetos. Esto es lo que se llama aprendizaje supervisado. Además de este tipo de aprendizaje, que hace que se ajuste al lenguaje y estilo de negociación de las personas, se utilizó otra técnica llamada aprendizaje por refuerzo, en el que el aprendizaje puede divergir de lo aprendido de las personas y se premian las estrategias que obtienen mayor beneficio. Lo que dice el estudio es que se podían enfrentar dos agentes en los que ambos utilizaban aprendizaje supervisado o uno podía utilizar aprendizaje por refuerzo y el otro aprendizaje supervisado. Lo que no pudo ser, y aquí está el meollo de la cuestión, es que se enfrentaran dos agentes de inteligencia artificial que utilizaran, ambos, el aprendizaje por refuerzo, porque en ese caso evolucionaban divergiendo del lenguaje que habían aprendido de los más de 5.800 diálogos de negociación entre personas.
Esto se ha sacado de contexto porque los agentes 'inteligentes' no saben qué son los objetos por los que negocian (sólo tiene el concepto objeto-valor), no dominan el idioma que utilizan y ni tan siquiera saben qué es un idioma (sólo imitan los 5.800 diálogos que se les presentaron). No pueden conversar más allá del ejercicio de negociación para los que se han entrenado y ya se les quiere dar un nivel de inteligencia superior diciendo que son capaces de desarrollar su propio lenguaje. Esto es absurdo, no tiene sentido.

D

#18 Hombre, justamente lo que dice el artículo de FastCo. que comento en #15 es que la comunicación comenzó a divergir porque modificaron el lenguaje para hacerlo más eficiente en función de la recompensa. El problema radicaba en que la intención era crear una IA que pudiese comunicarse con las personas, por lo que no había un interés por un lenguaje que fuese distinto del inglés.
Simbolizaron ("tokenization") el lenguaje para hacerlo más eficiente en la obtención de la recompensa, lo que puede entenderse como que "crearon" un lenguaje nuevo.

El problema, como todo, es que un periodista norteamericano especializado toma un paper, hace un artículo (intentando darle algún giro para que sea atractivo) y lo publica. Luego viene un periodista generalista español, hace una mala traducción, crea un artículo incompleto y sensacionalista, y esto es lo que llega al público. Es triste, pero pasa demasiado a menudo. (Por cierto, para variar, no citan fuentes).

Aún así, el artículo original de FastCo. es interesante.

Azucena1980

Skynet va tomando forma...

P

#5 lo importante de skynet es que precisamente no tiene forma

D

Serían chistes sobre humanos...

D

Vamos, igual que en Colossus, the forbin project https://es.wikipedia.org/wiki/Colossus:_The_Forbin_Project

D

#16 excelente

D

La noticia viene de Fast Co: https://www.fastcodesign.com/90132632/ai-is-inventing-its-own-perfect-languages-should-we-let-it
Y el motivo por el que cerraron el sistema es porque creyeron que había un error en el diseño: los bots actúan únicamente por recompensa, y no encontraron ninguna en seguir usando el inglés, por lo que comenzaron a crear su propio idioma.

Lástima que le vaya mal a esta noticia, porque es muy interesante (aunque los comentarios no lo sean). roll

C

Próximamente.. el software no falla, es un nuevo caso de uso creado por la máquina.

Ovlak

#3 Es una feature, por supuesto

andran

Si realmente esa Inteligencia Artificial es lo suficientemente "inteligente" aprenderá que la desconectan y buscará otra forma de comunicarse.
Si no lo hace es que todavía no es lo suficientemente "inteligente".

D

Igual que hay la ley de Godwin para predecir la llegada de Hitler a una discusión en internet...

¿Hay alguna ley parecida sobre SkyNet?

RoterHahn

Para que crear uno nuevo teniendo el vasco. Estos IA no saben nada.

D

Esto me parece un publi-meneo. Que por cierto me parece haber visto por aquí antes, pero no he podido encontrarlo.

Bob: “I can i i everything else”

Alice: “balls have zero to me to me to me to me to me to me to me”


Se desmuestra una vez más que la inteligencia artificial no tiene nada que hacer contra la estupidez natural: habla de que se mete repetidamente bolas; "nice to meet you, Alice"

D

(ejemplo)
Ok klega, mñan ns vmos n csa d t prma ......


Esta gente deberian de comprobar que idiomas existe aparte del ingles y el arabe.

oereat

Tal vez es solo miedo a lo desconocido, hubieran dejado que sigan charlando a ver si en un punto empezaban a discutir y a querer matarse entre ellos. Al igua que los humanos, ustedes saben.

Calle72

#2 Seguro que uno diría que el otro es un facha.