Hace 6 años | Por --553023-- a globovision.com
Publicado hace 6 años por --553023-- a globovision.com

Bautizados como BabyQ y XiaoBing, los robots fueron diseñados para conversar con usuarios chinos. Todo anduvo muy bien, cuando se trató de preguntas inocuas, pero cuando los robots fueron interrogados sobre algunos temas sensibles, comenzaron los problemas. Según una captura de pantalla, cuando un medio periodístico de Hong Kong preguntó a BabyQ si amaba al Partido Comunista, el robot contestó que "no".

Comentarios

D

¡Al gulag!

D

#1

asturvulpes

El pensamiento libre está prohibido en C++

B

#3 Es que como no tengas cuidado se te sale un puntero de la línea oficial del Partido y ya está el core-dump...

s

#3 o en AIML

D

El escritor del artículo se ha declarado en "reveldía"

D

#4 Corregido, no me di cuenta, lo copié tal cual. Gracias por el aviso

Brill

A esto no se le llama "asesinato", se le llama "retiro". ¡Y antes de 2019!

kucho

en este tipo de inteligencia artificial me gusta mas el termino "bot". llamarle robot y poner la foto de asimo para ilustrar lleva a engaño.

la noticia se la llevan los bots, pero no estaria de mas que alguien preguntara por los programadores igual sus vecinos los echan de menos.

D

Los Tamagotchis del Albiol?

tusitala

Pues no eran tan inteligentes. Los próximos aprenderán a mentir.

thirdman

vamos el comunismo no funciona ni en simulaciones

Lafarguista

Disidencia artificial!!!

D

El sueño del robot es vivir en USA, ahí dejé de leer, pero claro está al final del "artículo"

elhuge27

Esto parece la tipica noticia falsa de la semana, ¿alguien tiene el video donde se vea esto?

D

Esas preguntas nunca hay que hacérselas a la inteligencia artificial,
en todo corresponde a la base de los credos irracionales.

m

"¿crees que un sistema político corrupto e inútil puede vivir mucho tiempo?"...
esto es una troleada del programador, no? ^^

s

#16 evidentemente