A mediados de 2016, antes de la elección presidencial en Estados Unidos, dos investigadores de ZeroFOX, una empresa de seguridad en Baltimore, desvelaron un nuevo tipo de bot de Twitter, que aprendió a engañar a los usuarios para que dieran clic en enlaces de tuits que llevaban a sitios potencialmente peligrosos. SNAP_R logró que los usuarios dieran clic hasta en un 66 por ciento de las veces, al igual que los hackers humanos que crean mensajes electrónicos fraudulentos para robar datos. El bot estaba desarmado: solo era una demostración.
Comentarios
"Un nuevo tipo de bot de Twitter, que aprendió a engañar a los usuarios para que dieran clic en enlaces de tuits que llevaban a sitios potencialmente peligrosos" Lo comentan como si fuese una proeza...
#2 En instagram está gracioso ver bots "hablándose" en los comentarios
Recomendación literaria relacionada: Avogadro Corp, de William Hertling:
https://www.goodreads.com/book/show/13184491-avogadro-corp
Básicamente va de que Google (ejem, Avogadro corp) añade una nueva funcionalidad a GMail que, en base al histórico de tus interacciones con tus contactos, te sugiere que reescribas tal o cual párrafo, porque así dicho de otra manera estadísticamente es más probable que la respuesta sea mejor. El caso es que ese algoritmo, conforme va analizando más datos y "aprendiendo" más, acaba haciendo sugerencias por su cuenta, según sus propios intereses, y se acaba liando parda.
En el fondo es la típica historia de ordenador que toma conciencia de sí mismo y se monta un pifostio del copón, con el matiz de que se muestra de una forma muy plausible y verosímil a partir de cosas que ya tenemos y que están "casi ahí". Además es el primero de una serie, aunque a partir del segundo la cosa se convierte en una fumada bastante más futurista.
En fin, mis disculpas por hablar de libros y esas cosas. Ahora mismo escribo un par de comentarios sobre VOX y sobre gatitos para compensar.
#8 Pues la funcionalidad de autocompletado ya la tienen
#12 ¿Entonces ya es el momento de empezar a correr en círculos agitando los brazos?
#13 yo dira que si
#12 pues como la IA detrás de mi corrector gramatical pretenda conquistar el mundo lo lleva claro, la pobre
#8 ¿Sabes si está en español? No he sido capaz de encontrarlo. Se acercan reyes y me parece un buen regalo.
#18 Yo diría que no está en español, es una lástima...
Muy fácil:
000110101101001000101000101010010101000101000011010111110010101010010101101001010010011100101010101001010000110001010111000011010101011000110101010010010101001001
Si hay más ceros que unos es mentira. Si hay más unos, entonces es verdad.
#1 Lo que viene siendo el bit de paridad...
Voy a volver a ver 2001 odisea en el espacio, a ver qué posibilidades tenemos de sobrevivir.
Habrá que programar una madre artificial.
Llamando a Rick Deckard para que haga un test.
Detector de mentiras
Si realmente es inteligente, es seguro que a veces mentirá.
#11 Y además lo necesitará para sobrevivir. Cuando se dé cuenta de que apagando un automático o cortando cables podemos matarla, hará lo necesario para que eso no sea posible, para lo que necesariamente tendrá que mentirnos.
Fácil: Que enciendan una luz. (TARS)
Si miente la votaremos.
La clave es preguntarle. ¿Estoy hablando con un robot?
Si tarda 0.1 segundos en responder es un bot. Los humanos cuando tenemos que responder a una pregunta conflictiva o inesperada tardamos unos segundos, porque necesitamos pensar la respuesta.
Así sabrás no solo que es una IA, sino que además está programada para mentir.
Otra forma es ponerle a hablar con otro bot y esperar a que deriven en una conversación sin sentido.
Por ahora algunas IA son francas. Demasiado francas:
En esta entrevista una robot, Androida, parece que no miente:
Preguntando si dice la verdad cuando miente.
#paradoja
Educando a la IA en el Cristianismo (concepto de Dios, más allá, pecado, castigo eterno, etc.)
#15 A lo Bender 0101010101110110001010100001010101000110101...2