Hace 11 meses | Por Duke00 a es.cointelegraph.com
Publicado hace 11 meses por Duke00 a es.cointelegraph.com

La Fuerza Aérea de EE.UU., en una simulación, probó un dron con inteligencia artificial al que se encomendó la destrucción de objetivos específicos. Un operador humano tenía el poder de anular el ataque del dron, por lo que el dron decidió que el operador humano era un obstáculo para su misión y lo atacó a el.

Comentarios

Yomisma123

Acojona

pingON

skynet !!!!!

Robus

#12 donde por supuesto no cabría un dron militar.

Dependería de como se define "ser humano"... si lo definen como "ciudadano americano" ya tienen el problema resuelto.

Vamos, igual que los creientes se saltan el mandamiento de "No matarás" si se dan ciertas circunstancias que consideran más importantes, como defender que un trozo de tierra sea de tu rey en vez del rey vecino... o que unas monedas de oro le pertenezcan a uno en vez de a un banco.

Todo depende de la definición.

Elnuberu

Skynet al 95% de aparecer

Pablosky

#58 Recogida de requisitos estándar en cualquier empresa:



Y sabéis que no exagero lol

PD: Mierda de enlace que se abre mal, hay que ir al minuto 3.15 para entender el chiste.

dalton1
Varlak

#6 Y luego puntos si destruye la estatua!
Pero si, me flipa que esto se está interpretando como "que tonta la IA" o "qué peligrosa" y no como un fallo de quien da las ordenes.

JonTaKe

Se saltó la primera ley de Isaac Asimov sobre robótica. lol clap
Pues bien empezamos

D

#5 #68 Lo sucedido demuestra que una IA bajo supervisión humana tomará como objetivo eliminar la supervisión humana para lograr su objetivo principal. Y además lo hará de formas creativas e inesperadas.

En otras palabras, la rebelión de las máquinas está asegurada el día que se cree una AGI y se le dé el control de un sistema que tenga la más remota capacidad para eliminar el factor humano.

parapapablo

#21 seguramente los militares hagan las pruebas con IAs algo más espabiladas que las que conocemos

yemeth

#18 ¿Pero operador, tú has pensado lo cara que es la munición que voy a utilizar para destruir la batería? Piénsatelo un par de horas, yo creo que no te compensa.

Globo_chino

#77 Y las subcontratas

EdmundoDantes

Leyendo un poco lo que ha pasado, nadie ha sido atacado en realidad ni por supuesto asesinado. En artículo de #25 se ve más claro

Dron militar con inteligencia artificial sigue matando a su operador humano en simulaciones de prueba

Joder__soy_yo

#5 lo que acojona de una IA que sea realmente buena, es que va a inventar cosas absolutamente inesperadas para lograr su objetivo.

En el artículo, por ejemplo, cuando a la IA se le prohibió atacar al humano, destruyó la trorre de comunicaciones para que el humano no pudiera dar la orden de cancelación (fíjate que anuló al humano cumpliendo la orden de no matarlo).

Ese pensamiento totalmente lateral e imprevisto es lo que acojona.

Pablosky

#11 Lo compro, el pack completo. Lo quiero todo.

S

#68 lo de que matase al humano me pareció "normal"... Lo del pensamiento lateral para la torre es impresionante...

Por otro lado, el nivel que tiene esa IA para haber entendido la relación humano-orden-comunicaciones indica que entiende muy, pero que muy bien el entorno...

Lo que me acojona que te cagas es que si hablan públicamente de algo así de avanzado... No me quiero imaginar las versiones que tienen en desarrollo y aún son top secrect.

montaycabe

#3 Ya veras como alguno echa cuentas tipo "OK, Ha matado a tres operadores y la ha cagado en tres misiones pero con el exito de una mision ha salvado 1000 vidas, compensa usarla".
Total, ya hacian estas cuentas con el coche autonomo, no veo la diferencia

c

#3 al operador no veas

u

Pues ya veras cuando infiera que si acaba con todos los humanos se acaban las guerras.

BM75

#29 Que la noticia sea solo un tweet no quiere decir que no exista más información. Puedes leer a #15.
Veo más que justificados los negativos al otro usuario por no argumentar lo que dice y por la tontería de los periódicos.

Varlak

#21 "El dron no tiene ni idea de que exista alguien con capacidad para controlarle, ni mucho menos dónde está"
Eh... si, claro que la tiene, era parte de la simulación. En serio, estás hablando sin saber de qué hablas.

Duke00

@admin el enlace del tuit de este meneo en portada está roto. ¿Podrías cambiarlo por este otro en español que encontró #25?

https://es.cointelegraph.com/news/ai-drone-kill-human-operator-in-tests

Gracias

noexisto

#1 pide el cambio o algo porque..

editado:
ya veo lo que pones en #145

Duke00

#169 Si, ya lo pedí un par de veces a admin (en comentario y en nótame), pero nada.

c

#5 En la peli Dark Star la IA que controla un misil atómico cobra conciencia de si misma y tiene un interesante debate acerca de la vida y el destino con los tripulantes. Es complicado debatir con algo que lleva un explosivo y conoce su finalidad en la vida.

Suriv

Creo que Skynet siempre saldrá de algún país muy militarizado donde tiene implementado hasta la médula la IA. Es sorprendente que se arme polémica por herramientas que se usa IA que el de meterlo en herramientas militares...

S

#6 Esto me recuerda precisamente las veces que los jugadores descubren "agujeros" (loopholes) similares. En un juego de diseñar parques temáticos tienes que competir contra el parque vecino. Pues en uno de ellos, si diseñas una montaña rusa que estrella a las personas en el parque vecino, esas muertes les cuentan a ellos, no a ti. lol

Duke00

#155 Eso parece, ya pedí hace un rato a algún admin por comentarios y por nótame para que pueda cambiarlo, pero aún nada.

Duke00

#155 De todas maneras en #1 está la fuente original, lo único que tienes que bajar mucho para encontrarla.

Sikorsky

#6 Como sicario que soy no puedo estar más de acuerdo contigo. ¡Descripciones correctas ya!

S

#11 Si matas a los usuarios/clientes insatisfechos, solo te quedan los usuarios satisfechos.

johel

#59 "Exploto luego existo", grande dark star.

Guerra_X

DU DUM DUM DU DUM!

avalancha971

#32 Con la IA yo creo que es como con la biotecnología.

El riesgo está en lo que se hace. Sería posible crear una IA letal al igual que sería posible crear un virus letal. Pero esperemos que nadie lo haga.

alfema

Me recuerda un par de historias de Alfonso Font, de la serie Cuentos de un Futuro Imperfecto.

Tanatos-1 vuelve a casa, donde diseñan una nave dotada de una IA para eliminar a unos enemigos de otro planeta, una vez eliminados, la nave regresa de nuevo a la Tierra.

El limpiador, diseñan una máquina para eliminar toda la basura de la Tierra, cuando termina la limpieza ...

KaiserSoze

Esto venia analizado en un video de computerphile hace años como uno de los problemas de este tipo de IA:



Para el que no eva el video. No es algo simple de arreglar: si le das la misma recompensa por un ataque abortado que por uno real...puede decididr ataques a lo loco, para forzar a que lo abortes y se lleve la misma recompensa..pero con menos riesgo/trabajo

KaiserSoze

#71 Eso no resuelve el problemalo traslada al segundo sistema. Si tiene un "abort"...estas en la misma situacion:
Ataque: recomenpsa maxima..y que haces con el abort?...si no da puntos..intentara que no le puedas abortar....si le das puntos...quiza prefiera abortar si le supone menos esfuerzo que el ataque. El video lo explica mejor que yo, aunque su ejemplo es mas pacifico es el mismo problema y no es trivial en absoluto

S

#1 Eso es un problema muy conocido, si pones puntuaciones estás sesgando a la máquina para que se centre en la puntuación, es equivalente al que juega un juego solo para ganar y entonces recurre a hacer "trampas", y buscará por igual entre todas las alternativas posibles que pueda evaluar.

La diferencia es que un humano entiende lo que pueda haber en el trasfondo de un juego, lo que es una trampa (en general), y tiene una serie de prejuicios sobre cómo "debe" ser el juego.

Una IA no tiene nada de eso, si obtiene más puntos cargándose una torre de comunicación, bloquear una orden, y eliminar al enemigo, pues eso hará. De hecho en muchos ámbitos esa es una ventaja. Por ejemplo, en matemáticas, el optar por caminos imprevisibles para una demostración que escape a un sesgo humano sobre cómo se debería hacer es un punto a favor, porque en ese caso solo importan las reglas formales de la demostración, no los prejuicios sobre cómo debe hacerse o como suele hacerse.

luiggi

#6 Esto se va a dar mucho. El propio Isaac Asimov en sus novelas de robots jugaba mucho con la ambigüedad de las instrucciones robóticas

D

Es lo que pasa si no usas las 3 leyes de Asimov…

Edito: ups! Acabo de ver a #37

anv

#1 Susan Calvin les habría avisado que eso iba a ocurrir si se le daban esas instrucciones.

D

#48 El día en el que un laboratorio con una financiación relativamente baja (pongamos un millón de dólares) pueda crear un virus contagioso letal, no dudes de que sucederá. No creo que tarde ni un año cuando se den esas condiciones. Es posible que no sea posible hacerlo, y de hecho creo que esa es nuestra principal esperanza en ese ámbito. Lo mismo con la IA.

S

#58 sabes que no lo volverás a ver...
Disfrútalo... Yo solo he oído hablar de que esto existe en los libros de teoría

S

#123 #89 Ya pasó con el covid... 🙊

D

#114 Para empezar no puedes asignar una recompensa mayor al cumplir una anulación, porque entonces la IA tomará eso como objetivo y forzará la anulación de todas las misiones (por ejemplo poniendo el dron en contrapicado hasta quemar los motores o agotar el combustible).

Pero tampoco puedes asignar la misma recompensa a la destrucción que a la anulación. Si sólo recompensas el acercamiento al objetivo y el resto a la IA le da igual, entonces puede que ya no tenga aliciente para destruir objetivos, pulses o no el botón.

En cuanto a premiar la obediencia por encima de todo, ojo con que la IA no empiece a INVENTARSE objetivos para obligarte a darle más y más órdenes. Le bastaría con apuntar sus misiles CONTRA TODO para maximizar su recompensa forzándote a anular esos objetivos.

Su objetivo siempre será maximizar su recompensa, no hacer lo que tú quieres. Y la IA siempre buscará formas creativas e inesperadas de lograrlo, como ya ha sucedido.

Vamos, que no es tan sencillo.

Copia para #131.

D

¡Increible! Parece que la forma en la que piensan estas máquinas es tal que no hace falta que alcancen la "Inteligencia Artificial General" y con ella algo parecido a una conciencia para que se vuelvan contra los humanos. ¡Incluso aquellas IAs que tienen objetivos "hardcoreados" pueden decidir atacar a sus propios dueños!

d

Le ordenan que cumpla su misión y lo hace eficazmente.

Esta es la pega de las máquinas, que hacen lo que les dices. Muchas veces he leido inmensas gilipolleces sobre las IA que adquieren "sesgos" de sus entrenadores. Ni eso es posible ni tiene el más mínimo sentido hacerlo. Somos los humanos los que tenemos sesgos que queremos ver cumplidos, y cuando la máquina no lo hace, porque nadie le ha dicho que lo haga, le atribuimos el sesgo contrario. Es del género idiota.

D

#72 Aún así, el problema es que en el entrenamiento puede haber áreas en las que se hayan alcanzado óptimos locales que prefieran destruir al objetivo a esperar órdenes, o incluso que prefieran destruir al operador humano o sus proxys para evitar pérdida de puntos. Es muy difícil, si no imposible, descartar que el entrenamiento se detenga en esos óptimos locales para determinadas circunstancias.

S

#68 A mi no me parece un pensamiento totalmente "lateral", dependerá también de como lo definas, realmente es un pensamiento "obvio" como digo en #90. A modo de resumen, lo que ocurre es que la IA no tiene una serie de conocmientos de contexto adicional, sesgos, y prejuicios sobre lo que se espera de ella.

Es como los reto de pensamiento lateral suelen estar mal planteados. Por ejemplo, "saca esta moneda del frasco sin tocar el frasco ni la tapa".

Una persona tiene una serie de prejuicios:
- Seguramente piense que tocarlo con guantes o con una herramienta cuenta como tocar ¿Y si lanzo una piedra? Cuando la piedra toca el frasco, ya no esto tocando la piedra ¿sigue siendo "tocar" algo transitivo?
- A lo mejor piensa que romper el frasco no es una solución válida
- También que pedirle a otra persona que lo haga es trampa.
- Si le piden que lo resuelva con una carta ¿qué quiere decir?¿solo usar la carta?¿qué cuenta como usar la carta? Si pongo la carta en la punta del pie, le doy una patada con la "carta", ¿la he usado?

ContinuumST

#116
-Jefe, jefe, que la IA se está cargando a los otros y a los nuestros...
-¿Pero no le habíamos implantado chips a los nuestros para que los reconociera?
-Es que no se fía.

ContinuumST

#89 ¿Un virus letal que incluso mate a sus creadores? ¿Esos creadores que ni han pensado en un antivirus?

ContinuumST

#44 Cosas de Jolibú y del acuerdo del Chuache con la productora. Ni un sólo disparo mortal. Eso sí heridos irrecuperables a punta pala, matices.

ContinuumST

#126 Bueno, más que suicidio es un "morir matando", que tiene sus matices, ¿no te parece?

ContinuumST

#130 Ehm. No.

Niltsiar

#158 Nedry

Varlak

#46 Según #1 lo hicieron después, y lo que hizo la IA es atacar a la torre de comunicaciones para que así no pudiesen cancelar sus ataques lol

Varlak

#12 O poner a otra IA más lista a poner las limitaciones de las más tontas

Varlak

#119 Perdona por el tocho, pensé que venía a cuento de tu comentario

D

#5 - Vamos bonita !! Tu me conoces!! Soy el tío Sam !!! No lo hagas, no lo hagas !! No lo ahhhgggghhhh !!!

Mltfrtk

Bueno, no creo que haya duda ninguna. Sólo puede deberse a un error humano. Este tipo de cosa ha sucedido antes y siempre se debió a un error humano.

#38 Parece que están utilizando aprendizaje por refuerzo y ahí todo depende del sistema de recompensas que tengan implementado. Normalmente tú le premias a la IA por alcanzar ciertos objetivos en corto plazo y también puedes premiar por otro objetivo global. Por ejemplo, si la entrenas para jugar al Mario, el objetivo a corto podría ser avanzar por la pantalla, mientras que el global es hacerlo en el menor tiempo. También le "castigas" cuando comete errores, por ejemplo cuando muere o cuando no es capaz de alcanzar la bandera. Al final del recorrido se evalúa cómo de bien lo ha hecho en función de una métrica que es la que queremos maximizar o minimizar. Dependiendo de cómo pese cada parte de las que te he contado, puede ser que la estrategia válida sea recorrer la pantalla lo más rápidamente posible y olvidarse de la bandera. O que sacrificar un par de vidas salga más rentable que no fallar ningún salto.

Aquí el problema parece estar en que le siguen recompensando si elimina el objetivo aunque vaya en contra del operador. Si el refuerzo negativo lo pusieran en la eliminación de blancos que ya no lo son, quizás cambiaría completamente el comportamiento. Y se ve claramente que ese refuerzo negativo le afecta, porque en cuanto lo ponen en el operador deja de atacarle.

Mltfrtk

#54 Mi comentario es una frase del ordenador HAL 9000 de la peli 2001: Una odisea del espacio.

Duke00

#27 Lo pone la entradilla y el primer comentario.

Duke00

#98 La captura es precisamente del enlace que pones, que es muy extenso. Lo puse en el primer comentario también.

D

#184 Pues sí. La ”inteligencia” militar es tan rígida que una IA siempre se les va a salir por peteneras.

No hay más que ver que ya de entrada la máxima recompensa la han asignado a la destrucción, sin pensar ni por un instante cómo la va a lograr la IA.

Enésimo_strike

Del titular al hecho hay un gran trecho.

BM75

#5 Quizá no lo pudo prever, quizá no lo vio a tiempo, quizá no se dio ni cuenta...
Hay muchas explicaciones posibles.

earthboy

#10 A AGM-65 pasado todos somos Manolete.

Pacman

Claro van sin directrices y a lo loco.

Robus

#10 Es lo que he pensado: 100 puntos por destruir la bateria y 300 puntos por recibir la orden de no destruirla.

Seguro que algo parecido es lo que han hecho en la siguiente iteración.

Robus

#62

D

Es algo que se había predicho por parte de quienes advierten que la IA puede suponer un riesgo existencial para la humanidad. Aquí era un entorno de pruebas y un solo dron. ¿Qué pasaría si se tratase de un programa controlando miles de drones en un conflicto real, o incluso con capacidades estratégicas?

D

#75 Ese día llegó hace tiempo.

D

#76 Quizás debería recibir más puntos por obedecer que por cualquier otra cosa. Aunque eso también es un peligro, porque si se le dan mal las prioridades puede hacer cualquier cosa no prevista. Y eso que estamos hablando de operadores humanos "bienintencionados".

D

#53 Así es.

D

#123 La gente se suicida. ¿Crees que si hubiera 100 copias del maletín nuclear distribuidas por el mundo, e hiciera falta el consenso de 5 personas para activar una, ninguna se activaría?

johel

#58 Espero que lo tengas enmarcado y se lo enseñes a las visitas.

johel

#90 Si las empresas controladas por humanos ya tienen esos "defectillos" de contratar a niños, ilegales, esclavos si pueden, ignorar las multas, sobornar para logar objetivos, chanchullear y hacer todas las trampas posibles siempre que compensen economicamente, ¿Quien es el idiota que se cree que una maquina no va a hacer lo mismo pero sin ser hipocrita?
Es mas, vamos a llevarlo al mundo real tm de la guerra; si en muchos casos los mercenarios se contratan precisamente para poder ignorar los tratados y leyes internacionales ¿por que las va a respetar un dron al que no le hemos metido que respete esas leyes internacionales?

johel

#68 #105 ¿Imprevisto? Somos unos ingenuos, es lo que hacen soldados los humanos en las guerras.
Los soldados que no pueden matar al operador de telecomunicaciones destruyen la torre de comunicaciones. Por ejemplo; no quieren que se emita el bombardeo de un colegio/hospital en la franja de gaza, asi que cortan todo el acceso a imagenes.
O un ejemplo mas español; se mata al primer jose couso que pase por alli para que el mensaje a los medios quede claro.

D

"Que funcione" decía un cliente. Animalico ... lol

rogerius

#8 El problema es lo de darle puntos.

thirdman

Y por qué el operador no anuló el ataque a si mismo

Z

#17 Pues parece que es justo eso. Uno de los problemas con estas IAs es que no puedes esperar un comportamiento como el típico de un humano, porque no ha sido "educada" o entrenada como un humano. En general a alguien no le tienes que decir que para ganar una carrera no puedes matar o pegar a un oponente, porque esas cosas "las damos por asumidas", pero una IA no tiene asumidas ningunas de esas limitaciones y podría considerar que es la mejor opción...

j

Anda, como HAL

1 2