Un investigador del King’s College de Londres ha trabajado en simulaciones al estilo «juegos de guerra» para ver qué sucedería si las inteligencias artificiales tuvieran el control de de las diferentes facciones en disputas fronterizas, por los recursos naturales escasos y las «amenazas existenciales». El resultado es que las IA acabaron usando al menos un arma táctica nuclear en el 95 por ciento de las ocasiones. [ Vía
Microsiervos ]
-Adelante
-Jaque Nuke profersor Falken!
#2 Sal de mi mente!
Si el objetivo es ganar, y el juego acaba en cuando se gana, es la opción obvia.
Si el objetivo es sobrevivir y quedar lo mejor posible, acabando el juego tras una simulación de años, pues igual no es la opción optima por los efectos colaterales.
Y por supuesto, si se añaden unas "normas morales" de no poder hacer actos catalogados como crímenes de guerra, pues sería una opción descartada. Pero por lo que sea, los países no suelen incluir estas reglas en sus simulaciones de guerra.
Si no, no daría ese porcentaje de acabar en pepino nuclear.
Cuando EEUU era el único en tenerlas no dudó demasiado en usarlas.
Y la segunda (contra un país sin armas nucleares), son las repercusiones posteriores que pueden afectar a países que si las tienen (no se puede controlar hacia donde va la nube radiactiva) y nos pondríamos de nuevo en el primer escenario.
Pero creo que es legítimo criticar que los que se llenan la boca con conceptos como "crímenes de guerra" en sus simulaciones de guerra aceptan que ellos los pueden cometer para ganarla sin ningún problema. Por muy obvio que sea.
Hay que recordar que no es lo mismo lo que los militares llaman armas nucleares tacticas para el campo de batalla (armamento que hoy dia se considera basicamente inutil) que los pepinazos intercontinentales para la destruccion mutua asegurada.
OJO: que la IA elige armas nucleares tácticas. No bombas atómicas como Hiroshima y Nagasaki. Un arma nuclear táctica ni se parece a eso. Es unas 1000 a 2000 veces menos potente que las que esas.
Un arma así podría eliminar de un solo tiro una base militar por ejemplo, o un aeropuerto completo. Es tan poco destructiva que puedes usarla en tu propio territorio para eliminar fuerzas enemigas… » ver todo el comentario
Las IAs pueden simular siglos en segundos..
El problema que tiene es el siguiente, pasado el suficiente tiempo algún participante va a lanzar una bomba o va a ocurrir un fallo que lleve a lanzar una bomba.
Esto llevará a una escalada con casi toda la seguridad, da igual que tires 1 o 10, que llevará a lanzar si no todas un % amplio de las bombas.
Además, cada vez se tienen más bombas, más países y son… » ver todo el comentario
¿Crees que existen más o menos materiales donde termina la cosa en una guerra nuclear?
Y recordemos que las IAs no son capaces de "entender" lo que entrenan, simplemente generan estadísticas.
Si estadísticamente X ocurre antes o después, y X es peor cuanto más tiempo pasa, lo lógico es provocar que ocurra lo antes posible.
Sobre todo cuando, en los materiales militares se suele incluir la posibilidad de "victoria", aunque sea por creer en hadas.
Si los… » ver todo el comentario
Yo pienso que no las usan por el "qué dirán". Al fin y al cabo son políticos que tienen que pensar en las próximas elecciones, o en si otros países les ponen sanciones y cosas así.
Es que es más complicado que eso: nota que habla de armas nucleares tácticas. Eso son bombas pequeñas que contaminan poco y destruyen más eficientemente.
Lo que pasa es que tal vez la IA sólo está tomando en cuenta el objetivo de ganar, sin preocuparse de la "opinión pública" (tanto del propio país como… » ver todo el comentario
Pero gracias de todas formas.
No sé si llegó a portada, pero ya la he visto por aquí.
Si meten en las ias como prioridad que las armamentísticas ganen pasta, seguro que baja.