En la guerra Rusia - Ucrania, los intercambios bélicos entre Irán - Israel, hay un componente que se está llevando el protagonismo: los drones. Artilugios económicos que han puesto contra las cuerdas a barcos de combate, tanques de guerra, inclusive a movimientos de tropas en tierra (en X se ven vídeos donde drones aéreos le sueltan bombas a soldados guarecidos en trincheras). Como en toda guerra, cada medida generará su contramedida. Los drones tienen dos puntos débiles: deben ser controlados remotamente por un operador, así que si la señal entre operador y dron se interrumpe, el dron queda inutilizado, el segundo punto débil es que un dron requiere un operador humano altamente calificado. Se pueden ensamblar cientos, miles o millones de drones pero no hay forma de entrenar a cientos, miles o millones de operadores.
Es allí donde entra un concepto muy temido por muchos: que los drones operen y "tomen decisiones" por sí solos, por lo que no les afectaría la falta de operadores o la interrupción de la señal de comunicación. En otras palabras, el inicio de las armas autónomas proactivas (nota: considero que las trampas, que llevan cientos de miles de años hechas por los humanos son armas autónomas reactivas). Este nuevo tipo de armas es un paso inevitable y no valdrá cumbres mundiales con mandatarios populistas firmando acuerdos de prohibir el desarrollo de tal tipo de armas, será inútil.
Como es imparable, inevitable, ineludible o irremediable el advenimiento de las armas autónomas, considero que la comunidad de software libre debe adelantarse a desarrollar, formalizar, estandarizar y estudiar los algoritmos que se ejecutarán en estas máquinas. Mejor conocer previamente a lo que nos enfrentamos y dejar de pensar inocentemente que eso no va a pasar, cuando los ejércitos están activamente investigando estas tecnologías en secreto.
Hoy, cualquier persona con conocimientos de programación, puede empezar a elaborar esos algoritmos. Inclusive hasta sin darse cuenta: Desarrollando un videojuego al mejorar la "inteligencia" de los enemigos o los NPC o hasta aplicaciones industriales que controlen robots, logística o mejorar los mecanismos de vigilancia.
Comentarios
#3 Pues claro que no al mismo tiempo. Con poner a volar 100 al mismo tiempo, o 50, ya es suficiente.
Precisamente a los niños soldados es a los que menos les tiembla el pulso al disparar. Y en una pantalla, menos aún. Eso creo yo.
La cuestión es si la industria se fuiará de un software libre o preferirá crear el suyo. Porque de nada sirve crearlo si luego nadie lo utiliza.
#0 Suponte que construyes 25.000 drones y preparas a 500 técnicos, para que cada uno de ellos opere, de media, 50 aparatos. ¿Tan impoosible te parece que un ejército prepare a 500 personas? No hay que preparar un técnico para cada dron. Lanza uno ahora, otro esta tarde...
Y esos operadores pueden ser de muchos tipos. Desde chavales de 14 años, que serían la hostia, a gente en silla de ruedas que no vas a poder utilizar para otra cosa en caso de guerra.
Y todo el trabajo que se está haciendo en IA en reconocimiento visual, desde las caras o los objetos, va a servir y ya sirve para lo que dices.
Loque haga o deje de hacer la comunidad de software libre me parece irrelevante. ¿Puedes explicar la importancia de involucrarse tempranamente en eso?
#2 "Suponte que construyes 25.000 drones y preparas a 500 técnicos, para que cada uno de ellos opere, de media, 50 aparatos" ¿Al tiempo? Los drones deben volar, navegar, moverse en enjambre para ser una verdadera amenaza.
"Desde chavales de 14 años, que serían la hostia, a gente en silla de ruedas" ¿Y no les temblará la mano cuando den la orden de asesinar a un enemigo?
"que se está haciendo en IA en reconocimiento visual" Y debe mejorar bastante porque ahora hay que saber diferenciar entre enemigo combatiente y civiles. Esa noticia de Israel matando unos chavales palestinos que jugaban futbolin con un misil dirigido, es terrible, si le creemos a Israel de que no es genocidio (ja ja ja) entonces ese misil dirigido está terriblemente mal preparado al identificar mal a un objetivo, .... y si es genocidio (lo más probable) ¿por qué gastar un misil para matar a unos cuántos chavales?
deje de hacer la comunidad de software libre me parece irrelevante Entre más ojos examinen el código fuente del software que gobierne un arma autónoma, mejor. Y debe ser temprano antes que los ejércitos se acostumbren a las soluciones privativas. A nadie le gustaría que un arma autónoma armada hasta los dientes tenga un error del código y se vaya a quien sabe dónde (me recuerda la escena de Robocop 1 cuando el robot asesina a un ejecutivo creyendo que tenía un arma).
no hay forma de entrenar a cientos, miles o millones de operadores.
¿por qué no?