Hace 5 años | Por Rubén_Valo_Tor... a phys.org
Publicado hace 5 años por Rubén_Valo_Torres a phys.org

"A medida que los comandantes militares vean los algoritmos de reconocimiento de objetos como confiables, será tentador atenuar o incluso eliminar la revisión y supervisión humana para estos sistemas", dijo ICRAC en la carta. "Estamos a solo un paso de autorizar el uso de drones autónomos para matar automáticamente, sin supervisión humana o control humano significativo".

Comentarios

sorrillo

Y mientras van entrenando a Skynet.

Veelicus

Esto es extremadamente grave, bromas aparte si estos sistemas se llevan a las armas mas potentes podremos afrontar una guerra nuclear en pocos años.

adria

#1 Para evitar esto es por lo que "John Locke" (1632-1704, filosofo y medico) veía necesario distinguir entre "ser Juez" y "ser Ejecutor", porque si uno mismo era ambos (juez y ejecutor) se creaba una objeción crucial, y esas personas terminarían siendo jueces en sus propios casos...
"Lost"

D

Lo bueno de esto es que ya no me tengo que preocupar por mi pensión, comprar casa y por mi futuro en general , moriremos todos en 15 años como mucho lol

Relator

¿Dónde se encargan los T-800?