Hace 3 años | Por Yorga77 a xataka.com
Publicado hace 3 años por Yorga77 a xataka.com

Año 2043. Reino Unido es el último reducto de la WCC (Western Countries Confederation) en Europa, ante el imparable avance del DAESH. Un dron de exploración británico realiza un barrido por las orillas del Támesis. Con su sensor térmico detecta el avance de un grupo de soldados enemigos. Analiza y evalúa: diecisiete soldados, todos hombres (sabe eso debido a que analiza la forma de caminar, y la complexión y proporciones corporales), armados con armamento ligero y un lanzagranadas.

Comentarios

Maelstrom

El problema de elección o decisión por evaluación no supone problema teórico alguno. Se evalúan pesos y contrapesos como ya hacen las redes neuronales (otra cosa es la capacidad de definir los marcos e intervalos, así como las variables evaluables, algo por lo que las máquinas necesitan a los humanos, al ser estos quienes definen los fines del diseño).

Pero el problema peliagudo, y que atañe a algo tan "etéreo" como la moral, es que la máquina decida, como lo hacen algunos humanos, por el mal, y no por error de cálculo, o que se abstengan de actuar (libertad de contradicción).

estemenda

El psicólogo norteamericano Daniel Wegner nos invita a hacer un simplísimo juego para demostrarlo: intentad no pensar en un oso blanco
¿Pero no era Tolstoi el que le dijo eso a su hermano?