Hace 7 años | Por i_lopezalzamora a xataka.com
Publicado hace 7 años por i_lopezalzamora a xataka.com

1 Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño. 2 Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes se oponen a la primera Ley. 3 Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o segunda Leyes. Es graciosos comprobar como se repiten las leyes creadas por Asimov.

Comentarios

kumo

En realidad, a día de hoy pocos robots asesinos hay (por no decir ninguno). Al fin y al cabo aunque los drones tenga una cierta IA, detrás hay un operador que es el que aprieta el gatillo. En muchos casos es mejro definirlos como vehículos no tripulados que como robots.