Hace 7 años | Por mnox a lamarea.com
Publicado hace 7 años por mnox a lamarea.com

En 1942 el bioquímico y escritor ruso Isaac Asimov publicó sus tres leyes de la robótica. Primera: un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño. Segunda: un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley. Tercera: un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. Asimov pensó que estas leyes serían su legado más duradero, pues no.

Comentarios

Mateila

#2 Además de su abultado legado de literatura divulgativa científica. ¡Tampoco lo olvidemos!

viewer

#2 Cada vez que esas leyes eran violadas desde el punto de vista humano, en la tozuda realidad, eran sistematicamente cumplidas desde el punto de vista robotico.

sorrillo

#7 Y cuando eso ocurría el resultado no era aquél al que habían aspirado los que promovían esas leyes de la robótica.

Y en otros casos directamente se desactivaban esas leyes deliberadamente para que el robot cumpliera su cometido y/o permitiera al ser humano cumplir el suyo.

A una persona que lleva hasta el extremo sus principios sin incumplirlos ante ninguna circunstancia ni contexto los describimos como fanáticos, son personas que pueden ser muy peligrosas y no querríamos poner bajo su responsabilidad tareas importantes. Un robot fanático está en las antípodas de aquello a lo que aspiramos la mayoría.

pipe1976

#8 no es una cuestion de fanatismo. Sino base de objetivos. Sea cual fuere la situacion, debe cumplir ciertas reglas base.
Un robot militar, debera distinguir matar en ciertas circunstancias, pero no a sus aliados.
Un ejercito de cuidara de tener robots que fueran asesinos despiadados que pudieran ser controlados por otros. . Y como determinas el sistema de control?le manda una persona por radio? Tiene instrucciones, pero igual tendra que tener cierto criterio...
Hablo de robots, no de cañones autopropulsados

sorrillo

#11 no es una cuestion de fanatismo. Sino base de objetivos. Sea cual fuere la situacion, debe cumplir ciertas reglas base. Un robot militar, debera distinguir matar en ciertas circunstancias, pero no a sus aliados.

Militares humanos han decidido conscientemente matar a aliados en circunstancias específicas, entendieron en esos casos que era la decisión correcta, ¿propones que los robots tomen decisiones incorrectas?

Lo de no matar a aliados es un principio, como muchos otros, pero el cumplimiento de los principios depende de las circunstancias.

pipe1976

#14 si, pero como asiduo de asimov, a largo plazo creo que se entendera que no es un tema que se deba dejar aparte. Viene a ser como educar un niño. Que sea un salvaje asesino pase, pero tiene que saber a quien odiar

sorrillo

#16 En mi opinión la solución pasa por dos posibles caminos complementarios:

a) Que la tecnología de inteligencia artificial se integre en las personas de forma que aunque también haya IA en maquinas ésta no pueda suponer una amenaza para el ser humano, asumiendo éste no solo la capacidad humana si no también la de la IA.

b) Que la tecnología de inteligencia artificial sea lo más parecida al ser humano posible, con las mismas ventajas e inconvenientes en cuanto al ámbito ético y moral. Lo que implicaría educar a la IA con criterios humanos, con valores humanos, asumiendo el riesgo que algunas actuasen también como las personas a quienes castigamos por su conducta. En ese sentido sería prácticamente inevitable que acabaran teniendo derechos reconocidos (lo contrario se vería como esclavitud) y que sufrieran consecuencias por sus actos, a que se aspirase a una relación no tanto de sumisión como de colaboración. De ahí la necesidad del camino a) para evitar nuestra extinción.

pipe1976

#17 no veo la extincion. Todo lo.contrario. una de las premisas logicas de estas entidades seria mejorar los ecosistemas y tratar de preservar la vida. Puestos a buscar objetivos, entenderian que ese es mejor que subyugar nuestras voluntades. Por ejemplo.

Que pudieran intentar obligarnos? Seria si asumen un rol autoritario-paterno, pero creo que no seria tan nocivo como se venden en las pelis, ni tan intrusivo

sorrillo

#18 Todo lo.contrario. una de las premisas logicas de estas entidades seria mejorar los ecosistemas y tratar de preservar la vida.

¿Ha sido la premisa lógica del ser humano mejorar los ecosistemas y tratar de preservar la vida?

Puestos a buscar objetivos, entenderian que ese es mejor que subyugar nuestras voluntades.

¿Es mejor para el ser humano subyugar a nuestra voluntad a seres menos inteligentes que nosotros?

Seria algo paralelo. Existiran ciertas limitaciones biológicas, y los virus que salgan de ahi terribles. Veo mejor entender la genética.y no incluir rollo frankstein por medio

Ya usamos las máquinas para sustituir la memoria, hace unas décadas memorizar era uno de los principales valores del conocimiento mientras que ahora tendemos a valorar más saber hacer la pregunta que conocer la respuesta, por que disponemos de tecnología que nos aporta información suficiente para responder a la pregunta si la conocemos.

¿No sería más eficiente que ello estuviera integrado cuanto más cercano a nuestro pensamiento mejor? ¿Que no fuera necesario teclear o hablar para obtener la respuesta a nuestras preguntas?

pipe1976

#17 se me paso responder a la posibilidad A.
Seria algo paralelo. Existiran ciertas limitaciones biológicas, y los virus que salgan de ahi terribles. Veo mejor entender la genética.y no incluir rollo frankstein por medio

sorrillo

#c-19" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/2724578/order/19">#19 Creo que te contesto en # 20: Robots asesinos: la realidad ya supera la ficción/c20#c-20

D

??Asimov ruso??

??Lo sabía el?? Porque nacer si que nació en Rusia, pero...

Podría haber sido Israelí, ya puestos.

losuaves

yo creo que Asimov se refería a robots autónomos que servían al hombre no a máquinas dirigidas por humanos con propósitos bélicos.

OviOne

Yo vengo a dejar esto por aquí: https://www.stopkillerrobots.org/

P

Robots capaces de aprender y asesinos, ya me veo metido dentro de Matrix.

TheIpodHuman

#1 o en un futuro no muy lejano con los Terminator...

mazikeen

#1 No logro encontrar la noticia, pero por aquí leí que la inteligencia artificial se vuelve tonta con el reggaeton, tenemos la salvación en manos de Don Omar. lol lol

mazikeen

#5 Gracias

M

#4 Y a la natural también.

Venga, todos tontos, todo sea por evitar un Skynet.