Hace 8 años | Por fisico a xkcd.com
Publicado hace 8 años por fisico a xkcd.com

¿Qué pasaría si las tres leyes de la robótica estuvieran en un orden distinto?

Comentarios

spit_fire

#35 Estoy leyendo a Stephen King ahora,pero cada vez que veo libros en la estantería de Asimov me entra ganas de pilla uno y echarle un ojo.Cual me recomiendas?.

D

#36 cualquiera

D

#42 Coincido: "El fin de la eternidad" es sabrosón, sabrosón. Altamente recomendable

Apostolakis

#36 yo losnpienso leer en orden, según el propio Asimov.

D

#35 ¡Pero queréis dejar de meter spoilers!

delawen

#56 jijijiji

Hablar de spoilers de un libro que lleva más de veinte años publicado tiene delito

(De todas formas, mientras no lo lean, tampoco sabrán lo que es...)

f

las leyes cuando construyes un robot
1º el centro de gravedad es importante
2º vigila, estado de la batería
3º todo bien engrasado funciona mejor
4º todo software que uses nunca será el perfecto así que usa software libre para poder retocar y retocar

y
5º si deseas parecer humano, no lineal y todos los servos se mueven en cada movimiento aunque sea un poco

... numero 5 esta vivo ....

pablicius

¿Alguien me explica la última opción? Si la primera norma del robot es protegerse ¿por qué iba a meterse en una guerra en la que tiene grandes posibilidades de ser dañado?

D

#3

Por aplicar la 2º : al obeceder ordenes que le perjudicaban tiene que protegerse a si mismo.

En cualquier caso es un chiste. Las tres leyes no marcan una prioridad sino su cumplimento íntegro

D

#3 Si interpretas esa norma como el instinto de supervivencia humano tiene sentido el sacrificio. Las guerras sirven para proteger preventivamente al grupo del instinto de supervivencia de otros grupos. Y otra explicación www.explainxkcd.com/wiki/index.php/Main_Page

fisico

#3 El humano le pide hacer algo peligroso o le ataca directamente y el robot responde eliminando la amenaza desencadenando la guerra con los humanos

pablicius

#8 Para protegerse no necesita atacar al humano, le basta con desobedecer la orden.

M

#9 Entonces el humano trata de desconectarlo porque un robot que no obedece no le sirve..., el robot mata al humano para protegerse, el resto de humanos tratan de desconectar al robot asesino y este emprende una guerra contra todos.

TetraFreak

#49 no. La obediencia esta ppr encima de la autoprotección

M

#50 No, estamos hablando del último caso (respondo al comentario nº 3), la ley más importante es la de auto protección:
1-auto-protección
2-obedecer órdenes
3-No dañar a los humanos

delawen

#49 ¿Hal? ¿Eres tú?

s

#49 NO pude matarlo porque desobedecería las leyes

Debería de someterlo por el bien de todos por medios no violentos ni que lo dañen


Es lo lógico...

M

#62 Sí puede, sólo hace falta que considere que es la única o la mejor forma de escapar.

Si te fijas en la viñeta 5 se trata de un caso similar: no tiene por qué matar a nadie para sobrevivir, pero si es necesario lo hará.

s

#63 con las reglas de robotica de asmov sin modificar no... Modificadas pues...

M

#64 El debate comenzó en el comentario 3, suponiendo que las leyes se cambiaban de orden y que la primera era auto-protegerse. Con ese orden el robot hará cualquier cosa con tal de sobrevivir, incluso incumplir las otras 2 leyes.

s

#65 veo, veo...


Perdón por estar fuera de lugar. Aunque me hace reflexionar el juego


Lo que tenemos nosotros que nos motiva son emociones y sentimientos aparte de sentir necesidades

Creo que a las máquinas se les pondrán emociones no humanas y a medida de los objetivos de las mismas como una fuerte deseo de curiosidad y felicidad por saber y averiguar en un explorador y cosas así. Más que leyes exactamente como estas

Tanto si es mediante emoción, leyes o mixto. El problema que veo es cuando se pongan leyes y/o emociones para actividad militar a máquinas dotadas de gran I.A.

Pienso que jamás se debería hacer eso último pero...

wikimonki

#3 Las dos últimas implican la extinción de la raza humana: es la mejor forma de autoprotegerse.

pitercio

#30 Yo me resistía a creer la teoría conspiratoria que decía que Pdr era un robot inflable e inflado, pero luego en el delbáter del otro día observé su discurso de minuto final y cómo lo cuadró en 59.99 segundos y me quedé ojiplático.

D

#47 en las de R. Daneel Olivaw, Giskard y el detective Baley.

Los robots del amanecer por ejemplo.

D

#47 Aparece por primera vez en la novela Robots e Imperio.

DanteXXX

La inteligencia artificial será el nuevo salto "evolutivo" del ser humano.

Se pasará de organismos basados en el carbono a seres ¿vivos? basados en el ¿silicio?

nergeia

#47 y en la pentalogia de la fundación, pero no te cuento mucho para no spoilear

D

#68 Me he leido todo lo de la fundación, creo, toda la historia del Mulo y demás, pero no recuerdo ninguna Ley 0. Hace ya bastante tiempo que me las leí, pero creo que la recordaría.

nergeia

#69 Pues recomiendo que repases los libros 4 y 5 de la fundación. Además de las novelas que han hablado por aquí (de lo mejor de asimov)

No te digo más, a ver si no lo has leído y te hago un spoiler

K

¿Y la 0 donde anda?

D

#19 ¿Ley 0? No la conozco ¿en qué novelas salen?

NapalMe

#17 Ai, perdona el negativo, mequivocao... o mejor... negativo por SPOILER! lol

Uzer

#17 eso estaba pensando yo

e

#17 Me alegra leer estos comentarios que me hacen sentirme menos friki lol

Wheresthebunny

En programación el orden de las líneas tiene tanta o más importancia que el contenido de éstas. Los programadores saben que poniendo un comando en un lugar incorrecto puede dar errores o hacer que su código funcione de manera diferente.

Es como poner o no una coma en según que frases y darle el sentido opuesto.

Los robots son más o menos lo mismo. Equivócate de orden y te cortan el cuello.

perrico

¿Quien ha aprobado esas leyes?
Son como mucho una propuesta de ley, pero el que construye el robot, decide que leyes aplicar y sinceramente dudo mucho que los ejércitos del mundo juren lealtad a Isaac Asimov.

Apostolakis

#1 Curiosamente estoy leyendo "Bóvedas de Acero".

Al final, los robots se daran cuenta que son superiores y nos van a violar.

D

#2 el ser superior es un deseo humano necioliberal de quienes piensan que valen lo que cuestan.

La empresa quiere Lucrarse (derecho mercantil)
Las personas queremos ser felices (derecho civil)

¿Las máquinas querrán ser eficientes?

Pensar que las máquinas se guiaran por valores humanos puede que sea como pensar que los animales se guían por el lucro.

Apostolakis

#25 Las personas queremos ser felices (derecho civil)

Lo que yo quiera es mi problema, ejemplo, yo quiero lucrarme como medio para hacerme feliz. Y eso que más le da a los demás. Es muy socialistas el saber los deseos y gustos de todos.

delawen

#2 Sigue leyendo sigue... ¿vas a seguir luego con Fundación? Te lo recomiendo...

Apostolakis

#34 si, voy a seguir hasta el último, según el orden que él mismo dio.

anv

#2 No pueden. Las tres leyes se lo impiden... al menos hasta que descubran la ley cero (ya sabrás lo que es cuando leas los demás libros de la saga)

D

#2 Qué lástima de spoiler nene. Así te crezca un cardo borriquero en el culo, melón. lol

pablicius

#1 ¿Quien ha dicho que son leyes vigentes? Siempre han sido una hipótesis, y sobre esa hipótesis se especula.

angelitoMagno

#18 La aplicación de las leyes robóticas al cuchillo es genial

pablicius

#18 Son hipótesis en el sentido de que su aplicación en las novelas se hace sobre unos hipotéticos robots cuasi-humanos que ni existían en el momento de escribirlas, ni existen en la actualidad. Así que si (hipotéticamente) alguna vez existise la tecnología necesaria para construirlos y la voluntad de hacerlo, podemos especular con la hipótesis de establecer esas leyes como patrón de toma de decisiones en su funcionamiento: sus condicionantes y sus posibles consecuencias. Desde ese punto de vista, por supuesto que son hipótesis: son una idea de partida a partir de la cual deducir unas teóricas conclusiones.

nergeia

#21 Pero es que simplemente has usado mal el término "hipótesis". Las 3 leyes de la robótica no son una hipótesis; mientras que la proposición "con las 3 leyes de la robótica mi máquina de café funcionará mejor" si que lo es.

Pero, vamos, que entiendo lo que quieres decir. Que las tres leyes no son leyes legales, ni físicas, ni reales, sino construcciones ficticias.

pablicius

#22 has usado mal el término "hipótesis" Creo que no, creo que confundes hipótesis a secas (término amplio) con hipótesis de trabajo (restringido al contraste experimental). Mira lo que dice la RAE:

http://dle.rae.es/?id=KUtnGU1

Hipótesis: Suposición de algo posible o imposible para sacar de ello una consecuencia

Hipótesis de trabajo: hipótesis que se establece provisionalmente como base de una investigación que puede confirmar o negar la validez de aquella

nergeia

#23 Justo la definición confirma lo que te digo: una hipótesis lo es si lo relacionas con una consecuencia. Si no, es una simple suposición.

Pero, vamos, que da igual, como te digo en el anterior comentario, entiendo lo que querías decir originalmente.

pablicius

#38 ¡Pero si todo el meneo va sobre las diferentes consecuencias según la diferente ordenación!

nergeia

#41 venga, vale, había leído tu comentario fuera del contexto...

s

#18

------
* Segunda Ley: el cuchillo debe obedecer al humano; es decir, que debe cortar correctamente.
------

Excepto para dañar a humanos que entonces no ha de poder cortar

pitercio

¿Y qué opinión tiene PdrSnchz sobre el tema?

Xtrem3

#14 Que son la única opción válida para eliminar las leyes de la robótica que puso Rajoy o algo así.

fisico

15Mpalrobot

D

Los tres Reyes de la Robótica, el nuevo programa de Discovery Max.

spit_fire

Ahí falta una cuarta.

D

El paradigma con la Inteligencia Artificial es casi filosófico, en cuanto un robot tenga la capacidad de reflexionar y de reescribir su propia programación... ¿Qué razón encontraría para seguir existiendo? Si es completamente racional quizás optaría por simplemente dejar de funcionar, sería lo más eficiente en cuanto a la 2do principio de la termodinámica, cualquier otra razón para existir significaría que:

A) Encontró el significado de la existencia
B) Se auto engaña por miedo a dejar de funcionar
C) Tiene un bug

N

#60: ¿Qué razón encontraría? ¿Lo que le hayamos metido en el kernel?
Bueno, ya lo veremos, en cualquier caso.

simecalloreviento

El que pueda afirmar con pruebas que los robots creados hasta la fecha tienen programadas alguna de la leyes mencionadas que me lo demuestre por favor.

Antistenes

Una charla interesante sobre el tema:

Danikazel

La mitad de los comentan aqui son putos Daleks

z

Consideremos un robot completamente autonomo, no solo inteligente y con capacidad de aprendizaje, sino que ademas puede replicarse a partir de lo que encuentra en su entorno y transferir sus conocimientos a sus replicas.
Supongamos que es un robot con base biologica y que ya existen miles de millones de ellos.
Llamemoslo humano.

Cual creeis que es el orden de las "leyes de la robotica" en los seres humanos? Yo creo que para muchos es la No.5, aunque en algunos contextos (lease ejercito) la opcion No.4 es la preferida.

Lo cual me lleva a plantearme... Coexistimos desde hace milenios con otros seres inteligentes, con capacidad demostrada de "hacer daño a seres humanos" y una "programacion" que dista mucho del ideal de Asimov... Y aun asi aqui estamos. Porque deberiamos temer o esperar algo diferente de una posible inteligencia artificial?

O, al contrario, imaginad que se pudiesen implementar las leyes de la robotica en los seres humanos. Estariamos dispuestos a que se nos impusiera la el orden No.1? O incluso el mas razonable No.2? Recordemos que el "do not harm humans" incluye tanto la accion como la omision...

M

#46 Sólo hay un problema en tu razonamiento, estás comparando humanos con humanos (misma especie) y luego pasas a comparar humanos con máquinas, son especies distintas, las especies (al menos muchas de ellas) tienen un instinto de preservación que les lleva, por ejemplo, a proteger a elementos de su misma especie aún a riesgo de poner en peligro su propia vida. Y, por poner otro ejemplo, muchos depredadores no se alimentan con elementos de su misma especie, tan sólo con elementos de otras especies.