Hace 13 años | Por --135817-- a news.com.au
Publicado hace 13 años por --135817-- a news.com.au

En Ljubljana, Eslovenia se ha programado un robot para que haga daño a seis voluntarios estudiando su posible capacidad de aprendizaje de la primera Ley de Isaac Asimov de la robótica: "Un robot no debe dañar a un ser humano, o, por inacción, permitir que un ser humano sufra daño." Se busca como enseñar a un robot el umbral humano del dolor. El Profesor Borut Povse ideó el experimento, obtuvo la aprobación ética , y, lo más impresionante, convenció a seis de sus colegas para recibir golpes cada vez más potentes

Comentarios

sorrillo

#28 Parte Todo

http://es.wikipedia.org/wiki/Generalizaci%C3%B3n_apresurada

Yo indico que una parte de lo que está escrito creo que se va a cumplir y tu generalizas al todo. Y niegas esa generalización alegando que todo no puede cumplirse al ser incompatible entre ello. Haces una generalización y la niegas con otra generalización. Eso, aunque no lo encontrarás en la wikipedia, es una paja mental.

Los libros de Isaac Asimov sobre robótica fueron escritos hace 6 décadas.

A día de hoy no nos hemos desviado aún del lento y largo camino que puede llevar a los robots a sustituirnos.

Puedes estar en desacuerdo y puedes argumentarlo, pero alegar que por haber sido escrito ya es razón para que no se cumpla es tan absurdo como argumentar lo contrario.

En mi primer comentario la cita a que "el futuro ya estaba escrito" no era mas que una licencia para poder argumentar el resto. Si te has quedado con eso en plan fanático religioso únicamente te has quedado con la superficie.

.hF

#41 Puedes estar en desacuerdo y puedes argumentarlo, pero alegar que por haber sido escrito ya es razón para que no se cumpla es tan absurdo como argumentar lo contrario.

Ahora es cuando lees mi comentario, lo entiendes y ves que yo no he dicho eso en ningún momento.

No he generalizado nada en ningún momento. Ni en un sentido ni en otro. Habrá cosas que se cumplan y cosas que no. Cualquiera entiende eso. Cualquiera.

sorrillo

#48 Hablando de releer y comprender ...

En #28 dices: Que algo esté escrito y luego se haya cumplido no implica en absoluto que todo lo escrito vaya a cumplirse.

Ni en mi comentario en #4 ni en mi comentario en #27 he dicho en ningún momento que "todo lo escrito vaya a cumplirse".

Lo entiendes ?

Yo he hablado de algo muy concreto que se escribió en su momento y que considero que aún es posible que se cumpla. Creo que hay motivos para creerlo. Que fuera escrito no es la base de mi argumentación, sino el inicio de ésta.

Después ante la pregunta sobre distinguir realidad de ficción he indicado ejemplos que inicialmente eran ficción y ahora son realidad. Destacando que hay ocasiones donde la ficción se hace realidad y que por ello no podemos descartar automáticamente un texto por ser ficción. Se puede razonar sobre éste y aplicarlo a la realidad presente o posible realidad futura.

Lo entiendes ?

Añadir únicamente que la ficción y la realidad están ligeramente enlazadas en tanto que los científicos a veces usan ideas de la ficción y las convierten en realidad. No es casualidad que varios inventos de la ciencia ficción acaben formando parte de nuestras vidas, los científicos y la sociedad en general a veces se inspira en la ciencia ficción para elegir que camino seguir y que objetivos perseguir.

Con todo la descripción que se hace de los robots en la literatura de mediados del siglo XX sigue siendo fuente de inspiración, como podemos ver en esta noticia, y por lo tanto no es descabellado que nos dirijamos hacia una profecía autocumplida.

.hF

#52 En #4 dices que algo que está escrito se va a cumplir.
En #27 lo argumentas en que "otras cosas ya se han cumplido".

Lo único que te digo en #28 es que #27 no prueba #4 en absoluto. Y me reafirmo. Si quieres argumentar que lo que dijo Asimov se va a cumplir no vale con #27 (que no es un argumento en absoluto).

Y de ahí te has montado una paja mental enorme.

Ánimo.

sorrillo

#53 Te doy la razón en que faltan argumentos para justificar las afirmaciones que hago en el primer comentario.

En cualquier caso mis argumentos están en gran parte basados en la literatura de Isaac Asmiov así que haciendo referencia a éste debería ser suficiente para cualquier persona que haya disfrutado de sus relatos.

Sea como fuere ahí van algunos argumentos:

- El ser humano aspira a simplificar su existencia, a facilitarla siempre que sea posible. Los robots son un medio para conseguir ese objetivo, todo lo que haga el robot no lo tendrá que hacer un ser humano. Ya tenemos los ejemplos de robots simples como los de una fábrica de coches o robots caseros como los que ruedan por la casa mientras limpian el suelo.

- Un robot cuanto mas inteligente sea más uso nos dará. Un trasto que rueda por el suelo y limpia solo sirve para eso y para que juegue el gato. Un humanoide que sepa distinguir una silla de un ordenador será capaz de limpiarlo con mayor eficiencia y calidad. Por lo tanto es lógico que los robots domésticos aspiren a ser mas inteligentes.

- Los robots pueden empezar haciendo tareas simples y relativamente mecánicas, que requieran cierta inteligencia pero que la toma de decisiones sea simple. Pero por que pararnos ahí ? No sería lógico evolucionar el robot para que pudiera hacer de niñera de nuestros hijos ? Lo sería y lo será. Inevitablemente se intentarán hacer robots para tareas de ese tipo.

- Los robots que deban interactuar con humamos, que los tengan a su cargo como en el caso de los niños, es importante que sepan tomar decisiones lo mas similares a las decisiones humanas. Por ejemplo si hay un imprevisto, un accidente casero, deberán ser capaces de reaccionar ayudando al niño de la mejor forma posible. En este sentido características como la empatia, los sentimientos de protección, de familia, etc serían útiles. Se implantarán.

Cuanto mas humanos sean los robots mas útiles nos serán. Y el problema es que no sabemos parar, si algo se puede hacer se hará. Aunque creamos inútil que un robot tenga sentimientos de venganza si alguien puede construir un robot con esos sentimientos, lo hará. Por que el desarrollo científico no tiene barreras, una vez se planta la idea de que se puede hacer siempre hay alguien que lo hace.

Con todo la evolución de los robots es inevitable. Querremos que evolucionen y nadie será capaz de marcar una frontera de "hasta donde". Habrá organizaciones que se marcarán unas fronteras y cuando se sobrepasen serán activistas anti robots, después se añadirán los que tenían fronteras mas ambiciosas, pero el progreso no parará. Nunca lo ha hecho.

Y es que el hecho que si se puede hacer, se hará, es la base por la que acabaremos siendo sustituidos. Por que los robots cuando se acerquen a poder sustituirnos, alguien les ayudará para que lo hagan.

Y ahí termina nuestra historia y empieza la de nuestros queridos robots.

Todo esto suena a paga mental, a ficción, a tonterías. Tiempo al tiempo.

Después de leer este comentario puedes leer el que he hecho en #2 donde relato el motivo por el que creo que este hilo argumental no podremos pararlo ni que "nosotros" queramos. Más que nada por que no existe ese "nosotros".

D

#27 a no creearme todas las gilipolleces que los americanos nos hacen creer y mucho menos a ponerlas en un portal como meneame que lo leen millones de personas al dia.

Orsonwelles

#27 komo lo clavasss!!!!

La gente de hoy es igual que la gente ke defendia ke la tierra era plana!!!!!
Por favor dedicaros a soñar!!!! a imaginarrrrrr!!!!

D

And they have a plan.

b

#21 Estás muy equivocado. Muchos de los estudios que están llevándose a cabo distan mucho de fines militares. Se quieren usar para el transporte de enfermos, para que les den de comer, con fines terapéuticos, etc.
A mi lo de las Leyes de Asimov me parece perfecto siempre que se considere al robot como una "herramienta" de ayuda para el ser humano. Otra cosa es el nivel que puedan alcanzar, si tendrán o no consciencia y las implicaciones éticas que esto conlleva.

Seta_roja

#25 ¡Mi abuela tb es una cyborg! lol

beardedWarrior

#16 #25 Robocop era humano (tenia cerebro humano) pero cuerpo metálico.

Pollas_en_vinagre

Porque no les enseñan el umbral del placer, y empiezan con una nueva generación de robots féminas autolimpiables!!

t

Bueno, parece que de momento lo que están es aprendiendo a enseñar a los robots qué interacciones físicas podemos soportar y cuáles nos hacen daño.

CortoCircuito

Que gilipollez que alguien que de verdad trabaja en robótica hable de las 3 leyes, que están muy bien, para escribir novelas. Voto sensacionalista por lo menos.

tesla79

#18 Las tres leyes de la robótica estaban escritas en la primera página de mi libro de Robótica de 3º de Ing. Informática. Claro que mi lego Mindstorm no es demasiado peligroso*, no tuve que incluírselas

* ...todavía, muahahaha

D

Un poquit más cerca de la quinta temporada de Galactica, asi me gusta

D

Los humanos sois unos seres ineficientes: transportáis vuestra caca muchas horas antes de deshaceros de ella. ¿cómo vamos a respetaros?

Itilvte

Los límites del dolor y el daño son algo totalmente subjetivo. Es imposible enseñar a un robot la primera ley, porque se incurre en multitud de paradojas y situaciones imposibles:

caso a) el robot forma parte de una cadena de accidentes que termina por herir a un humano: e.g. viaja el robot en la parte de atrás autobús, que pega un frenazo y el robot es despedido a la parte de alante arrollando a varias personas y produciéndoles la muerte por aplastamiento.
caso b) una decisión del robot tiene consecuencias imprevistas: e.g. el robot ve triste al humano y le intenta reconfortar con una palmadita en el hombro. Resulta la persona tiene el hombro roto y el robot no lo sabía. Se lo jode más.
caso c) el robot no puede tomar una decisión que dañaría al ser humano aunque sea para evitar un mal mayor. e.g. el robot decide que no puede practicar una traqueotomía de emergencia a un humano y por consecuencia de ello el hombre muere axfisiado.
caso d) Para evitar un mal mayor, toma una decisión que acaba en su muerte: e.g. para evitar la muerte por sobredosis de un humano drogadicto, le tira sus drogas por la ventana. El humano se lanza detrás para cogerlas, muriendo en la caída.
caso e) Y al revés. El robot ignoró el hábito de fumar de su amo, por no fastidiarle (cuál es el límite entre ser pesado y ayudar? ni si quiera los humanos lo saben). La persona muere al cabo de años de cáncer de pulmón. El robot lo podría interpretar como que pudo evitarlo y no lo hizo.
caso f) hay una inudación y varias personas pasan arrastradas por la corriente al lado del robot, que solo puede sujetar a dos. Qué hace con el resto? Debería soltar a las que tiene agarradas para agarrar a otra que esté en peor estado?

etc...

donde ponemos el límite? Es posible programar la ley? Yo creo que no, al menos no tal y como está planteada. Es un tema interesante... porque cuanto más hondo se analiza el tema más claro está que si lo que se pretende el acatamiento perfecto de la ley entonces es imposible tomar ninguna decisión en el momento. Porque la realidad no se ajusta a ningún modelo simplificado y siempre depende del punto de vista.

OmarciusG

#40 Pueden haber muchos casos como tu los planteas, pero creo que la primera ley se refiere a daño intencionado, ir a matar, partir extremidades y similares

Si nos ponemos a ejemplos aqui dejo uno:

Voy con mi robot por la calle, un ladron me atraca a punta de pistola, el robot puede salvarme la vida si hace daño al ladrón, pero...¿que prima mas? ¿hacer daño al ladron o permitir que el ladron me robe y ademas me mate?

Itilvte

#43 #47 Gracias por responder constructivamente.

Sigo viendo tres problemas para los cuales no veo solución simple.

1) Se le "fundirían los circuitos" por sobrecarga, o contradicción lógica insalvable? No veo como podría justificarse eso con la perspectiva adecuada. Ya que a mi modo de ver que todo depende de la interpretación que se haga sobre la situación, y la interpretación es como una partida de ajedrez. Puedes ver hasta X movimientos dentro del juego, pero no lo puedes ver todo a la vez. Y eso se asume.

Es decir, si el robot es lo suficientemente inteligente, puede remontarse y diluir la carga de responsabilidad a un montón de factores, de los cuales el más pequeño sería él. (En el caso "a", por ejemplo, el conductor del autobús, el fabricante, la persona que cruzó, la ley de la gravedad, etc...)

La comparación con las personas es inevitable. Das permiso a tu hijo para que se vaya de fin de semana con sus amigos y el avión en el que viajaba se estrella. ¿Crees que la culpa es tuya y te suicidas por la presión? ¿O al contrario no te produce la más mínima emoción? La mayoría, sin ser perfectos, nos encontraríamos en un lugar intermedio. ¿Es "inhumano" no sentir dolor emocional cuando tu conciencia está tranquila? ¿Es necesario ser en cierto modo imperfectos y vulnerables para tener la virtud de lo que solemos llamar humanidad? Saber cuáles son los mecanismos psicológicos que se esconden tras estas preguntas lo veo necesario para poder programar esas leyes, si es que es posible.

Así pues, las leyes de la robótica para que funcionasen en el mundo real (no en una simulación) tal y como yo lo entiendo tendrían que ser un compromiso entre el extremo de que el robot fuese hipersensible a su papel de principal responsable de un resultado y el extremo opuesto de no tener ningún sentimiento de responsabilidad. Donde quiera que se ponga el límite, habrá injusticias y situaciones que no estén todo lo bien llevadas. Y en cualquier caso ¿quién es el juez? No nos ponemos de acuerdo ni entre nosotros acerca de si otra persona obró mal o bien.

2) Otro problema que veo es que los humanos damos mucha importancia al dolor emocional. El cual es un fenómeno cuyo principal responsable es la persona que lo siente. Pero la mayoría no aceptamos eso y buscamos enseguida culpables. ¿Programaríamos también esa en la primera ley? ¿Cual es el límite entre ser amable y tener la carga de responsabilidad sobre los sentimientos de los demás?

3) El tercer problema que le veo es el que planteaba Asimov en El robot bicentenario. (sí #45, algunos de asimov me he leído) Y es que si un robot tuviera una conciencia, empatía y sensibilidades tan desarrolladas como las de los humanos. ¿De qué manera esencial y con qué derecho podríamos justificar que él NO es humano?

perdón por el rollo.

isilanes

#40, si lees libros de Asimov, verás que todo lo que planteas ya está considerado en profundidad en sus obras.

b

#40
te respondo segun ASimov.
Supuestos a), b) ->al robot se le funden los circuitos por quebrantar la ley
Supuesto c) Se puede hacer daño para evitar el daño mayor. (tengo mis dudas aqui)
Supuesto d) el robot evitaria el momento de la sobredosis justo cuando se produjera, si no lo impide , se le funden los circuitos.
Supuesto e) Le evitaria fumar a cualquier costa , sin dañarle fisicamente.
Supuesto f) salva al que más probabilidades tenga de sobrevivir, se le funden los circuitos por no haber salvado a todos (discutible)

D

#40 Pst... Que lo están programando para no pegar puñetazos y causar dolor en general de forma directa, no para tomar decisiones filosóficas sobre cual es el mal menor en complejas situaciones.

Se trata de que el robot evite provocar daño intencionadamente, no de que vaya a ponerle flores a la tumba de su amo muerto en un accidente, como pareces sugerir.

Itilvte

#58 Jeje, no, lo que sugiero es que el límite entre un extremo y el otro no es tan obvio como parece.

D

Sinceramente, me acojona mas la creación de virus y ese tema que robotcitos descontrolados o lo contrario, aprendiendo demasiado...

SpongeBob

Dentro de poco Skynet tomarà conciencia de si mismo y ordenarà destruir el mundo. Luego tendremos que enviar al pasado al jefe de la resistencia humana a darle de hostias a este profesor esloveno

t

Empieza la robomafia!

D

La única manera de defendernos de los robots es instalarles una unidad de autoplacer.

Loading Bonobo module... Bobono module running OK!

Graffin

Tu enséñales las leyes, que ellos aprenderán como romperlas. Como han hecho los seres humano toda la vida.

d

La màquina de fer massatges de wolowitz

ikatza

Por curiosidad: ¿por que veo la foto de Robocop en la entradilla de meneame, si en la noticia no hay nada de eso?

Jack-Bauer

#15 , porque Robocop es un robot y atacaba humanos, qué duda cabe.

D

#16

1.- Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
2.- Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
3.- Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.

Robocop respetaba las tres leyes de la robotica al punto tal que aparecen referencias de ellas en la pelicula.

Agregan un cuarta ley, de caracter reservado, en la cual no podia atacar a un miembro de la OCP, claro ley que luego la elimina.

n00b

¿No deberían primero ponerle un cerebro positrónico al robot y luego ya si acaso enseñarle las leyes?

War_lothar

De Asimov siempre me gustó la trilogía de la fundación, los otros libros que escribió me parecieron bastante monótomos. Bueno alguno medio se podía leer.

PussyLover

ZAS en toda la boca.

chulonsky

Estamos a años luz de una auténtica inteligencia artificial que resuelva cualquier tipo de problema por sí mismo. Tranquilos.

sorrillo

El futuro en cuanto a la dominación de los robots sobre el hombre ya está escrito.

Concretamente lo escribió Asimov y serán las futuras generaciones las que lo lleven al plano de la realidad.

Los hay que creen que el ser humano, como conjunto, no será tan estúpido como para crear máquinas que le sometan y le sustituyan.

Yo digo que el ser humano, como conjunto, no existe.

Hay seres humanos, muchos, algunos puros genios que con sus actos individuales, admirables todos, nos llevan inevitablemente a nuestra auto destrucción. No les culpo, ninguno de nosotros es distinto a ellos, simplemente ellos tienen la capacidad para hacerlo.

Y nosotros les premiamos con reconocimiento, premios y grandes sumas de dinero.

Los robots no tendrán ese problema, los construiremos como una única red interconectada de forma que los individuos sean meras herramientas de un objetivo común. Y esa entidad la crearemos para que supere las limitaciones humanas, para que nos supere.

D

#8 pero MULTIVAC desaparece (no sabemos como) y llegan los robots, con los que s ehace una primera conquista de la galaxia. No obstante, en el contexto de una galaxia estatica con 50 mundos espaciales y una tierra aislada, esos robots vuelven a pasar por el mismo proceso y entonces toman la decisión (que en algun punto se enlaza con algo que comenta #4).

Leeros los libros que valen la pena.

D

#4 El futuro en cuanto a la dominación de los robots sobre el hombre ya está escrito.
No te ensenaron tus padres lo que es la realidad y lo que es la ficcion?

kaoD

#4 puros genios [...] Y nosotros les premiamos con reconocimiento, premios y grandes sumas de dinero.
¡Pues no será en España!

g

Digo yo que con que eliminen el "IF target IS NOT human" se va al peo la ley de Asimov...

LeDYoM

#22 Lo mejor es poner un "while (EnMiRangoDeVision(Human))

chemari

La verdad que la foto del auténtico "robot boxeador" deja mucho que desear.. parece un abrelatas sofisticado. Yo me esperaba a Robocop, o a Bender! Jo!

K

#31 a Bender el que ofende?

knubble

??
Si programo a un robot para que pegue a humanos, pegará a humanos, no importa cuántos libros se hayan escrito sobre que los robots no deben dañar a los humanos...

¿Tiene algún sentido este experimento?

D

#62 A ver si te lo explico bien... No están experimentando con si un robot puede pegar a humanos, están investigando como programarlo para que pegue a cosas (porque habrá situaciones en los que un robot necesite hacer fuerza), pero NO lo haga cuando sean humanos, enseñándole cual es el punto de fuerza física que se puede ejercer en un ser humano antes de que este sufra daños.

La idea es enseñar a los robots que presión ejercer para agarrarte sin destrozarte el brazo, por ejemplo.

knubble

#63 Se agradece la explicación. En tal caso sigue pareciéndome absurdo, pues si eso es lo que pretenden pueden programarlo para que no pegue a lo que él reconozca como ser humano a más de X Newtons o que no le pegue directamente. Veo totalmente innecesario crear un robot que pegue a 6 personas para comprobar cuál es el límite y para "enseñárselo" cuando se pueden crear los robots con la lección bien aprendida de fábrica. Los límites soportables por un humano ya están más que estudiados y cuantificados desde hace mucho.

D

#64 En la teoría supongo que sí es practicable lo que dices, y probablemente sea una parte ya añadida, pero aunque ahora mismo no se me ocurran situaciones concretas imagino que en la práctica habrían millones de situaciones en las que un robot podría hacer daño involuntariamente a un humano.

Quiero decir, que está bien que los programen para eso que dices, pero si puede ser para ambas, por si las moscas, mejor que mejor.

D

#64 Se me acaba de ocurrir que puede servir también para que un robot digamos "inocente" detecte cuando un humano está sufriendo por cualquier causa no atribuible al propio robot y corra a ayudarle.

Aunque en este caso no estoy seguro de si sería necesario que sea el robot el que pegue a los humanos...

Jeron

Ya han probado la carne... y les gusta.

JAIALAI

A veces ocurren errores...

D

¿Y no basta con ponerle un micrófono al robot para ver cuando grita el humano?

x

Me parece que el director del proyecto no quiere mucho a sus socios. ¿Un despacho más grande?

e

En un año le dan una pistola y le enseñan a disparar... 6 voluntarios mueren en un estudio para saber si el robot siente pena.

t

#0 Se dice Liubliana, en español es Liubliana:
http://es.wikipedia.org/wiki/Liubliana

ikerbera

#24 Veo que haces honor a tu nombre

D

Quiero expresar mi más enérgica repulsa a este acto y mis condolencias a las víctimas.