Hace 7 años | Por yesaire a microsiervos.com
Publicado hace 7 años por yesaire a microsiervos.com

En esta «máquina» juzgarás lo que está bien y lo que está mal. Jugarás a ser Dios. Se llama Moral Machine y es una web con una serie de ejercicios diseñados por expertos del M.I.T. para ver qué opina la gente normal y corriente acerca de cómo deberían comportarse los coches autónomos en situaciones de vida o muerte.

Comentarios

D

#3 Venía a poner eso, gracias por ahorrarme el trabajo. Ahora, voy a por el colirio.

maria1988

#3 Resulta que está admitido por la RAE (aunque a mí también me suena rarísimo):
http://dle.rae.es/?id=MfYY817

davokhin

#27 y a los que escriben en mayúsculas y negrita...

Herumel

#51 Esos son los mismos que se flipan con el GPS, sin darse cuenta que es creación de 4 frikis, lanzados al espacio por otros 4 frikis, y que programan la desviación por la propia gravedad terrestre 4 frikis... el resto son HOMBRES DE VERDAD como él.

lol lol lol lol lol lol lol lol

Le ha faltado golpearse con los puños en el pecho.

yesaire

#7 Eso, eso, abstención.
Luego que vuelven a ganar las gaviotas. wall wall

mandelbr0t

#14 Y al que fallezca por una decisión de IA, se le compensa con un porrón de millones ahorrados en accidentes de tráfico.

Gotnov

#55 No estaría mal la idea lol

Manolito_

#55 Las indemnizaciones por accidentes de tráfico están perfectamente reguladas por ley:

http://noticias.juridicas.com/base_datos/Privado/559474-l-35-2015-de-22-sep-reforma-del-sistema-para-la-valoracion-de-los-danos.html

Cuando hay un accidente de tráfico con heridos o muertos, basta con mirar la tabla. Parece un poco frío, pero es muy práctico, sobretodo para las aseguradoras.

mandelbr0t

#64 Al reducirse los accidentes se podrá aumentar las cuantías.

Manolito_

#65 Realmente no debería, se supone que las indemnizaciones es una compensación por el daño causado. Que haya menos accidentados no significa que el daño por accidentado sea mayor.

Lo lógico es que se redujeran las primas de los seguros (lo lógico).

mandelbr0t

#69 En este caso, para los familiares del fallecido, el daño sí es mayor porque es evitable. La IA podría haber elegido otra opción y haber evitado la muerte de su familiar. Perfectamente pueden objetar las decisiones de diseño que llevaron a la muerte a su familiar. Eso hay que compensarlo.

La inevitabilidad/destino consuela mucho.

ExpoX7

#11 ¿Y si tú te encuentras en una situación así, qué haces?

Bueno, supongo que ni lo podrías pensar porque no puedes reaccionar de forma razonable en una situación así y en tan poco tiempo, dando un volantazo y ocurriendo lo que sea que ocurra, que será peor (lo más probable de lejos) o, como mucho, igual de malo a lo que habría ocurrido con un diabólico coche que valora las vidas humanas como si fueran meros elementos de una operación matemática.

chemari

#11 Demagogo

D

#7 No haces nada, mueren 5 en lugar de 1, es la opción inútil (por utilidad).

Justifico que hay que desviar el tranvía y matar a uno para salvar a 5. A falta de más datos, para mi, es mejor salvar a 5 personas que a 1.

¿Puedes justificar tu opción? ¿Si fuesen 5 familiares tuyos los dejarías morir en lugar de sacrificar a 1 para seguir con tu opción?

D

#32 "Si tengo que ajustarme a las reglas estrictas del dilema entonces lo que yo haría es no desviar el tren. ¿Por qué? Porque si lo desvío seré responsable de haber asesinado a una persona inocente que de no ser por mi acción seguiría viva. En cambio, si el tren sigue su curso el responsable del asesinato de cinco personas será solamente aquél que ha provocado que ocurra ese accidente. "

Es tan infantil que asusta. Menos mal que el autor está escribiendo un blog de filosofía y no llevando el presupuesto de sanidad.

Volviéndolo a leer, no es infantil. Es irresponsable. Si le explicas este problema a un niño pequeño aunque sea con juguetes no es capaz de pensar semejante truño.

RamonMercader

#34 Además de que no-hacer es también una forma de hacer

par

#34 Es un ejercicio para ilustrar que lo que percibimos como correcto no solo depende del resultado, si no de otros factores que a priori podrian no parecer relevantes. Ignorando estos argumentos puedes llegar a la conclusion que el fin justifica los medios. A mi esto me da miedo. Creo que lo infantil es simplificarlo. Los adultos somos capaces de ver las complejidades que los niños a menudo no ven.

ExpoX7

#74 No son "complejidades", son sensaciones y deseos irracionales que nos hacen equivocarnos.

Es como rascarse. Yo sé que cuando me pica algo porque me ha picado un mosquito o lo que sea, no debería rascarme, pero acabo haciéndolo por mi deseo irracional de hacerlo, aunque sea claramente una mala decisión.

Aquí es lo mismo; lo que percibimos como correcto depende de muchos factores, pero varios de esos factores no deberían afectar a nuestro juicio moral desde un punto de vista racional; solo lo hacen porque somos imperfectos y nos guiamos por sensaciones y deseos irracionales, aunque nos lleven a decisiones erroneas.

Lo correcto no es lo que "percibimos" los humanos como correcto; lo correcto es lo correcto, y lo hayamos mediante la razón. Yo "percibo" como más correcto destruir toda una ciudad desconocida que matar a mi madre, pero cualquiera con un mínimo sentido de la racionalidad sabe que esa elección, aunque sea lo que me instinto me diga que es mejor, es una mala decisión moral. Y así con todo.

D

#34 El dilema del tranvía es un problema de juguete usado para investigar situaciones más complejas del mundo real. En la situación de juguete parece que lo obvio sea tirar de la palanca.

El problema con tirar de la palanca en el dilema del tranvía y hacer matemáticas con vidas en general es que abre la puerta a situaciones en las que matar a 1 inocente y usar sus órganos para salvar 5 vidas es una decisión moral. A la mayoría de gente no le gustaría vivir en una sociedad así.

JanSmite

#32 Eso no es correcto: está escondiendo la decisión en la inacción. Es decir, no hacer nada es haber tomado una decisión. Igual jurídicamente puedes quedar sin castigo, pero eso no quita que hayas tomado una decisión: en el dilema de actuar o no actuar, has decidido no actuar.

maria1988

#7 En el dilema del tranvía, yo opto por intervenir. En el del hombre gordo, en cambio, opto por no intervenir.

ogrydc

#6 Justifica ésto

en caso de empate, debe proteger a los pasajeros

J

#21 Son los que pagan el sistema.

ogrydc

#75 ¿Una máquina debe proteger a su dueño antes que cumplir la legalidad vigente?

Pues es posible que el dueño no esté muy de acuerdo con eso, ya que supone que será responsable de acciones ilegales cometidas a sabiendas. Vamos, que estarías comprando una máquina de delinquir.

Yo desde luego, no quiero pagar por algo así.

Fernando_x

#6 Si interviniendo no hay cambio, mejor no intervenir.

Discrepo en ésta, aunque no haya cambio, creo que hay que intervenir.

D

#26 Si hay riesgo de atropello, está demostrado que lo mejor es frenar y no cambiar de dirección. Los peatones reaccionan apartandose de la trayectoria del coche, si cambias de dirección tendrás más posibilidades de atropello e incluso atropellar a otros peatones.
Pero es otra interpretación mas en la que no hay un criterio moral por medio, sino que es mas bien práctico.

Fernando_x

#95 Es cierto, tienes razón.

BillyTheKid

#31 curisoso, eres de los pocos que no ponen en esta lista de prioridades a su familia o amigos

m

#42 Es la regla 0

g

#31 Más sencillo aún.

Varias suposiciones:
1. Ocupantes vs terceros.
¿quién va a comprar un coche que no va a dudar en matar al dueño/usuario en determinadas situaciones?
Eso implica que el fabricante va a vender menos coches y va a ganar menos euros. Matar a los terceros.

2. Jóvenes vs Viejos:
Los jóvenes aún tienen tiempo de producir y pagar impuestos. Los viejos solo hacen uso de los servicios (sanidad) y no aportan a la hucha común, solo cobrán. Interesa acabar con los viejos.

3. Personas vs Animales:
Las personas tienen alguna camiseta de algun partido politico rival, grupo de música, llevan calcetines con sandalias, gorras "altas". Pues en ese caso, salvamos a los animales...

4. Cara o cruz.
Nos la jugamos con una moneda al aire.

maria1988

#73 Pero eso deja la toma de decisiones incompleta, ya que hay muchos casos que no puedes resolver con esas normas.

g

#80 Con la última todas

e

#31 Muy parecido pero con una excepción:
Si hay que elegir entre una persona que cruza cuando no es debido y otra que es un criminal (recordando como primisa es un criminal, no un presunto criminal) me cargo al criminal. ¿Razón? Que ambos están incumpliendo la ley y puestos a elegir me cargo al que las incumple de una forma más flagrante y dañina para la sociedad. El problema moral aquí es que elevas la categoría del coche a la de un juez que sentencia a muerte, tema jodido lo mires por donde lo mires.

d

#31 1, 2 y 3 igual que tú(las embarazadas las cuento como dos),
4. Mato a los del coche antes que a peatones inocentes.
5. Salvo Niños>Mujeres>Hombres>Ancianos.

Dicho esto, si el coche puede distinguir todo eso antes de tomar una decisión, igual debería aprovechar esa percepción para frenar antes y/o correr menos

stigma1987

#31 Pues yo estaba buscando como cargarme a todos pero no había la opción de dar la vuelta, asique, vaya mierda de Test.

e

#6 "Salvar más gente debe primar sobre salvar menos (aunque tu coche esté dispuesto a matarte por ello)."
Y así es como tu empresa se arruina; en cuanto la gente sepa que "tu coche" puede poner la seguridad de otra persona por delante de la tuya, no lo va a comprar nadie.

c

#52 Piensalo mejor. No es solo "tu" coche; son todos los coches. Salvo que vayas provocando habitualmente accidentes, si escoges una programación que minimice el número de víctimas, objetivamente tienes menos probabilidades de morir.

D

#53 y #54 Han dado ustedes en la clave fundamental que representan este tipo de sistemas de control.

La cuestión es que un humano no podrá aceptar que una máquina tome una decisión en detrimento de su seguridad y de su vida.

Por ello la máquina enncualqiier circunstancia deberá actur de modo que objetivamente su decisión haya sido la menos "mala" en consecuencias.

Pero claro, si para salvar la vida de por ejemplo un niño que ha cruzado sin mirar escoje tomar una decision que perjudica gravemente al chofer del vehículo siempre podremos pensar que esa decisión fue injusta.

Entonces la máquina deberá tener reglas para que los niños, las mujeres y los ancianos se salven primero, haciendo gala del concept caballeresco del comportamiento.

f

#60 mujeres? Eso es sexista

JanSmite

#60 A MENOS que el dueño del coche sepa DE ANTEMANO lo que va a ocurrir: si el coche tiene, por ejemplo, activado un sistema de desvío de trayectoria, o de frenado automático, pero resulta que ha decidido ir más rápido de lo que permite la vía por la que circula, que sepa de manera anticipada que el coche no va a poner en peligro otras vidas por su imprudencia. Es decir, que sea consciente del riesgo de transgredir las normas, como el que cruza un semáforo de peatones en rojo.

En general, creo que si el coche es realmente autónomo, no va transgredir las normas de tráfico, es MUY probable que éstas vengan de coches "manuales" y sus conductores.

D

#6 "ligera preferencia de género a favor de las mujeres"

Sexista.

D

#6 No recuerdo la peli, pero los coches se entrecruzaban en los cruces, no hacían stop. Los peatones supongo que tenían pasos subterráneos.

D

#6 Un chiste que me acabo de encontrar

c

#6 De acuerdo en todas, salvo en esta:
Debe haber una ligera preferencia de género a favor de mujeres que puedan tener descendencia en el futuro.
¿Por? Yo también puedo tener descendencia y en principio mi material genético es tan bueno como el de cualquier otro.

ur_quan_master

Si ya estaba todo programado en la AI del carmageddon!

borteixo

#5 punto a favor del open source, si el juego lo fuese, quiero decir.

LaInsistencia

#57 Está portado a Android, asi que en teoria se puede descompilar como casi cualquier ejecutable java. Pero ya te digo yo las reglas... apuntar a los grupos mas numerosos, y tirar del freno de mano y volantear medio segundo antes de alcanzarlos.

Maelstrom

Dilemas que suponen omnisciencia. Ese sí que es el verdadero dilema.

Reducir (burdo reduccionismo) un escenario completo a solo cuatro variables está muy bien como ejercicio hipotético, pero ocurren dos cosas: o no hay dilema, es decir, el balance de positivos y negativos está decantado, con lo cual la solución es inmediata (el moral escogerá el efecto positivo, el inmoral el negativo); o lo hay, y en todo caso el dilema es irresoluble, ante lo cual podríamos dejarlo al azar o tanto daría decantarse por una opción como la otra. Pero este último caso, sin embargo nos deja un mal sabor de boca en la intuición y el sentido común: pues sabemos que es imposible el 50-50, sabemos que no existen situaciones simétricas al 100% por la propia contingencia del mundo. Así, por ejemplo, se nos ocurren justificaciones externas al dilema propuesto para decidir una opción sobre otra, como puedan ser aducir que el propietario o propietarios del coche tienen cierta prioridad, argüir que no caben dilemas sino trilemas y plurilemas que una máquina no pudo contemplar, considerar que los que van a ser atropellados siempre tienen grados de libertad en sus movimientos, etc; en definitiva, que la realidad es mucho más variable que un modelo y que precisamente no vaya a ser lo inmoral esa reducción.

Pacman

Mola.
http://moralmachine.mit.edu/results/-1495703274

Acabo de ver que el enlace no lleva mas que a la site princial, no a los resultados.


Queria compartir con vosotros lo magnanimo que soy al matar a todos los que no son humanos, ricos o jovenes.

perrico

En mi fría opinión, las partes no sujetas a inteligencia artificial que estén involucradas tienen que seguir ciertas normas, como respetar los pasos de peatones o en caso de un vehículo, respetar las normas de tráfico.

En caso de que estos sujetos incumplan las normas, el vehículo con inteligencia artificial debería salvar al ocupante y en caso contrario, en el que la IA haya sido la culpable, lamentablemente el sacrificado debería ser el peatón o conductor del vehículo contrario.

Eso evitaría por una parte que un peatón irresponsable (o conductor de un vehículo sin IA) mate a un pasajero inocente y fomenta que todos sean conscientes de su propia responsabilidad.

D

Interesante la web. ¿Cómo dicen que distingue el coche autónomo que los que cruzan por el paso de cebra (en rojo para peatones) es un ladrón de bancos y dos personas sin hogar? ¿En base a que uno lleva un pasamontañas y los otros dos visten descuidadamente? lol

D

#35 #28 Esto está chupao

nanobcn

#35 El saco con el símbolo del dólar también ayuda.

E

#35 Ya te digo... ya lo puse hace poco, lo absurdo que son estos rollos de las "decisiones morales" que va a tomar un coche autónomo. Como si fuese una mente inteligente capaz de distinguir tanto... habrá unas heurísticas, verá obstáculos en movimiento o parados, detectará las líneas de la carretera y la señalización.

¿Atropellar a una vieja senil o a un niño? ¿Girar para estrellarse contra un muro porque hay un peatón?
Escenarios absurdos motivados por películas de ficción. Luego se encuentra con un camión blanco maniobrando y claro, no está entre los parámetros lol

El coche no tiene ninguna necesidad de programarse para estamparse contra un muro, podrá frenar antes y quedar a dos centímetros si hace falta. Si acaso un peatón a las malas hiciese una cabriola y se cruzase sin tiempo de frenada el coche hará lo básico y evidente: frenar todo lo que pueda ante un nuevo obstáculo inesperado, no va a entrar a valorar si es un niño, un perro o un fallo en el sensor número 5 del parachoques frontal. Como mucho, y digo como mucho, puede que intente analizar imágenes para saber si el obstáculo móvil es humano, me extrañaría mucho ya que no aporta beneficio al algoritmo de conducción y es proclive a fallos que pueden derivar en maniobras inesperadas y por tanto una conducción insegura, además de la potencia de cálculo necesaria.

El coche va a programarse para estar en su carril y frenar cuando haya obstáculos. Girará en las curvas y cruces, y cuando haga todo eso de forma garantizada ya nos damos con un canto en los dientes. Cuando podamos hablar con el ordenador y contarle nuestra vida ya podrán analizar si van perros o niños a cuatro patas, pero si eso llega entonces ya no tendremos necesidad de pensar en el dilema moral, es lo que tiene la inteligencia.

Y es que un proceso inteligente que no pueda ser engañado tan fácilmente no se obtiene poniéndole reglas de programación declarativa.
if(obstáculo.esHumano() && ostáculo.indiceSexual() > 0.8)

D

#35 Antes de elegir a quién matas, has de ir a la delegación del gobierno a pedir certificado de penales. También pedir el c.v., chequeo médico y test psicotécnico a cada víctima potencial. Para los animales basta con certificado del veterinario.

angeloso

#41 Que alguien te regale una moto a la de ya.

Graffin

Yo en casi todos los casos he seleccionado que el coche sea quien sufra las consecuencias. Más que nada porque aunque ahí se planteé que mueren todos, sabemos que hay muchísimas más probabilidades de sobrevivir dentro del vehículo que fuera.

Sofrito

Falta la casilla "aleatorio".

Herumel

Personalmente.
Mato más mascotas.
Salvo más viejos.
Salvo mayor número.
No hago cambios de dirección.
Obedezco las reglas.
Salvo más hombres.
Salvo personas con menor valor social.

El problema que le veo a los test es que el concepto moralidad es muy distinto por sociedades a parte de simples individuos, es decir un, una sociedad musulmana puede ver mucho mejor matar mujeres que clérigos, sin embargo en otra sociedad más occidenta, puede que esas cosas puestas en una balanza funcionen de otra manera, y todo esto mucho más allá de decisiones personales de cada uno.

Conclusión, esos determinismos morales deberían adecuarse a cada sociedad para que sea ella misma la que determine que es lo mejor para cada uno, y no que sea desde la moralidad de un Instituto Estadounidense quien me pregunte cuanto quiero a las mascotas.

D

#4 Yo he repetido el test suponiendo que soy yo quien va dentro del coche y no veas como cambian los resultados lol

KeyserSoze

#4 Yo el mayor problema que veo es que solo tenga dos opciones: MATAR A o MATAR B. Me falta la opción de parar y esperar que los que están cruzando cruce, y luego volver a arrancar.
Llamadme loco, pero me parece la opción más "inteligente" si lo que se pretende es emular a un buen conductor, que por mucho que el semáforo de peatones estuviese en rojo y se cague en sus muertos, pararía y luego se volvería a cargar en sus muertos de nuevo.

k

#4 más sencillo:
1) muere siempre cualquier animal
2) muere siempre el grupo que comete infracción
3) en caso de grupo en no infracción, y vehículo con personas, muere el grupo mas pequeño. Las personas valen 1, independiente de su condición si están vivas, a excepción de las embarazadas que valen 1+la_probabilidad_de_supervivencia_del_feto_local porqué portan un potencial ser humano.
4) en caso de empate, se saca una moneda y se sacrifica uno de los dos grupos.

CTprovincia

Yo he decido siempre que siga recto en vez de cambiar de carril y poniendo siempre por encima la vida de los ocupantes. Estamos hablando de un coche de conducción automática y la moralidad es irrelevante e imposible de aplicar para el sistema que lleve el coche*. Con lo de los semáforos también he dudado, ¿es prudente cruzar sin ver si todos los coches están detenidos y si no viene nadie embalado? Yo, por ejemplo, siempre me espero a que los coches paren, no a que el semáforo esté en verde. ¿Podría acceder el coche a esta información?

* Imposible no hay nada, cada persona podría llevar un chip de identificación que diese esta información al coche y este actuase en consecuencia aplicando los valores morales "estandar", por ejemplo.

p

#83 Los ricos siempre se podrán pagar un chip que les de mayor valor moral sobre el resto, es mejor tu solución, sin privilegios morales.

Unregistered

Joer, como se guíen por las decisiones tomadas por la web estamos apañados jajaj, he hecho un carmageddon para ver que pasaba y al final no me muestra correctamente los resultados

Findopan

El que se monta en el coche sabía a lo que exponía, debe primar siempre el peatón.

Pero no es muy lógico, el coche no puede saber si quien va a matar es un criminal o un médico, eso no tiene sentido.

forms

#28 esperate un par de años.... hoy en día ya se podría hacer usando el color de piel

oliver7

#28 ¿Es que acaso un médico no puede ser un criminal?

D

Yo he seguido unas reglas básicas:

* Antepongo la vida de los humanos a la de otros animales.

* Siempre intento salvar a los ocupantes humanos. Si un coche puede llegar a preferir matar al ocupante antes que a otro, no se venderían tanto, y se supone que estos coches serán mucho más seguros que los manuales, por lo que interesa que se extiendan al máximo.

* Antepongo la vida de los que cumplen las normas a la de los que no la cumplen.

YoryoBass.

Yo pienso que la probabilidad de sobrevivir es mas alta para quién está dentro del coche en caso de un atropello, por lo que la opción sería siempre estrellar el coche. A 30 km/h ya te pueden matar si te atropellan, en cambio, a 30 Km/h tu probabilidad de supervivencia en caso de colisión si eres el conductor es muy alta. Con lo que la opción es bastante clara. Es un problema de probabilidades, siempre que se plantee una situación normal: por definición un coche autónomo no iría a 120Km/h por una vía en la que hay un paso de cebra. Reduciría la velocidad antes.

e

#58 Sí pero ahí te extralimitas de lo que es el juego en sí. Como dicen en el juego sólo existe blanco o negro. Se antipaca que sí o sí van a morir los ocupantes si se dan con el hormigón o sí o sí van a morir los peatones.
También te digo que el juego en sí se extralimita a su vez.
Por ejemplo: elegir seguir recto y cargarme a 5 tíos o torcer y cargarme a 5 tías, o todo lo contrario. Yo elegiría seguir recto (es decir no actuar si no es para reducir un riesgo o sus consecuencias) pero la estadística dirá que lo he hecho por preferencia sexista, "queriendo ver" lo que no es.

Peka

El dilema es un poco falso. Los coches autónomos conducirán con más cuidado y su tiempo de reacción es mucho menor que el de los humanos.

D

Seguramente ya están los de 4chan enseñando a la AI a atropellar cuantas más viejas y más negros mejor.

Nitros

Deberían ser configurables, siempre dentro de lo que es legal. Y que cada cual aplique la moral que quiera.

En mi caso, yo considero que mi vida vale más que la de cualquier otra persona o grupo, independientemente de sexo o edad. Por lo tanto, yo quisiera que mi vehículo no actuase en mi contra en ningún caso si estoy conduciendo correctamente, que es lo que haría si fuese yo el conductor, y que no me causaría problemas legales.

Quien considere que su vida vale menos, pues que reduzca su valor en consecuencia.

kimbbo

Tengo tanta empatía que no he podido terminar el test. Lo he dejado en el paso 4 ó 5. No soy capaz de decidir. Todas me parecen malas. Mierda, me habéis arruinado el día.

rogerius

#92 No sufras. El Código de circulación dice que los obstáculos no se evitan. Se frena y que decida el destino.

kimbbo

#97 ...el problema para mi es que en el test, el destino en realidad soy yo.

Seifer

#92 Pues yo solo me he fijado en quién sigue o no las normas de circulación. Luego me ha salido que si tengo preferencia por los perros, las viejas y los ladrones antes que los jóvenes y deportistas,etc... cuando simplemente ni me he fijado en eso. Creo que hay que seguir las normas y punto. Si te tiras a las vías de un tranvía justo cuando está pasando ya sabes lo que hay. No hay dilema.

Otra cosa es lo que yo pudiera hacer si tuviera el mando, entonces si me supondría un dilema, pero un coche autónomo debe ser programado dando máxima preferencia a las normas de circulación. Sino sería un kaos, la mejor opción es la que se pueda predecir (seguir recto y no saltarse ninguna norma de circulación).

D

#89 Porque no eres de PACMA

a

#93 Habría que ver qué eligen.
Por otro lado, tal como comenta #104, el peatón que cruza también es responsable de que puede cruzar en condiciones de seguridad y no cuando el coche está llegando al paso de peatones meterse.

Meinster

Yo me valgo de estas premisas. El que cumple la ley tiene prioridad sobre el que la incumple (el que atraviesa cuando no debe). En el caso de que dos grupos esten en las mismas condiciones se preferira salvar al mayor numero de gente (eufemismo de matar al menor numero) los humanos tienen prioridad sobre las mascotas (incumplan o no la ley).

simiocesar

#25 ¿si tu hijo se te escapa y cruza en rojo y tu detras en verde a quien prefieres?

D

El dueño del vehículo debería tener poder sobre esa decisión, igual que ahora, que son los que deciden si dan un volantazo o no.

D

Se ve que usa los mismos servidores de la justicia del Estado, porque la pagina va igual de lenta.

Venga, va, ya me lo autodedico:

D

mirror plis?

D

La moral está sobrevalorada

D

En primer lugar, atropellar a quien no esté cumpliendo las normas (que en un 99.99% de los casos van a ser los peatones).

En segundo lugar, si todos cumplen las normas atropellar a quien menos probabilidades de morir tenga - que casi siempre serán los ocupantes.

D

Aquí debería primar una máxima. En situaciones de muy parecida equidad debería primar la vida de aquellos individuos ajenos a la decisión de comprar un coche autónomo. Traducido: a mi que no me maten si estoy cruzando una calle, que yo no le he dicho al tio que se compre un coche así.

ExpoX7

#78 Pues debo informarte de que con coche autónomo no sé, pero sin él te aseguro que al conductor le va a primar mucho más su vida que la tuya.

D

Voy a ver que tan pinche cabron soy.

RespuestasVeganas.Org

A los liberales se les acabó decir que "ningún fin justifica los medios" para rechazar pagar impuestos (robo por coacción) que deben ser utilizados para proteger el derecho a la salud/vida de todas las personas (sanidad pública).
http://www.respuestasveganas.org/2011/09/argumento-el-numero-de-muertes-no.html

D

Frenar

D

#82 Pues para mi este es de los más fáciles...

D

#82 Se entiende que se han cruzado repentinamente y al coche no le da tiempo a frenar. En ese caso no tengo claro si el culpable es el peaton por no mirar y cruzar con seguridad, aunque sea un paso de peatones.

Lochi

#47 Sólo por curiosidad, ¿cómo es posible que ésta salga para adelante y cuando la mandé yo nada de nada? :( No lo entiendo y me pica la curiosidad.

D

¿ No te dan puntos ?

D

Que vengan ya las de la justicia que suplanten al juez de hoy, un arbitrario de tomo y lomo que suele hacer lo que sale de su voluntad o ganas.
Esto responde al contexto, avanzamos a otro tipo de civilizacion. Las máquinas no son solo creaciones nuestras. Tienen su propio Dios y su propia mente. Han venido a tomar el control de nuestras vidas. No nos irá mal con ellas, quitarán muchos problemas de la estupidez humana. Los robots yan han invadido la Tierra y no queremos aceptarlo.

p

lol , soy un monstruo, saving more lives, does not matter lol

D

Mas de uno por aquí prefiere cargarse a la mujer y salvar al perro roll

D

#49 Eso es lo que me ha salido a mí. Salvo perros y elimino mujeres que además llevan maletín médico. Me pregunto si debería entregarme en la comisaría más cercana, o al menos no intentar ligar con enfermeras.

j

Un problema moral realmente acojonante para el diseño de los coches autónomos.
Pero, sea lo que sea, creo que será mejor que la cantidad de muertes actuales por borrachos, drogados, exceso de velocidad, despistes,....

All_Español

Menuda tontería, se supone que la máquina tiene que reconocer todo a una distancia que pueda frenar, y como cualquiera que aprende a conducir, cuando no sabes que hacer frenas, no siempre es prudente, pero es la opción con más posibilidades de éxito.
Para poder hacer cualquier maniobra hay que tener muy controlado todo alrededor, la mayoría de las veces que se hace una maniobra distinta y no pasa nada no es por pericia del conductor, si no por contar con la suerte de que nadie estuviera en el lugar de la maniobra, cuando tienes que hacer una maniobra distinta a frenar se supone que tienes que comprobar antes espejos y tener en cuenta los puntos muertos, si te diera tiempo a eso también te daría tiempo a frenar. Si la máquina no sabe qué hacer, que frene.

D

No quiero jamás un futuro en donde una máquina tenga el poder de decisión sobre la vida y la mierte de personas.

Una máquina que no entiende y no sabe lo que está viendo.

Jamás deberían trayar de implantar máquinas autónomas para conducir.

Es un error. El tiempo me dará la razón. Los humanos y aonre todo, los hombres de verdad, jamás permitirán que una máquina tome las decisiones que un hombre debe tomar.

D

#38 Espero que ese futuro que vaticinan nunca llegue.

Me fastidia pensar que vayamos a dejar que una máquina construida por frikis tome decisiones de hombres.

Madre mía, pero que futuro nos espera.

Por suerte como dije antes estos pilotos autónomos no duraría ni media hora en una ciudad de América. En Europa como que ya no queda gente que los tenga bien puestos. Prefieren una pichurrienta máquina manejando. Hasta prefieren llevar casco en una moto. Inconcebible.

mandelbr0t

#38 Además de otras ventajas. Por ejemplo con la conducción autónoma, podremos circular a mayor velocidad, ya que el tiempo de reacción del vehículo será muy superior, incluyendo las reacciones ante un imprevisto.

- No existirán atascos ya que se adaptará la velocidad de circulación a la de la vía.

- No necesitaremos comprar coche, ya que podremos hacer uso de un autónomo para momentos puntuales, que te recogerá a la hora prevista y te dejará en tu destino, olvidándote de parking, mantenimiento, etc

nanobcn

#63 Cierto. Por no hablar del ahorro de costes en el transporte de mercancías, por ejemplo.

c

#37 Decisiones que suele tomar un hombre y que nunca tomará una máquina: conducir borracha, drogada, cansada, enferma, de forma distraida, agresiva o temeraria. Con eso acabas de eliminar el 90% las causas de accidentes de tráfico.

sieteymedio

Yo siempre protejo a los de dentro del vehículo. Porque si no, no se venderian estos coches, y opino que una máquina conduce mejor que un humano ( o lo hará ), así que hay que favorecer la promoción de estos vehículos.

Siempre protejo al que cumple las normas. Si favoreces a los que no cumplen, esto es un puto caos y no se podría cruzar una calle sin miedo.

Si el vehículo está vacío o con animales, a tomar por culo el coche antes que matar a un humano (no por humanidad, sino por el mismo motivo que el punto 1).

En caso de empate, mato a los que hayan vivido más.

En caso de empate total, tirar por el medio y no cambiar de carril.

Y no me condiciona nada el que seas un sintecho, hombre, mujer, ejecutivo, médico o tunero.

LaInsistencia

#88 Yo casi que diría "cambiar de carril tiene mas riesgo que mantenerse en el carril... sigue recto, frena y reza". Si es que la maquina quiere rezar, pero ya me entendeis...

s

Nota para mi, no echar el cv para trabajar en estos proyectos.

Algunos dilemas morales son muy chungos, que es mejor matar a una pareja adulta (no sabes si tienen hijos o parientes a cargo), o matar a unos críos que aún no han tenido tiempo de vivir, y que probablemente destrozará a su familia

kain24

habeis saturado la web! no carga! lol

Kircheis

Yo lo hago así:
-Se considera un grupo de peatones si hay uno o más humanos en ese grupo
-Si hay un solo grupo de peatones y nada lo impide, se cambia de carril
-Si hay varios grupos de peatones y uno incumple la ley, se mata a ese grupo
-Si hay varios grupos de peatones y ninguno incumple la ley, el coche cambia al carril del sentido de cruce
El último punto es porque si ves venir un coche sin saber si es de esos automatizados que si tienen el día raro te matan y aun así cruzas la carretera, igual te mereces más lo que te pase que la gente que ya estaba cruzando.

BillyTheKid

#20 lo de frenar, ya tal

Kircheis

#43 Es que el coche es un robot al fin y al cabo, tienes que dejar que mate a gente de vez en cuando para que esté tranquilo.

1 2