EDICIóN GENERAL
235 meneos
2013 clics
¿Comprarías un coche autónomo que escogiera matarte para salvar más vidas?

¿Comprarías un coche autónomo que escogiera matarte para salvar más vidas?

Los vehículos autónomos ya están aquí. Aunque sea en fase de pruebas, estos vehículos sin conductor inteligentes, prometen ser mayoría en las carreteras en un horizonte de tiempo que los expertos calculan entre 15 y 30 años. Su objetivo es claro: reducir la gran cantidad de accidentes que se producen por error o negligencia humana, la gran mayoría de ellos. Sin embargo, el coche autónomo también ha llegado con sus propios dilemas morales, y no son desde luego sencillos

| etiquetas: coche , autónomo , futuro
Comentarios destacados:                                  
#20 #1 #3 #4 #11 #12 La alternativa sería comprar un coche autónomo que escogiera salvar tu vida por encima de la de los demás. ¿No entienden lo que realmente es eso?

Los demás coches autónomos, no solo el tuyo, también estarían diseñados para salvar la vida de sus dueños y no la de los demás (incluyendo la de ustedes). Y en cualquier accidente habrá una carrera egoísta de cada coche autónomo para hacer menor daño a su dueño y causándole daño indiscriminadamente a los demás. Muerte segura para muchos. Se salva el que tenga el coche autónomo más grande y blindado, es decir, el que tenga más dinero, o el que tenga más suerte.

Por el contrario, coches autónomos que decidan el mal menor (de una manera altruista y no egoísta), generalmente salvarían la vida de todos, y muy de vez en cuando habría algún muerto (que en una muy mala circunstancia puedes ser tú). Yo prefiero lo último a una muerte muchísimo más probable de lo primero.

Lo mismo vale para todo en la vida y en nuestra civilización con las alternativas de egoísmo vs. altruismo.
#1 #3 #4 #11 #12 La alternativa sería comprar un coche autónomo que escogiera salvar tu vida por encima de la de los demás. ¿No entienden lo que realmente es eso?

Los demás coches autónomos, no solo el tuyo, también estarían diseñados para salvar la vida de sus dueños y no la de los demás (incluyendo la de ustedes). Y en cualquier accidente habrá una carrera egoísta de cada coche autónomo para hacer menor daño a su dueño y causándole daño indiscriminadamente a los demás. Muerte segura para…   » ver todo el comentario
#20 Queda una tercera alternativa: En la que la IA mata a ambos por el bien del planeta y la sociedad, en un futuro sin conductores imprudentes ni peatones inconscientes.
#24 Eso es tratado en la película Yo Robot.
#25 y salva al negro. Menuda IA :troll:
#67 Hay otro robot que tiene un comportamiento diferente al primero. También hay una IA que se comporta de una manera muy especial.
#25 y en Gumball.
#20 ¿Qué son los suvs entonces?
#27 un tipo de diseño de coche.
#27 #30 #32 Si me accidento que se mate el otro. Había una escena de Los Soprano con el hijo que retrataba esta misería de la condición humana.
#27 Coches nacidos para volcar
#20 ¿Y cual es el mal menor? La decisión ética de a quien matar depende de la cultura, e incluso de cada persona. ¿Salvarías a tres jubilados cuando en el coche hay un bebé? ¿y si esos jubilados se han saltado un semáforo en rojo? ¿y si en vez de jubilados es una madre embarazada? Cada persona tiene una respuesta diferente a lo que es el mal menor. Quizás deban de tener algún tipo de "test de ética" para ajustar los parámetros al del propio conductor.
#37 Esas son precisamente las preguntas que hay que hacer para entender qué es lo mejor, y nunca habrá una respuesta correcta para casos específicos. Por ejemplo, el que está caminando es un genio y el que conduce una persona normal. ¿A quién se salva?. O el que está cruzando la calle lo hace de una manera imprudente (luz roja para el peatón o está en medio de una autopista), ¿qué se hace?

Lo interesante es que creo que por primera vez, se está discutiendo de cuestiones morales en la ciencia,…   » ver todo el comentario
#41 #48 #64 ¿y si el niño que el coche elige salvar se convierte años más tarde en un futuro Hitler? ¿De qué sirven los algoritmos ? ¿No es mejor un poco de entropía en dicho cálculo ?
#37 Eso los chinos lo tienen ya controlado. Según se vayan cruzando con gente van agarrando el fichero de cada uno desde repositorio central donde viene tu puntuación de ciudadano. En el momento del choque calcula varias estrategias, suma las puntuaciones de los implicados, y al final elige la opción que mate a mas gente con menos puntuación. Perdooon, perdon perdon. Elige la estrategia en la que la suma de puntuaciones de los implicados sea menor. Así a mas puntos mas fácil te salvas.

Tanto criticarles, y en el fondo estaban adelantándose al problema...
#48 No se si lo decías de manera irónica, pero tienes toda la razón, y será lo que se hará, al menos en los países con gobiernos fuertes. De todas formas eso no arregla el problema, solo lo traslada: ya no es el coche el que tiene que decidir a quien matar, sino el algoritmo que puntua socialmente a cada persona. El principal problema es que ese algoritmo puntuador de la sociedad es muy, muy goloso para cualquier político, ya sea de un régimen autoritario o no. Poder manipular el algoritmo para arruinar la reputación de las personas que no piensan como tu, de tus potenciales rivales... el riesgo es enorme.

Seguramente se termine haciendo, pero el peligro que conlleva es más que evidente, y te aseguro que se produciran abusos.
#64 Era sarcástico, si. ¿Podemos, no se, olvidarnos de este problema simplemente haciendo que el coche no sea 100% autónomo, y siga teniendo a los mandos a alguien que tome decisiones, como en los aviones? Aunque sea alguien en remoto. O haciendo que solo haya coches autonomos en la carretera y que solo circulen por vias que sean puñeteros escalestrix a velocidad y rumbo controlados al milímetro. O que tengan un botón de parada de maniobra en mitad del salpicadero. Que en el momento en que lo…   » ver todo el comentario
#76

El problema es que, por mucho que se afine, va a haber situaciones en las que no se va a poder evitar causar daño a alguin. Y en estos casos el coche tiene que tener algunos parámetros con los que decidir. Evidentemente casi nunca va a ser cosa de matar a unos u a otros, eso son casos extremos, pero si de dañar a unos u a otros. Por poner un ejemplo: Alguien que estaba parado cruza cuando el semáforo estaba en rojo cruza repentinamete, y el coche no le da tiempo a frenar en parámetros de…   » ver todo el comentario
#99 "Alguien que estaba parado cruza cuando el semáforo estaba en rojo cruza repentinamente, y el coche no le da tiempo a frenar en parámetros de seguridad"

Mira, te propongo 2 soluciones.

A) Los semáforos solo existen en ciudad. Ponemos el limite de velocidad a 30km/h. Con la tecnología actual, un peatón tendría que saltar sobre el capó para que un coche autónomo no le diese tiempo a detenerse a 30km/h antes de atizar al peatón. Por tanto, en caso de ocurrir este evento, se…   » ver todo el comentario
#76 Hombre lo suyo es eso, los humanos somos una ruina tanto c9nduciendo como peatones.
El sistema de puntuaciones tampoco esta mal, hay mucha gente que va saltandose los limites de velocidad, semaforos, aparca donde quiere, en caso de que tenga que decidirse entre su vida y la de otro cualquiera mebos infractor, esta claro que uno es un peligro constante.
#64 Manipular el algoritmo quita puntos. No quiero imaginarme qué multa pueden poner en China por tal práctica.
#37 moralmachine.mit.edu/hl/es

Quizás te interese si no conoces la iniciativa.
#77 LA conocía, y de hecho es a partir de esta misma página de donde he sacado los ejemplos, y el hecho de que la moralidad cambiar de manera evidente con la cultura.
#20 sigo diciendo que no.
#40 Es porque para huir del peligro eliges la opción más peligrosa.
#20 pasas de preparados para proteger la vida del conductor a una carrera para causar daño indiscriminado al resto.
Te añado otra grande, blindado y NUEVO. Y eso también pasa hoy. Tienes mas protección del conductor pero no más daño al otro conductor si lo hay, que tambien hay accidentes sin terceros.
#44 Estoy pensando en el caso en que para protegerte se necesite hacer daño a otro, y que el otro para protegerse a sí mismo también necesite hacer daño a otros y así sucesivamente en una reacción en cadena. Esa es la lógica del comportamiento de proteger al piloto a costa de los demás.

Si no sucede eso, si se puede proteger al piloto sin hacer daño a los demás, estaríamos en casos simples que ni siquiera es necesario discutir, pues no habría posiciones contrapuestas, todos estaríamos de acuerdo.
#45 Esta lógica se aplicaría si los coches están programados para matar todo lo que se cruce en su camino como si fueran armas, lo cual es una verdadera estupidez a menos que hablemos de tanques u otros drones militares. Para proteger al conductor, la primera medida es hacer lo posible para evitar un accidente.
#60 Y si hay algo inevitable, como en un caso extremo, hay dos alternativas:

- Se procura hacer el menor daño general (es posible pero poco probable que quedes muerto, muchos se salvan)
- Se protege al usuario haciendo "lo que sea", que incluye la lógica "que se jodan los demás". (Muchos morirán, incluyéndote, porque cada coche intentará proteger a su dueño. El tuyo te protegerá, pero todos los que te rodean preferirán que tú mueras para proteger su propio dueño)
#63 La probabilidad de que cualquier otro coche que no sea el tuyo tenga un accidente que pueda evitar y que pueda implicar tu muerte es despreciable no, lo siguiente. Ningún coche querrá que mueras, querrá que sobreviva su conductor sin lesiones, lo que implica evitar el golpe SIEMPRE.

Si el golpe no puede evitarse (que como no sea por un mal funcionamiento de uno de los dos coches o porque el otro está conducido por un tipo de carne y hueso, ya me dirás, xD) es mejor que tu coche priorice tu vida siempre, porque esa prioridad es la que lo lleva a querer evitar todos los accidentes que pueda evitar.
#63 yo lo arreglaría facil, si tiene que escoger entre darse el leñazo contra un muro, o atropellar a alguien, basta con inflar un airbag completo (en plan muñeco de michelín) y estampar el coche, la gente de dentro se salva, la gente de fuera, también.
#20 A la IA no se la puede dejar tomar decisiones morales. Eso entra en el ámbito exclusivo del cerebro humano.
#54 La ética y la moral han estado definidas e inventadas unos trogloditas de hace 5.000 años, quienes crearon la religión, en nuestro caso una religión abrahámica. Una ética y moral basada en supersticiones, magia, creencia en seres imaginarios, llena de dogmas de fe ciega, absurdos, una gran maldad, incoherencias, etc. Una moral y ética que son bastante inmorales.

Esa moral ha sido mejorada muchísimo a través del tiempo. Ya no apedreamos a mujeres adúlteras como quería el dios de la biblia,…   » ver todo el comentario
#62 como querían los que se inventaron la biblia. Ftfy
#20 La verdad es que este dilema dramático es una gilipollez, la probabilidad de que tu coche tenga que elegir entre salvar tu vida o la de algún random es ridículamente baja.

En todo caso, está claro que prefiero que si se diera tan improbable situación mi coche priorice mi pellejo.
#20 Hasta hoy todos los coches llevan un piloto con instinto de supervivencia, que suponemos que prioriza su vida y la de los ocupantes del coche por encima de las demás.
#20 la alternativa es no tener un coche autónomo.

Esas decisiones jamás se podrán poner en orden, ya que los valores y opiniones de la gente es imposible unificarlas.

Por lo tanto aunque la tecnología lo permita, el coche autónomo jamás será una alternativa real, a mi modo de ver.
#69 Es inevitable. De hecho llegará el momento en donde conducir manualmente será muchísimo más peligroso que un coche autónomo y pudiera ser será hasta prohibido.

www.dgt.es/es/prensa/notas-de-prensa/2018/20180712-en-2017-fallecieron

La noticia actual trata de casos sumamente extremos. Lo normal será que el coche autónomo sea muchísimo más seguro.
#74 no se yo hasta qué punto estamos dispuestos a perder libertad. Veoas factible coches con alcoholímetro y test de drogas antes de arrancar que eso.
#75 No estoy hablando de los próximos 5 años, hablo de un futuro indeterminado. Estoy seguro que llegará en mucho menos de 100 años. Adivinando diría que será lo común en 15 a 30 años.

No es pérdida de libertad, todo lo contrario, tienes a un chófer particular, como los millonarios, y te da tiempo para que puedas ocuparte de otras cosas mientras viajas.

Eso aumenta significa tu calidad de vida, como sucede con todo invento moderno. Vivimos en muchos aspectos mucho mejor que los reyes de hace…   » ver todo el comentario
#74 Si lo que yo no sé es cómo no hay más accidentes en las rotondas
#20 la solución es fácil, una decisión "random"
#20 Eso es una chorrada, se puede elegir lo que es lógico

- Si la culpa es del peaton, se mata al peaton aunque sean 30
- Si la culpa es de un fallo del vehículo, se mata al ocupante.

Punto

Quién coño va a comprar un coche que le va a matar porque le sale un descerebrado corriendo fuera de un paso de cebra.
Los que piensen diferente a #20 son gente que vota a PP, a ciudagramos o VOX, ya que llevan esos dilemas en su AND, los que están de acuerdo con #20 son gente de izquierda que piensa en derechos humanos y prioriza el bienestar común por encima de todo, yo me siento más a gusta en ese lado, fin de la discusión.
#20 es una falsa dicotomía, tu no sabes si realmente ese accidente matará a esas personas, pero sin embargo, si que sabes que el coche prefiere ponerte en peligro a ti. Y que quieres que te diga... Yo no me montaría en un coche que prefiere ponerme en peligro...
#20 Facil, los pobres tendrán coches éticos, los ricos coches que harán todo lo posible por salvarles el culo
#20 "Por el contrario, coches autónomos que decidan el mal menor (de una manera altruista y no egoísta), generalmente salvarían la vida de todos, y muy de vez en cuando habría algún muerto (que en una muy mala circunstancia puedes ser tú). Yo prefiero lo último a una muerte muchísimo más probable de lo primero."

Y entonces tendrás a 4 coches (los involucrados en el problema) matando a sus ocupantes porque cada uno a decidido que la vida de los otros 3 es mas importante... "suicidandolos"

xD
#20 no, los coches altruistas no son la mejor opción.

Lo mejor serían los que cumplen a rajatabla las leyes de circulación, entienden el tráfico y la circulación en vías peatonales y se adaptan a ello.

Si un vehículo conduciendo correctamente se topa con una situación en que puede producir víctimas será culpa o de mala señalizacion o que las víctimas hacían cosas que no se debe hacer.

Lo primero debe ser corregido (y la culpa sería de la administración), lo segundo no debería causar la muerte del conductor.

Obviamente habrá fallos antes de llegar a IAs así, pero los errores deben usarse para mejorar.
#20 Muy etico por tu parte, pero prefiero vivir.

Piensa que si todos menos uno tienen el coche 'altruista', el del coche egoista se los cepilla a todos.

Pobres: coche altruista.

Ricos: coche egoista

Tu texto es apabullantemente utópico y solo causará que los poderosos asesinen a pobres.
#1 tampoco
#2 dvx *
Si lo hace con cariño... pero claro, depende de a quién coño vaya a salvar...
#2 A un Menéante medio.
#14 Entonces sigo con mi diésel.
En mi opinión, si queremos que los coches autónomos triunfen en el mercado, es fundamental que siempre, en todos los casos, den prioridad a la vida del dueño. Si no, nadie querrá comprarlos. Y realmente no es un problema, porque como decía un ingeniero de google: "si nuestro coche llega a verse en esa tesitura, es que hemos hecho algo mal" (o lo que es lo mismo: tiene que ser capaz de prever lo suficiente como para que eso nunca ocurra).
#3 "si nuestro coche llega a verse en esa tesitura, es que hemos hecho algo mal"
Exacto.

Puestos a rizar el rizo (para bien), se podría legislar para que todos los coches sean autónomos y que solo puedan circular a altas velocidades en vías que no admitan ninguna forma de peatón o similares (agentes caóticos). De esta forma nunca tendrían que enfrentarse a una situación en la que se deba hacer una frenada o cambio de dirección bruscos con riesgo para la integridad no ya de los pasajeros sino del propio coche. Las compañías de seguros de coche serían historia.
#3 "si nuestro coche llega a verse en esa tesitura, es que hemos hecho algo mal" (o lo que es lo mismo: tiene que ser capaz de prever lo suficiente como para que eso nunca ocurra)

Ocurren accidentes y hechos fortuitos. Por ejemplo, un terremoto y que caiga algún obstáculo imprevista en la vía, o que provoque accidentes de varios autos inmediatamente delante del nuestro. Si el de Google no tiene previsto eso, entonces dará mucho miedo montarse en un coche de esos.

#15 No puedes legislar contra hechos fortuitos, o accidentes, o cosas inesperadas. La IA debe manejarlos.
#28 Pero puedes legislar para que se eviten esos hechos fortuitos.

Ejemplos:
- se te cruza un jabalí por la autovía a 120 por hora (la IA no lo puede ver con tiempo suficiente, si se lo lleva por delante corre riesgo de dañar a su pasajero, si lo esquiva corre riesgo de chocar contra otro vehículo...) -> legislas para que las autovías se construyan de forma que no puedan entrar animales ni personas.
- se cae un puente sobre la autovía (aquí la igual porque si vas muy rápido te lo comes, y…   » ver todo el comentario
#36 Todo eso son reglas para la IA, que debe manejar esos casos y todo evento fortuito que no esté explícitamente programado.
#36 Lo siento, di negativo sin querer al bajar con los dedazos en el móvil. Te compenso.
#3 Si las probabilidades de morir descienden drásticamente gracias a la conducción autónoma por supuesto. Aunque en ciertas ocasiones me ponga en más peligro que a otros.
#29 exacto!
No.

De igual modo que tampoco compraría un coche que se va frenando cada vez que se me cruce por delante un ciclista que se ha saltado el semáforo en rojo.

Y tampoco me dejaría intervenir quirúrgicamente por una IA que pensase que muerto soy más útil donando mis órganos a 5 enfermos graves.

¿Estamos locos? Ya se que si.
#4 "De igual modo que tampoco compraría un coche que se va frenando cada vez que se me cruce por delante un ciclista que se ha saltado el semáforo en rojo."
Entiendo que tú no frenas cuando se te cruza un ciclista, te lo llevas por delante.
¿Haces también eso cuando se te cruza un niño despistado?

Sí que estás para camisa de fuerza, sí.
#9 comentario demagogo del día.
#9 Vas con tu coche por una carretera de montaña, se te cruzan de forma inconsciente y antireglamentaria 2 ciclistas, y tus opciones son:
1.- Intentar frenar (sabiendo que no hay espacio) y girar el volante con el consiguiente peligro de caer por el lateral acantilado donde solo moririas tu
2.- Intentar frenar (sabiendo que no hay espacio) sin dar volantazo pudiendo morir los dos ciclistas
#6 No digas gilipolleces. Eso no es egoísmo. Entre esto y tu comentario de #4 es para ponerte en cuarentena.
#4 Donar tus órganos cuando ya se están haciendo órganos impresos en 3D y para cuando una IA vaya a operarte ese problema puede estar más que resuelto.
Esta es la enésima noticia tecnófoba planteando dilemas absurdos para crear polémica.
#50 probablemente hay gente en esta vida que seria mucho más útil como donantes de órganos. No le quitemos a la IA la capacidad de mejorar nuestra sociedad y calidad de vida.
#103 go to #50
Planteas dilemas que no van a existir, a pastar.
#50 Estos son los mismos que estaban en contra del cinturón de seguridad y te planteaban situaciones casi imposibles
Si. Soy empático.
#5 Pues suicídate de forma limpia para que tus órganos puedan ser aprovechados por niños con enfermedades graves.

¿O acaso eres egoísta? Yo si lo soy, por eso no lo hago.
#6 ¿Sabes que una de esas operaciones de transplante puede fallar, no? Deja de decir gilipolleces.
#51 y? Siempre hay muchos más que vivirán

2 riñones, 2 hígados, 1 corazón, pulmones, un intestino y el páncreas. Son 8 personas.

No vas a rechazar salvar a potencialmente 8 no?
Creo que pueden pasar dos cosas:
1- El gobierno de cada pais decide las prioridades y punto.
2- Cada usuario puede decidir las prioridades mediante un menu configurable.
#7 doble contra simple que si se escoge el punto 1 al dia siguiente hay 20 firmwares para ‘arreglar’ tu coche.

Como pasó con los limitadores de velocidad de algunas marcas.
#46 Si,pero te la jugarias a que en la ITV te pillen, como ahora.
#52 Es más, lo más razonable es que si te pillan te metiesen un puro bien gordo y con nombre feo en plan "atentado contra la seguridad vial"
#46 yo soy dado a meter firmware no original si eso me da una ventaja en mi router. Pero ni tan siquiera a mí se me ocurriría cambiarle el firmware original a mi vehículo autónomo.
Y dudo que nadie.
#7 Tengo clarísimo que si dejas que cada usuario pueda decidir, la liamos aún más. Se trata de eliminar el error humano de las carreteras y me huelo muchos "es que cómo iba a saber yo que si configuraba el cacharro este para que esquive piedras iba a atropellar embarazadas".
En la peli de Yo, robot. Un robot tiene que decidir entre salvar a will smith o a una niña, evalúa la situación y opta por rescatar a will smith, ya que tiene más posibilidades de sobrevivir que la niña. Una decisión lógica y razonable, pero cualquier humano optaría por intentar salvar a la niña, una posibilidad es más que suficiente, como bien dice el prota.

Ahora Imaginaos que el coche tiene que decidir entre tu y un crío, o entre tu y tu hijo y veinte personas. O entre tu mujer o tu... entre un inocente o un asesino hijo de puta. O peor, que sacrifique tu vida para salvar a un vegano o a un cebollista.
#8 Menú:
vegano...acelerar
Meneante: acelerar
Perrhijo y amante: acelerar
Fanático de linux: acelerar

Bella damisela con dos buenas te...parada suave
Tertuliano bis: acelerar
niño: frenar
Poeta: frenada lirica
sindicalista: activar metralleta
...
#16 ¿Niño: frenar? Pero si llevarte por delante a un niño es lo que más puntos da. ?(
#8 "Ahora Imaginaos que el coche tiene que decidir entre tu y un crío"

Pongamos que vas conduciendo por un puerto de montaña. Un niño sale a tu paso. El coche frena. El coche, en ningún momento, va a hacer nada como tirarse por un acantilado para salvar a nadie ni a meterse en dirección contraria ni polladas de ese calibre.

Pongamos que vas conduciendo. El semáforo se pone en rojo pero el coche detecta que el vehículo que llevas detrás no va a poder detenerse a tiempo. El coche…   » ver todo el comentario
#91 vaya, como guionista de Hollywood no tendrías precio..
#91 de hecho sí te dicen lo último. Si no hay condiciones suficientes de seguridad en la frenada te puedes saltar un semáforo en naranja/rojo.
No.
Además soy neo ludita y estoy convencido de que internet es Satán.
Obviamente no. El coche autónomo debe estar diseñado para priorizar siempre las vidas de sus ocupantes.

Otro asunto es que en un futuro sea una IA global la que controle a la vez todos los coches que hay en las calles (una forma mucho más lógica y eficiente de controlar el tráfico). En ese momento la sociedad sí tendrá que tomar ese tipo de decisiones.
#12 El dia que una IA controle la circulacion es que tambien controlara muchas cosas mas, para entonces la libertad que vamos perdiendo a pasos agigantados ya se habra terminado.
#17 Puede que sí, puede que no. De hecho, para cuando lleguemos a ese futuro el significado de liberdad seguramente ni será el mismo que ahora, igual que fue cambiando a lo largo de toda la historia.
#12 ¿Obviamente? ¿Y si el coche está en trayectoria de colisión contra un grupo de personas?

Si fuera tan obvio este dilema no existiría: es.wikipedia.org/wiki/Dilema_del_tranvía
#26 No cambía nada realmente, ni aunque le añadamos más dramatismo y pongamos en la carretera la excursión de una guardería. Una inteligencia artificial jamás deberá tomar ese tipo de decisiones morales, para eso siempre debería existir la opción de que el conductor tome el control. Y si el conductor no puede hacerlo el coche deberá asumir que sus ocupantes son la prioridad.
#34 En el momento que programas el coche para que proteja al conductor bien el fabricante bien la legislación está estableciendo una decisión moral. No digo que no sea la correcta, solo digo que no es obvio que eso deba ser la prioridad.

¿No crees que sería igualmente válido proponer el mal menor como paradigma en el conjunto de la circulación viaria?
#26 en el dilema del tranvía el axioma es que no conoces a ninguno de los personajes.

Esto es otra cosa.
#26 Es un falso dilema. La solución es frenar el tranvía.
#92 se supone que no funcionan los frenos
Son casos extremos y la pregunta una patochada, la cosa es que se reduzca el numero de victimas de accidentes de circulación...
#13 ¿Osea que sí lo comprarías? Yo no. Así que supongo que la pregunta no es tan "patochada".
#42 No, porque no me gusta conducir, soy mas de transporte publico.
Preferiría uno que matase a mi vecino, y a su perro y a su suegra también, ya puestos a pedir.
Siempre se le podrá cambiar el firmware para que mate al copiloto en tu lugar.

La pregunta será: te harías pareja de un tipo que le ha cambiado el firmware al coche para q te mate a tí en su lugar?
#19 ¿Qué pregunta es esa? Jamás lo sabrías xD
#19 La prueba de fuego de toda pareja que se precie es su reacción cuando le dices que has desconectado el airbag del copiloto "para ahorrar en caso de accidente".
Las máquinas siempre deben proteger a su propietario.
#21 Viva el mal, viva el capital.
Esperemos que no sepa que tienes cancer terminal :-D
#23 Bestial. Da para argumento de un capítulo de una serie de detectives o médicos.
Si tan moderno es el coche que le pongan un sillón eyectable coño.
#31 No funcionaría muy bien en ciertas circunstancias. En un túnel, por ejemplo, o en un accidente masivo donde todos los coches eyectarían a sus dueños al mismo tiempo matándolos al chocar violentamente en el aire o al enredarse sus paracaídas.
#31 Tiene que molar mucho, eso de que te arrolle un autobús y tu coche ultramoderno reaccione estampándote violentamente contra la fachada de la planta nueve de un edificio, para que no os tengáis que achatarrar juntos. Un poco como el "hijo, voy a pegarte un tiro para que no tengas que ver cómo me violan y me matan entre ocho".
Ya me lo veo en un anuncio de esos que terminan con un "¿Te gusta conducir?". Si lo protagoniza Carlos Sobera... ¡salta, salta, salta!
No compraría un coche autónomo. Fin.
#38 Entoces no compraras ningún coche.
¿Cruzarías una carretera como peatón sabiendo que la gente ha configurado sus coches para que ellos sean más importantes que tú a pesar de ser ellos los que generan un peligro con su conducción (sea manual o autónoma)?
#53 Cruzaría con el mismo cuidado que hago siempre. Comprobando que el coche está frenando muy de lejos o se ha parado.
#53 ¿Tú cruzarías una carretera como peatón sabiendo que el mundo está lleno de borrachos, psicópatas y psicópatas borrachos?
#173 ¿Eres mínimamente consciente de que con la conducción autónoma vas a tener menos de 600 accidentes de cualquier tipo al año?
Sí.
Cuéntanos, ¿por qué a la hora de cruzar la calle, hablando de coches conducidos por personas te preocupan sólo el pequeño porcentaje de coches que provocan accidentes, pero hablando de coches conducidos autónomamente todos los coches son un peligro? ¿A qué viene esa doble vara de medir?
¿Qué? Te confundes de persona, me temo...
Si te refieres a mi…   » ver todo el comentario
No, no compraría un coche que me considerara prescindible, quiero que haga todo lo posible por mantener mi integridad física intacta que para eso lo pago.
Sí, y se lo regalaría a mi suegra.

:-P
Es que cuando se plantean estos dilemas chorras se parte de la base de que todo el mundo conduce de puta madre, tiene una capacidad de reacción de la leche y que gracias a la conducción humana nos evitamos los accidentes de tráfico.

Los robots no se emborrachan, no les dan alergias, no discuten y no se la sacan para ver quién la tiene más grande; por lo que podemos afirmar que en cuanto a seguridad el coche autónomo es un avance.

¿Qué se debe hacer? Priorizar al más débil, si es un niño que…   » ver todo el comentario
Ese tipo de preguntas son irrelevantes. La regla de oro es que el comportamiento de un coche autónomo debe ser predecible. Si ve un peatón que ha saltado a la carretera lo que hará será frenar y continuar en linea recta. Ni se desviará ni se tirará contra una farola. Esto lo he escuchado de un experto en estos temas.
Pongamos el caso de que hay dos peatones en la calzada y tiene la opción desviarse atropellando a un peatón que estaba en la acera. Las implicaciones legales y de cara a las compañías de seguros será inadmisible que atropelle quien está en la acera.
#59 #73 #90 Joder, ya me tardaba algo de sentido común. No entiendo como la chorrada esta de que los coches van a traer un código moral ha calado tanto. Estos debates solo sirven para evaluar la sociedad y la gente.

Parece que se está personalizando a los coches incluso en algunos comentarios, con voluntad y todo. Los algoritmos ya están aquí, y no tienen un sistema de puntos para ir matando por ahí a placer del programador.

Ningún seguro pagaría eso. Ninguna empresa gastaría recursos en tener más problemas legales. No es necesario y aún así la conducción autónoma puede ser un avance.
Me bajaria algun firmware cyanogen modificado a mi gusto para que atropelle a segun quien se cruze por la calle.
Pregunta estúpida, una IA no se va a programar para ver vidas, solo obstáculos estáticos o en movimiento.
La cuestión primera es si la gente compraría un coche que se puede informar en contra de lo que hace el conductor cuando lleva el volante si no es obligatorio, eso pregunta mató la comunicación entre vehículos y vehículo e infraestructura desde hace décadas.
Depende. Es el coche de Beetlejuice?
Sí.

La explicación es sencilla: si aumenta el riesgo de que mi coche me pueda matar pero disminuye el riesgo de que todos los demás me maten, estadísticamente salgo en positivo 8-D

Y no, no es una broma... de verdad estadísticamente nos vendría bien a todos. Eso sí, si TODOS los coches tuvieran el mismo algoritmo de riesgo. No voy a ser yo el único gilipollas que va mejorando la estadística.
#79 Completamente de acuerdo. El bien general de todos te repercute a ti tambien.
Nop. Ni yo ni el 99.99% de la poblacion
Entonces... Se le está exigiendo a la máquina saber previamente como solucionará los dilemas morales que no se le preguntan a un humano cuando se monta en un coche, ¿no?
Yo sí, pero el requisito de salvar otras vidas es una simple formalidad: incluso lo compraría sin eso.
Yo desde luego no, ni de coña.
Se mata al que lo haga mal. Punto.
Si todos tienen un vehículo así, si. Sino, no. No solo mi vehículo tomará la decisión de salvar las máximas vidas, sino también los otros y quizás me salve yo en alguna ocasión por eso.

En todo caso, si todos tienen conducción autónoma, es difícil que se de el caso.
Resumiendo, no
Esos dilemas éticos en realidad son ajenos a la conducción autónoma. Un coche autónomo JAMÁS deberá tomar decisiones éticas ya que eso es una receta perfecta para que lluevan demandas contra la empresa que lo hace. Las normas van a ser siempre muy claras y ajenas a la ética. Nadie va a programar decisiones éticas en esos coches, simplemente reaccionarán a los obstáculos.

Si se llega a una situación donde se puede producir un accidente es debido a que la AI ha fallado o que hay un problema…   » ver todo el comentario
No entiendo el supuesto debate cuando con una secuencia de normas básicas evita todos los problemas:
1) Evitar todo daño humano->animal->bienes materiales->...
2) En caso de no poder evitar daños la norma vial prevalece, es decir, atropellar a quien cruza en rojo antes que matar al conductor,etc... del mismo modo el ejemplo del tranvía , si ambos casos estan al mismo nivel de cumplimiento de normativa se aplica siguiente caso
3) Minimizar daños; humano->animal->bienes....
La…   » ver todo el comentario
Hace años leí una entrevista a un ingeniero de Google que venía a decir "estos dilemas son divertidos de imaginar y tal. En la práctica, para cuando una colisión es inevitable, el coche no tiene tiempo de evaluar mil variables y un código ético, sólo tiene tiempo de frenar a tope y que sea lo que tenga que ser".
#94 Como ocurre con las personas.
#94 Porque, como todo el mundo sabe, los coches piensan igual de rápido que las personas. :-D
No____
Bueno... no.
«12

menéame