EDICIóN GENERAL
16 meneos
90 clics

¿Y si un coche autónomo sacrifica a sus pasajeros para no atropellar a un perro?

La consideración moral de los animales aviva el debate sobre los principios éticos que determinan las decisiones basadas en algoritmos.

| etiquetas: tecnología , coche autónomo , moral , ética , ia
Pues lo suyo sería despellejar al programador.
#35 Que no, coño, que un coche autónomo no va nunca jamás a necesitar matarte para evitar pillar a un niño que cruza de repente. Parece que no entiendes la velocidad a la que funcionan los procesos computacionales. Por no hablar de que el coche autónomo tendrá mas y mejores sentidos que cualquier persona: cámaras omnidireccionales, RADAR, LIDAR, ultrasonidos y a saber... y es de cajón que pronto hablarán entre ellos por wifi (de ahí la parte en la que tu coche sabe quién viaja en el otro, que…   » ver todo el comentario
#39 una IA no funciona tan rápido como tu dices así que no le va a sobrar tiempo para evitar el problema. Más bien le va a faltar porque cualquier persona identifica más rápido que una IA un tarugo de color rojo, no te digo ya a un niño pequeño en la acera mirando un globo que va suelto por la otra acera.

Sus sentidos serán mejores, eso sí.
#39 No va a necesitar matarte de la misma forma que ningún conductor necesita matar a nadie para evitar pillar a un niño que cruza de repente. No se trata de una necesidad si no de una consecuencia, y en esas situaciones se asumen riesgos, uno de los cuales es que la situación acabe en accidente y por una combinación de factores sí se produzca alguna muerte.

El nivel de infinita perfección que le requieres al vehículo autónomo es hoy por hoy una utopía, en carretera se asumen riesgos. Y el…   » ver todo el comentario
#46 Se te va a gastar la palabra psicópata de tanto usarla :roll:

¿Tú conduces siquiera? Porque la descripción que haces de conducir suena a que te lo ha contado alguien. Cuando conduces ni asumes riesgos, ni varías lo mucho que aprecias tu vida según las circunstancias, ni pollas en vinagre. Si se te cruza un niño, frenas. Si se te cruza una anciana, frenas. Si se te cruzara Adolf Hitler frenarías. No frenas menos porque se te cruce El Vaquilla que una niña de un anuncio de champú. Y eso…   » ver todo el comentario
#51 El debate es que en carretera hay situaciones súbitas e impredecibles en las que el ser humano símplemente da un volantazo de forma instintiva

Por ejemplo si cruza un niño corriendo en una zona de poca visibilidad. En ese caso priorizar la seguridad de los pasajeros al "100%" sin plantearse siquiera evitar el atropellamiento es mostrar una completa ausencia de empatia, por contra plantearse la posibilidad de asumir riesgos forma parte de la mentalidad de una persona sana.…   » ver todo el comentario
#52 Sigue dándole fuerte a ese hombre de paja que te has montado, que ya casi has ganado el debate.

Nadie defiende ni defenderá jamás que un coche autónomo vaya por ahí atropellando niños con tal de que no se te derrame la cocacola, como tú insistes. Los coches estarán programados para minimizar daños y teniendo en cuenta la multitud de sensores que tendrán y la velocidad con la que tomarán decisiones, en general se les dará muy muy bien minimizar daños.

El debate, por mucho que insistas en…   » ver todo el comentario
#53 Como te explicaba dudo mucho que la sociedad considere como una conducción válida la de un vehículo que no asuma ciertos riesgos en caso que corran peligro la vida de terceros. Y asumir ciertos riesgos está en contradicción con tu afirmación sobre dar prioridad a mi vida el 100% de las veces independientemente de las circunstancias, tal como nos afirmabas.

Y es que hacerlo independientemente de las circunstancias implica no asumir ningún riesgo para intentar evitar la muerte de…   » ver todo el comentario
#54 Insistes en llamarme psicópata en base a pensamientos que me atribuyes tú.

Si te fijas, nunca dije "prioridad a mis guardabarros", "prioridad a la pintura del coche" ni "prioridad a no comerme el airbag", si te fijas mucho mucho podrás ver que dije "a mi vida", en lo que se sobreentiende se refiere a una situación in extremis: si no hay mas remedio de que alguien se mate, ¿qué debe decidir mi coche? ¿Que se mate el que se ha saltado la mediana, o que…   » ver todo el comentario
#55 A ver si el psicópata eres tú, que estás dispuesto a dejar la vida de tu familia y amigos en manos de un algoritmo.

Es posiblemente lo que acabemos haciendo todos por ley si la tecnología de conducción automática avanza adecuadamente.
El programador es un perro.
#5 Peor todavía, un animalista.
Pues hay algún vídeo por ahí de Teslas esquivando o evitando animales con la detección y frenada de emergencia. Así que es menos probable que un coche autónomo se vea en esa tesitura de lo que lo estaría un humano cuyo rango de visión puede ser más limitado, especialmente de noche. Así que quizás nos estamos poniendo muy filosóficos con una hipótesis que no va a ningún lado.
#27 Que puedan ser mejores evitando esos accidentes no implica que sean inmunes a ello y por eso la cuestión sigue siendo pertinente.

Y de hecho es una cuestión que aunque se plantee con un ejemplo va más allá del ejemplo, ya que existe un amplio rango de riesgos y de toma de decisiones. A nivel humano eso lo abordamos con la educación a nivel familiar y escolar en cuanto a valores, en dar valor a la vida humana, y dar valor a la vida animal en otra medida distinta. Y esperamos que si la…   » ver todo el comentario
#30 A ver, este pseudo-debate surgió ya hace unos meses para plantear algo que está ahí. Pero si ponemos un animal, todo parece más fácil, verdad? Pues en el original la cosa era que ante un choque el coche podía elegir irse contra un motorista o un ciclista antes que contra otro vehículo. Y ahí, el debate no es tan fácil, a que no? Pero si yo te acepto barco, ya verás como me acabas colando la armada como mal menor. Cuando el problema de fondo es que probablemente esas decisiones…   » ver todo el comentario
#33 Cuando el problema de fondo es que probablemente esas decisiones (imponderables en muchos casos) quizás no debiera tomarlas la máquina, menos en el estado actual de desarrollo.

En cuanto la circulación de vehículos autónomos implique la reducción de muertes en carretera lo injustificable sería que no los usásemos. Y dado que existen motivos fundados para adelantar que se puede llegar a ello incluso compensaría ya a día de hoy asumir más riesgos para acelerar el llegar a esa…   » ver todo el comentario
#36 En cuanto Si la circulación de vehículos autónomos implique la reducción de muertes en carretera.

Ahora mismo eso es sólo una teoría (plausible). Creo que el posible rechazo va a venir más de ese relato impuesto que de los hechos en si. Al final, el ser humano es mucho de hacer cosas porque le da la gana o le fascina. O porque tiene la libertad de hacerlas.

De todas maneras, y volviendo al estado actual, en realidad esas decisiones las toma un humano y las codifica en función de unos parámetros. Por lo que en realidad yo diría que hay alguien decidiendo qué hacer por ti y por tu coche. Lo cual me genera diversas dudas.
#37 y volviendo al estado actual, en realidad esas decisiones las toma un humano y las codifica en función de unos parámetros.

El modelo de entrenamiento de IA no funciona de esa forma, funciona a base de aprendizaje de ejemplos de los cuales sale un sistema que toma decisiones.
Y si un perro sacrifica un coche para salvar humanos?  media
¿Y si un conductor humano sacrifica a sus pasajeros para no atropellar a un perro?
#2 Sería comparable si cada coche autónomo tuviera su propia "personalidad" que le hiciera tomar decisiones distintas a las del resto de vehículos de la flota.

Si por contra, como es previsible, los vehículos del mismo modelo comparten el mismo "cerebro" entonces el caso ya no es comparable, ya que no se analiza solo ese caso en concreto si no que aplica a todos los propietarios de ese modelo que pueden querer tomar decisiones al respecto.
#4 O sea que el problema no es que lo haga un coche sino que lo hagan muchos...

Por otro lado, hay una gran ventaja en los coches autónomos: se puede corregir su funcionamiento mediante una actualización masiva para que actúen de la manera más conveniente.
#9 O sea que el problema no es que lo haga un coche sino que lo hagan muchos...

En el caso del humano sería decidir si subirías a un taxi que condujera ese mismo conductor.

En el caso de coche autónomo sería decidir su comprarías un coche de esa marca.

se puede corregir su funcionamiento mediante una actualización masiva para que actúen de la manera más conveniente.

Sí y no, el modelo de aprendizaje es el de entrenamiento por lo que no puedes hacer cambios con precisión quirúrgica, puedes entrenarlo con nuevos ejemplos pero eso no te asegura que no obtenga nuevos comportamientos criticables que antes no tenía.
#11 Al menos se puede hacer algo para solucionarlo. Con un conductor humano no sabes si te va a matar por esquivar un perro o porque el banco le está por quitar la casa por no pagar la hipoteca y anda distraído.
#13 Si el conductor humano muere en el accidente ya no es necesario que hagas nada, si no muere en el accidente puede haber aprendido de ello o puede hacer clases de refuerzo de la conducción.

No es comparable.

En el caso de los coches autónomos el reto está en que cada accidente se analizará con lupa y se extrapolará al resto de vehículos de la flota, con el riesgo que eso implica para la confianza sobre los vehículos de esa marca. Y una vez identificado el problema no será fácil solucionar solo ese aspecto, si no que al reentrenarlo corres el riesgo de cambiar también matices sobre como actúa el coche en situaciones donde ya actuaba bien, por ejemplo si se cruza un niño pequeño por la calle.
#17 A mi me da que se acabará haciendo una normativa sobre este tema donde se obligue a todas las marcas a tener la misma programación en aspectos de seguridad, lo que si podría pasar es que dicha normativa varíe de un país a otro.
Un coche, ante un obstáculo imprevisto en la calzada, va a frenar. Lo de tirarse por un terraplén o sacrificar a nadie son chorradas de filósofos intentando meter cabeza en un campo que no les compete.
#19 No es tan sencillo. Una bolsa de plástico es un obstáculo imprevisto en la calzada, también un pájaro.

Circular con exceso de celo por lo que hay en la calzada es también circular de forma peligrosa, parte de la seguridad se basa en que el resto de conductores puedan predecir el comportamiento del resto de vehículos.
Se habla mucho de las decisiones de un coche. Pero ¿Cuántas veces ha pasado en la historia de la humanidad el decidir si atropellar a un perro o matar a los pasajeros?. Nos estamos volviendo locos por cosas menos probables que los tiroteos en institutos de EEUU y ahí ni se plantean prohibir las armas.
#6 Muchos conductores han tenido accidentes por intentar esquivar a un animal en la carretera.
#8 Muchos conductores con poca habilidad y/o experiencia sí.

Es típico, autopista a 120 o + km/h se cruza un animal y el conductor inexperto da un volantazo y la hostia es tremenda. Doy fe personal de haber conocido variantes de este suceso durante años, en varios países. Cómo anécdota diré que la mayoría eran conductoras (no me preguntéis pq, en los sucesos que he conocido lo eran).

Si algo se cruza en tu camino debes frenar en recto, y si te lo cargas, pues mala suerte. El verdadero dilema es cuando se cruza un niño, un grupo, etc. que ya depende de dónde sea, quién vaya en el coche, etc...

CC #10
#6 Un perro aparece de golpe en el campo de vision del conductor y éste da instintivamente un volantazo para evitarlo con final desafortunado.. no me parece tan inusual
#6 ... Un programador dijo hace unos años que todos esos estudios sobre que debería atropellar una IA si hay humanos en juego, han resultado poco más que filosofía, ya en en la practica real nunca han visto esa situación ya que los sistemas mecánicos responden antes/mejor que ocurran esas situaciones hipotéticas extremas.

Sin embargo lo de esquivar animales con resultado mortal para los pasajeros, pues mucho más a menudo de lo que parece, los alces en los países nórdicos son una maquina de matar conductores (Piernas largas y una masa pesada justo a la peor altura en caso de impacto).

La regla general: En caso de emergencia, si es del tamaño de un perro o menor atropellarlo, si es más grande es mejor esquivarlo.
Sería un coche hijo de puta.
Todo el debate acerca del coche autónomo y la ética de su IA suena interesante pero me temo que nace muerto por mera cuestión de mercado: ¿quién coño va a comprar un coche autónomo que en caso de accidente se decante por matar al dueño o su familia?
#12 Pues, si la otra opción en caso de accidente es que mate a los dueños y familias del resto de vehículos, te puedes dar por jodido. Va a tocarte morir mucho antes que en un hipotético "el coche decide sacrificarme".


ps: muy mal tendrían que estar programados para llegar al porcentaje de peligro que suponen los gañanes y alcohólicos al volante.
#16 En la práctica un coche autónomo no va a sufrir accidentes casi nunca, especialmente si todos los demás coches también lo son. Pero en cualquier caso, si yo tengo varios modelos para elegir, desde luego no voy a elegir el que no de prioridad a mi vida el 100% de las veces independientemente de las circunstancias, ni yo ni nadie.
#20 Eso se soluciona fácil: el coche que en caso de posible accidente sacrifique al resto de vehículos, no certifica y no se vende.
#12 La misma pregunta la puedes aplicar en el sentido opuesto, ¿que sociedad va a permitir circular a un coche autónomo que conduce de forma imprudente por vías públicas por su única prioridad de proteger a sus pasajeros?
#21 ¿"un coche autónomo que conduce de forma imprudente"? xD

Nadie va a comprar un coche que en un momento dado puede decir por su cuenta matarle, no es difícil de entender.
#24 Es imprudente si pone excesivo peso en la seguridad de los pasajeros en contraposición a los peatones, por ejemplo.

A nivel de sociedad ésta puede impedir la circulación de vehículos que conduzcan de forma imprudente en relación a los peatones, aunque éstos estén cruzando en rojo, sin señalización, corriendo, con niños persiguiendo una pelota, etc.
#26 Esos ejemplos que pones son triviales para un coche autónomo. Jamás va a ocurrir que uno de estos pille a un niño que cruza la calle para coger su pelota. Ese no es el caso, ni es el debate, ni es nada. Estos coches, en la realidad, operan con eficacia cercana a la perfección.

La cuestión es cuando se da una circunstancia rara e imprevisible: por ejemplo, el coche autónomo de deltante sufre un fallo mecánico y pierde el control. Si tu coche choca con él, aquel se cae por el barranco y el…   » ver todo el comentario
#31 En la realidad, el coche autónomo de deltante sufre un fallo mecánico y pierde el control. Y tu con tus reflejos de mono con pantalones te lo comes, y os vais por el barranco los dos coches y todos los ocupantes.
#34 Y eso no tiene nada que ver con nada :roll:
#40 Tiene que ver, que a no ser que seas un psicópata que quiera un coche que "barra para casa" aunque conlleve atropellar, o tirar por el barranco, o matar lo que caiga con tal de asegurar tu supervivencia (y eso implicaría que más coches en la carretera se comportarían de forma autónoma igual como ya te he dicho antes, y por puro azar cualquier coche terminaría con tu vida porque ese es el modelo que habéis comprado, o el suyo todavía era más caro) en prácticamente todos los…   » ver todo el comentario
#31 Jamás va a ocurrir que uno de estos pille a un niño que cruza la calle para coger su pelota.

A menos que eso implique no dar prioridad a mi vida el 100% de las veces independientemente de las circunstancias, nos decías.

Socialmente no es aceptable que el vehículo no asuma ciertos riesgos para proteger la vida de un niño que persigue la pelota en medio de la calle.

Estos coches, en la realidad, operan con eficacia cercana a la perfección.

Eso, desgraciadamente, no es…   » ver todo el comentario
#12 Cierto. Y es más. Cuando tú conduces consciente o inconscientemente todas tus acciones tienen como último fin evitar tu muerte (la del conductor), y asi es como debería actuar la IA.
Eso sí, si tienes que esquivar un niño es posible que lo hagas y eso acabe en tu muerte, pero porque no sabías que eso seria así. Si la IA sabe que eso va a ser así, debería valorar otras alternativas incluidas,por ejemplo, lesiones graves para conductor y pasajero, pero siempre priorizar la vida del conductor, y luego la vida de terceros.
De no ser así, y aunque vaya en perjuicio propio, preferiría que no hubiese IA en mi vehículo.
Si el perro es el dueño del coche autónomo, tendría sentido.
Para mi solo se puede considerar salvar animales si se han salvado antes a todas las personas posibles.

Y yo he salvado a unos cuantos animales. Entre ellos un Galgo que se me cruzó por la autopista entre La Serena y Santiago, que no son pequeños precisamente, a pocos metros del coche. Este, por tamaño, fue el más impactante. Pero primero las personas.
El coche no va a tomar ninguna decisión, actuará en función de lo que se legisle, tal como se hace con el resto de normas de circulación, como ya he dicho en otras ocasiones, probablemente se use un sistema de decisiones de árbol, cada situación tendrá un peso y en función del resultado el vehículo tomará la que corresponda, igual que se hace o al menos se hacía en los programas de ajedrez.
#22 Ya hoy en día los vehículos autónomos no actúan en función de lo que se legisla si no en función de lo que permite una circulación fluida y segura, tienes como ejemplo el caso del vehículo autónomo de Google que se quedaba bloqueado en los cruces por que los otros vehículos en vez de cumplir la norma a rajatabla iban poniendo el morro y el coche de google pasaba a perder su prioridad para circular. Necesitaron enseñar al vehículo autónomo a incumplir la normativa para poder circular por…   » ver todo el comentario
Los que plantean estos absurdos parten de la base de que todo el mundo conduce de puta madre, tiene una capacidad de reacción de la polla y que decidir si atropellar a un perro, a un niño o estamparse contra un muro son situaciones en las que se ve un conductor en el día a día ¿Qué va haber problemas con el coche autónomo? Alguno habrá, como con la conducción humana a día de hoy.
Pues para tal fin, lo propio sería instalar un muelle homologado por DGT para mandar volando a tomar por culo al coche ante cualquier contratiempo de este tipo.

A ver, que para decir gilipolleces valemos todos.
O atropellar a un perro o a un nazi?
Por estas cosas es por lo que los algoritmos deben ser públicos.
Si voy a comprar un coche autónomo quiero saber qué decisiones va a tomar.
Depende de lo que coman los robots en unos años.
comentarios cerrados

menéame