Hace 4 años | Por arniepye a retina.elpais.com
Publicado hace 4 años por arniepye a retina.elpais.com

La consideración moral de los animales aviva el debate sobre los principios éticos que determinan las decisiones basadas en algoritmos.

Comentarios

D

#35 Que no, coño, que un coche autónomo no va nunca jamás a necesitar matarte para evitar pillar a un niño que cruza de repente. Parece que no entiendes la velocidad a la que funcionan los procesos computacionales. Por no hablar de que el coche autónomo tendrá mas y mejores sentidos que cualquier persona: cámaras omnidireccionales, RADAR, LIDAR, ultrasonidos y a saber... y es de cajón que pronto hablarán entre ellos por wifi (de ahí la parte en la que tu coche sabe quién viaja en el otro, que veo que tienes poca imaginación).

¿Y desear la supervivencia de mi familia es psicopatía? Lo que hay que leer ¿tú que tienes, 15 años? roll

PD: No se va a corregir una mierda a nivel social porque la gente que hace las leyes tampoco querrá viajar en coches que pueden decidir matarles. CC #3

x

#39 una IA no funciona tan rápido como tu dices así que no le va a sobrar tiempo para evitar el problema. Más bien le va a faltar porque cualquier persona identifica más rápido que una IA un tarugo de color rojo, no te digo ya a un niño pequeño en la acera mirando un globo que va suelto por la otra acera.

Sus sentidos serán mejores, eso sí.

sorrillo

#39 No va a necesitar matarte de la misma forma que ningún conductor necesita matar a nadie para evitar pillar a un niño que cruza de repente. No se trata de una necesidad si no de una consecuencia, y en esas situaciones se asumen riesgos, uno de los cuales es que la situación acabe en accidente y por una combinación de factores sí se produzca alguna muerte.

El nivel de infinita perfección que le requieres al vehículo autónomo es hoy por hoy una utopía, en carretera se asumen riesgos. Y el decidir en que dirección se asumen esos riesgos convierte al conductor en una persona con empatía o psicópata, entre otras muchas descripciones.

Cuando tú hablas del 100% estás describiendo un comportamiento psicópata, en la realidad una persona con empatía no valora su vida al 100%, el porcentaje se altera en función de las circunstancias, y un niño en la vía persiguiendo una pelota es una de esas circunstancias donde alguien que no sea psicópata baja mucho su porcentaje para dárselo al niño. Asumiendo riesgos con ello.

A nivel social eso también es lo que está bien visto, por lo que el tipo de automóviles "psicópatas" que defiendes espero y deseo que no tengan futuro en nuestra sociedad.

D

#46 Se te va a gastar la palabra psicópata de tanto usarla roll

¿Tú conduces siquiera? Porque la descripción que haces de conducir suena a que te lo ha contado alguien. Cuando conduces ni asumes riesgos, ni varías lo mucho que aprecias tu vida según las circunstancias, ni pollas en vinagre. Si se te cruza un niño, frenas. Si se te cruza una anciana, frenas. Si se te cruzara Adolf Hitler frenarías. No frenas menos porque se te cruce El Vaquilla que una niña de un anuncio de champú. Y eso mismo harán los coches autónomos: frenar. Solo que lo harán con una eficacia inalcanzable por el ser humano.

Y de todas formas ese no es el debate, por mucho que me llames 'psicópata' una y otra vez. El debate es que en carretera hay situaciones súbitas e impredecibles en las que el ser humano símplemente da un volantazo de forma instintiva, sin "evaluar riesgos", "alterar porcentajes" ni ninguna otra paja mental tuya, sino para intentar no pegársela. El coche autónomo, por contra, tendrá tiempo de sobra para decidir si no pegársela, o tal vez decicir que pegársela es el mal menor.

Y como dije en un principio: ni Dios va a querer ir en un coche que esté programado para pegársela si es el mal menor, lo que incluye a los legisladores, por cierto.

sorrillo

#51 El debate es que en carretera hay situaciones súbitas e impredecibles en las que el ser humano símplemente da un volantazo de forma instintiva

Por ejemplo si cruza un niño corriendo en una zona de poca visibilidad. En ese caso priorizar la seguridad de los pasajeros al "100%" sin plantearse siquiera evitar el atropellamiento es mostrar una completa ausencia de empatia, por contra plantearse la posibilidad de asumir riesgos forma parte de la mentalidad de una persona sana.

Y como dije en un principio: ni Dios va a querer ir en un coche que esté programado para pegársela si es el mal menor

Hasta que sea noticia el atropellamiento sin siquiera intentar frenar ni desviarse de un niño que cruza una carretera corriendo, y entonces quizá la sociedad como conjunto sí reaccione y saque los coches "psicópatas" de las carreteras. Espero, de hecho, que ni haga falta llegar a la existencia de esa noticia.

D

#52 Sigue dándole fuerte a ese hombre de paja que te has montado, que ya casi has ganado el debate.

Nadie defiende ni defenderá jamás que un coche autónomo vaya por ahí atropellando niños con tal de que no se te derrame la cocacola, como tú insistes. Los coches estarán programados para minimizar daños y teniendo en cuenta la multitud de sensores que tendrán y la velocidad con la que tomarán decisiones, en general se les dará muy muy bien minimizar daños.

El debate, por mucho que insistas en argumentar con ejemplos irreales contra extremos que nadie defiende, sigue siendo el mismo: si llega el momento en el que el coche tenga que decidir entre la seguridad de sus pasajeros y la de otros, ¿qué debe hacer? Mi opinión es que es un debate estéril porque nadie, ni siquiera los que fingís estar dispuestos a sacrificaros por el bien ajeno, querrá montarse en un coche que no priorize su propia seguridad y la de su familia.

sorrillo

#53 Como te explicaba dudo mucho que la sociedad considere como una conducción válida la de un vehículo que no asuma ciertos riesgos en caso que corran peligro la vida de terceros. Y asumir ciertos riesgos está en contradicción con tu afirmación sobre dar prioridad a mi vida el 100% de las veces independientemente de las circunstancias, tal como nos afirmabas.

Y es que hacerlo independientemente de las circunstancias implica no asumir ningún riesgo para intentar evitar la muerte de terceros, lo cual como te explicaba es propio de una mentalidad psicópata.

Los coches estarán programados para minimizar daños y teniendo en cuenta la multitud de sensores que tendrán y la velocidad con la que tomarán decisiones, en general se les dará muy muy bien minimizar daños.

Y eso no es noticia, lo que es noticia es cuando eso no basta y hay muertos. Y los habrá, inevitablemente, y la clave está en como reaccionará la sociedad cuando los haya y el vehículo se haya publicitado como que da "prioridad a mi vida el 100% de las veces independientemente de las circunstancias".

Yo mi deseo y esperanza es que la sociedad reaccione bien y los retire de las calles.

D

#54 Insistes en llamarme psicópata en base a pensamientos que me atribuyes tú.

Si te fijas, nunca dije "prioridad a mis guardabarros", "prioridad a la pintura del coche" ni "prioridad a no comerme el airbag", si te fijas mucho mucho podrás ver que dije "a mi vida", en lo que se sobreentiende se refiere a una situación in extremis: si no hay mas remedio de que alguien se mate, ¿qué debe decidir mi coche? ¿Que se mate el que se ha saltado la mediana, o que me mate yo y mi familia? Pues obviamente yo, como todo el mundo, prefiero que no se mate mi familia, no es difícil de entender.

A ver si el psicópata eres tú, que estás dispuesto a dejar la vida de tu familia y amigos en manos de un algoritmo.

Venga va, sácate del ojete otro ejemplo imposible de niños que cruzan la autopista a 200 kmh roll

sorrillo

#55 A ver si el psicópata eres tú, que estás dispuesto a dejar la vida de tu familia y amigos en manos de un algoritmo.

Es posiblemente lo que acabemos haciendo todos por ley si la tecnología de conducción automática avanza adecuadamente.

D

El programador es un perro.

Esperanza_mm

#5 Peor todavía, un animalista.

kumo

Pues hay algún vídeo por ahí de Teslas esquivando o evitando animales con la detección y frenada de emergencia. Así que es menos probable que un coche autónomo se vea en esa tesitura de lo que lo estaría un humano cuyo rango de visión puede ser más limitado, especialmente de noche. Así que quizás nos estamos poniendo muy filosóficos con una hipótesis que no va a ningún lado.

sorrillo

#27 Que puedan ser mejores evitando esos accidentes no implica que sean inmunes a ello y por eso la cuestión sigue siendo pertinente.

Y de hecho es una cuestión que aunque se plantee con un ejemplo va más allá del ejemplo, ya que existe un amplio rango de riesgos y de toma de decisiones. A nivel humano eso lo abordamos con la educación a nivel familiar y escolar en cuanto a valores, en dar valor a la vida humana, y dar valor a la vida animal en otra medida distinta. Y esperamos que si la persona se encuentra en la situación de tener que tomar una decisión "instintiva" esa educación ética en relación al valor de la vida se aplique de una forma razonable. Si lo hace de una forma no razonable esa persona puede recibir consecuencias en forma de ser catalogado de enfermo, psicópata, criminal, etc.

kumo

#30 A ver, este pseudo-debate surgió ya hace unos meses para plantear algo que está ahí. Pero si ponemos un animal, todo parece más fácil, verdad? Pues en el original la cosa era que ante un choque el coche podía elegir irse contra un motorista o un ciclista antes que contra otro vehículo. Y ahí, el debate no es tan fácil, a que no? Pero si yo te acepto barco, ya verás como me acabas colando la armada como mal menor. Cuando el problema de fondo es que probablemente esas decisiones (imponderables en muchos casos) quizás no debiera tomarlas la máquina, menos en el estado actual de desarrollo.

Esto es un poco como lo de la vía esa con el cambio de aguja y la persona y el grupo de ellas y a ver por cual pasas. Aquí la practicidad y la moralidad se van a dar de hostias e forma de código.

sorrillo

#33 Cuando el problema de fondo es que probablemente esas decisiones (imponderables en muchos casos) quizás no debiera tomarlas la máquina, menos en el estado actual de desarrollo.

En cuanto la circulación de vehículos autónomos implique la reducción de muertes en carretera lo injustificable sería que no los usásemos. Y dado que existen motivos fundados para adelantar que se puede llegar a ello incluso compensaría ya a día de hoy asumir más riesgos para acelerar el llegar a esa situación.

Y una vez asumido que los vehículos autónomos sí tomarán esas decisiones es importante valorar las implicaciones éticas y poner los medios para minimizar los riesgos. Y es que el rechazo social de los vehículos autónomos supondría una mayor pérdida de vidas humanas, y por ello el relato debe ayudar a que no generen un rechazo generalizado.

kumo

#36 En cuanto Si la circulación de vehículos autónomos implique la reducción de muertes en carretera.

Ahora mismo eso es sólo una teoría (plausible). Creo que el posible rechazo va a venir más de ese relato impuesto que de los hechos en si. Al final, el ser humano es mucho de hacer cosas porque le da la gana o le fascina. O porque tiene la libertad de hacerlas.

De todas maneras, y volviendo al estado actual, en realidad esas decisiones las toma un humano y las codifica en función de unos parámetros. Por lo que en realidad yo diría que hay alguien decidiendo qué hacer por ti y por tu coche. Lo cual me genera diversas dudas.

sorrillo

#37 y volviendo al estado actual, en realidad esas decisiones las toma un humano y las codifica en función de unos parámetros.

El modelo de entrenamiento de IA no funciona de esa forma, funciona a base de aprendizaje de ejemplos de los cuales sale un sistema que toma decisiones.

anv

¿Y si un conductor humano sacrifica a sus pasajeros para no atropellar a un perro?

sorrillo

#2 Sería comparable si cada coche autónomo tuviera su propia "personalidad" que le hiciera tomar decisiones distintas a las del resto de vehículos de la flota.

Si por contra, como es previsible, los vehículos del mismo modelo comparten el mismo "cerebro" entonces el caso ya no es comparable, ya que no se analiza solo ese caso en concreto si no que aplica a todos los propietarios de ese modelo que pueden querer tomar decisiones al respecto.

anv

#4 O sea que el problema no es que lo haga un coche sino que lo hagan muchos...

Por otro lado, hay una gran ventaja en los coches autónomos: se puede corregir su funcionamiento mediante una actualización masiva para que actúen de la manera más conveniente.

sorrillo

#9 O sea que el problema no es que lo haga un coche sino que lo hagan muchos...

En el caso del humano sería decidir si subirías a un taxi que condujera ese mismo conductor.

En el caso de coche autónomo sería decidir su comprarías un coche de esa marca.

se puede corregir su funcionamiento mediante una actualización masiva para que actúen de la manera más conveniente.

Sí y no, el modelo de aprendizaje es el de entrenamiento por lo que no puedes hacer cambios con precisión quirúrgica, puedes entrenarlo con nuevos ejemplos pero eso no te asegura que no obtenga nuevos comportamientos criticables que antes no tenía.

anv

#11 Al menos se puede hacer algo para solucionarlo. Con un conductor humano no sabes si te va a matar por esquivar un perro o porque el banco le está por quitar la casa por no pagar la hipoteca y anda distraído.

sorrillo

#13 Si el conductor humano muere en el accidente ya no es necesario que hagas nada, si no muere en el accidente puede haber aprendido de ello o puede hacer clases de refuerzo de la conducción.

No es comparable.

En el caso de los coches autónomos el reto está en que cada accidente se analizará con lupa y se extrapolará al resto de vehículos de la flota, con el riesgo que eso implica para la confianza sobre los vehículos de esa marca. Y una vez identificado el problema no será fácil solucionar solo ese aspecto, si no que al reentrenarlo corres el riesgo de cambiar también matices sobre como actúa el coche en situaciones donde ya actuaba bien, por ejemplo si se cruza un niño pequeño por la calle.

Atrydas

#17 A mi me da que se acabará haciendo una normativa sobre este tema donde se obligue a todas las marcas a tener la misma programación en aspectos de seguridad, lo que si podría pasar es que dicha normativa varíe de un país a otro.

D

Un coche, ante un obstáculo imprevisto en la calzada, va a frenar. Lo de tirarse por un terraplén o sacrificar a nadie son chorradas de filósofos intentando meter cabeza en un campo que no les compete.

sorrillo

#19 No es tan sencillo. Una bolsa de plástico es un obstáculo imprevisto en la calzada, también un pájaro.

Circular con exceso de celo por lo que hay en la calzada es también circular de forma peligrosa, parte de la seguridad se basa en que el resto de conductores puedan predecir el comportamiento del resto de vehículos.

gregoriosamsa

Se habla mucho de las decisiones de un coche. Pero ¿Cuántas veces ha pasado en la historia de la humanidad el decidir si atropellar a un perro o matar a los pasajeros?. Nos estamos volviendo locos por cosas menos probables que los tiroteos en institutos de EEUU y ahí ni se plantean prohibir las armas.

sorrillo

#6 Muchos conductores han tenido accidentes por intentar esquivar a un animal en la carretera.

Ainhoa_96

#8 Muchos conductores con poca habilidad y/o experiencia sí.

Es típico, autopista a 120 o + km/h se cruza un animal y el conductor inexperto da un volantazo y la hostia es tremenda. Doy fe personal de haber conocido variantes de este suceso durante años, en varios países. Cómo anécdota diré que la mayoría eran conductoras (no me preguntéis pq, en los sucesos que he conocido lo eran).

Si algo se cruza en tu camino debes frenar en recto, y si te lo cargas, pues mala suerte. El verdadero dilema es cuando se cruza un niño, un grupo, etc. que ya depende de dónde sea, quién vaya en el coche, etc...

CC #10

Noeschachi

#6 Un perro aparece de golpe en el campo de vision del conductor y éste da instintivamente un volantazo para evitarlo con final desafortunado.. no me parece tan inusual

placeres

#6 ... Un programador dijo hace unos años que todos esos estudios sobre que debería atropellar una IA si hay humanos en juego, han resultado poco más que filosofía, ya en en la practica real nunca han visto esa situación ya que los sistemas mecánicos responden antes/mejor que ocurran esas situaciones hipotéticas extremas.

Sin embargo lo de esquivar animales con resultado mortal para los pasajeros, pues mucho más a menudo de lo que parece, los alces en los países nórdicos son una maquina de matar conductores (Piernas largas y una masa pesada justo a la peor altura en caso de impacto).

La regla general: En caso de emergencia, si es del tamaño de un perro o menor atropellarlo, si es más grande es mejor esquivarlo.

ﻞαʋιҽɾαẞ

Sería un coche hijo de puta.

D

Todo el debate acerca del coche autónomo y la ética de su IA suena interesante pero me temo que nace muerto por mera cuestión de mercado: ¿quién coño va a comprar un coche autónomo que en caso de accidente se decante por matar al dueño o su familia?

tsumy

#12 Pues, si la otra opción en caso de accidente es que mate a los dueños y familias del resto de vehículos, te puedes dar por jodido. Va a tocarte morir mucho antes que en un hipotético "el coche decide sacrificarme".


ps: muy mal tendrían que estar programados para llegar al porcentaje de peligro que suponen los gañanes y alcohólicos al volante.

D

#16 En la práctica un coche autónomo no va a sufrir accidentes casi nunca, especialmente si todos los demás coches también lo son. Pero en cualquier caso, si yo tengo varios modelos para elegir, desde luego no voy a elegir el que no de prioridad a mi vida el 100% de las veces independientemente de las circunstancias, ni yo ni nadie.

tsumy

#20 Eso se soluciona fácil: el coche que en caso de posible accidente sacrifique al resto de vehículos, no certifica y no se vende.

sorrillo

#12 La misma pregunta la puedes aplicar en el sentido opuesto, ¿que sociedad va a permitir circular a un coche autónomo que conduce de forma imprudente por vías públicas por su única prioridad de proteger a sus pasajeros?

D

#21 ¿"un coche autónomo que conduce de forma imprudente"? lol

Nadie va a comprar un coche que en un momento dado puede decir por su cuenta matarle, no es difícil de entender.

sorrillo

#24 Es imprudente si pone excesivo peso en la seguridad de los pasajeros en contraposición a los peatones, por ejemplo.

A nivel de sociedad ésta puede impedir la circulación de vehículos que conduzcan de forma imprudente en relación a los peatones, aunque éstos estén cruzando en rojo, sin señalización, corriendo, con niños persiguiendo una pelota, etc.

D

#26 Esos ejemplos que pones son triviales para un coche autónomo. Jamás va a ocurrir que uno de estos pille a un niño que cruza la calle para coger su pelota. Ese no es el caso, ni es el debate, ni es nada. Estos coches, en la realidad, operan con eficacia cercana a la perfección.

La cuestión es cuando se da una circunstancia rara e imprevisible: por ejemplo, el coche autónomo de deltante sufre un fallo mecánico y pierde el control. Si tu coche choca con él, aquel se cae por el barranco y el tuyo no, si tu coche lo esquiva, aquel solo vuelca mientras que y tú te vas al barranco. En tu coche viajáis tú, tu mujer y tu hijo. En el otro coche viaja otra pareja con una hija. El algoritmo de tu coche decide, en base a factores que tú no conoces, que el mal menor es tu muerte y la de tu familia.

Yo compraré el modelo que barra para casa y lo cierto es que me da igual que tú acabes en el fondo del barranco.

tsumy

#31 En la realidad, el coche autónomo de deltante sufre un fallo mecánico y pierde el control. Y tu con tus reflejos de mono con pantalones te lo comes, y os vais por el barranco los dos coches y todos los ocupantes.

D

#34 Y eso no tiene nada que ver con nada roll

tsumy

#40 Tiene que ver, que a no ser que seas un psicópata que quiera un coche que "barra para casa" aunque conlleve atropellar, o tirar por el barranco, o matar lo que caiga con tal de asegurar tu supervivencia (y eso implicaría que más coches en la carretera se comportarían de forma autónoma igual como ya te he dicho antes, y por puro azar cualquier coche terminaría con tu vida porque ese es el modelo que habéis comprado, o el suyo todavía era más caro) en prácticamente todos los escenarios es mejor ir con un coche autónomo.
Ya que como humano, no es que barras para casa, es que tienes muchas más posibilidades de matarte sin darte cuenta de que el coche de enfrente ha tenido un percance.

Resumiendo:
- Ante prácticamente cualquier imprevisto, debería ser más seguro un coche autónomo que las decisiones que pueda (si le da tiempo) tomar a un humano.
- El punto anterior implica que no deben de existir coches autónomos que prefieran matar a otras personas.

sorrillo

#31 Jamás va a ocurrir que uno de estos pille a un niño que cruza la calle para coger su pelota.

A menos que eso implique no dar prioridad a mi vida el 100% de las veces independientemente de las circunstancias, nos decías.

Socialmente no es aceptable que el vehículo no asuma ciertos riesgos para proteger la vida de un niño que persigue la pelota en medio de la calle.

Estos coches, en la realidad, operan con eficacia cercana a la perfección.

Eso, desgraciadamente, no es cierto.

La cuestión es cuando se da una circunstancia rara e imprevisible: por ejemplo, el coche autónomo de deltante sufre un fallo mecánico y pierde el control. Si tu coche choca con él, aquel se cae por el barranco y el tuyo no, si tu coche lo esquiva, aquel solo vuelca mientras que y tú te vas al barranco.

Los coches no pueden predecir el futuro, las circunstancias son demasiado complejas como para predecir con certidumbre cuales serán las consecuencias para cada uno de los dos vehículos. En el mejor de los casos eso estaría identificado en forma de porcentajes (62,37% riesgo salida de la vía, 21,91% riesgo explosión, etc.)

Pero es que en realidad ni siquiera es así. El vehículo aprende a base de ejemplos, y en base a ellos obtiene unos patrones que son los que utiliza para tomar decisiones. Dada la tremenda complejidad y variabilidad de los accidentes su entrenamiento no será ni de lejos perfecto, deberá tomar decisiones sin conocer con exactitud las consecuencias.

En tu coche viajáis tú, tu mujer y tu hijo. En el otro coche viaja otra pareja con una hija.

Dudo mucho que el coche sepa el parentesco de quienes viajan en él, y mucho menos sabrá si en el vehículo de delante hay o no una niña, un bebe o alguien estirado en los asientos de atrás. No, ese conocimiento perfecto al que nos remites es irreal, al menos en la época en la que vivimos.

Yo compraré el modelo que barra para casa y lo cierto es que me da igual que tú acabes en el fondo del barranco.

Ese nivel de psicopatía es precisamente el que se puede corregir a nivel social, impidiendo la comercialización de vehículos que conduzcan con criterios de gente sin empatía alguna.

Nómada_sedentario

#12 Cierto. Y es más. Cuando tú conduces consciente o inconscientemente todas tus acciones tienen como último fin evitar tu muerte (la del conductor), y asi es como debería actuar la IA.
Eso sí, si tienes que esquivar un niño es posible que lo hagas y eso acabe en tu muerte, pero porque no sabías que eso seria así. Si la IA sabe que eso va a ser así, debería valorar otras alternativas incluidas,por ejemplo, lesiones graves para conductor y pasajero, pero siempre priorizar la vida del conductor, y luego la vida de terceros.
De no ser así, y aunque vaya en perjuicio propio, preferiría que no hubiese IA en mi vehículo.

D

Si el perro es el dueño del coche autónomo, tendría sentido.

Priorat

Para mi solo se puede considerar salvar animales si se han salvado antes a todas las personas posibles.

Y yo he salvado a unos cuantos animales. Entre ellos un Galgo que se me cruzó por la autopista entre La Serena y Santiago, que no son pequeños precisamente, a pocos metros del coche. Este, por tamaño, fue el más impactante. Pero primero las personas.

D

El coche no va a tomar ninguna decisión, actuará en función de lo que se legisle, tal como se hace con el resto de normas de circulación, como ya he dicho en otras ocasiones, probablemente se use un sistema de decisiones de árbol, cada situación tendrá un peso y en función del resultado el vehículo tomará la que corresponda, igual que se hace o al menos se hacía en los programas de ajedrez.

sorrillo

#22 Ya hoy en día los vehículos autónomos no actúan en función de lo que se legisla si no en función de lo que permite una circulación fluida y segura, tienes como ejemplo el caso del vehículo autónomo de Google que se quedaba bloqueado en los cruces por que los otros vehículos en vez de cumplir la norma a rajatabla iban poniendo el morro y el coche de google pasaba a perder su prioridad para circular. Necesitaron enseñar al vehículo autónomo a incumplir la normativa para poder circular por esos cruces.

Por otro lado el modelo de programación se basa en el entrenamiento y en ese modelo no es viable establecer los pesos en sistema de decisiones de árbol. El coche autónomo actuará en función de los patrones que éste mismo haya identificado en las fases de entrenamiento con casos reales y simulados. Si no te gusta el resultado necesitas entrenarlo con más ejemplos.

Guanarteme

Los que plantean estos absurdos parten de la base de que todo el mundo conduce de puta madre, tiene una capacidad de reacción de la polla y que decidir si atropellar a un perro, a un niño o estamparse contra un muro son situaciones en las que se ve un conductor en el día a día ¿Qué va haber problemas con el coche autónomo? Alguno habrá, como con la conducción humana a día de hoy.

Socavador

Pues para tal fin, lo propio sería instalar un muelle homologado por DGT para mandar volando a tomar por culo al coche ante cualquier contratiempo de este tipo.

A ver, que para decir gilipolleces valemos todos.

R

O atropellar a un perro o a un nazi?

newtoncore

Por estas cosas es por lo que los algoritmos deben ser públicos.
Si voy a comprar un coche autónomo quiero saber qué decisiones va a tomar.

M

Depende de lo que coman los robots en unos años.