Hace 8 años | Por carlosrm99 a microsiervos.com
Publicado hace 8 años por carlosrm99 a microsiervos.com

Por mucho que los humanos nos devanemos los sesos con disquisiciones sobre cómo programar la inteligencia artificial de los coches autónomos de un modo moralmente justo y nos enfrentemos a cuestiones como el dilema del tranvía, el asunto no tiene fácil solución.

Comentarios

Peka

Esos dilemas solo se dan en humanos, un coche autonomo tiene un tiempo de reacción muy superior al nuestro y su forma de conducir no es agresiva asi que esta evitando continuamente que se den esas situaciones.

El fallo suele ser el humano.

sorrillo
n

#4 tiempo de reaccion inferior al nuestro

Peka

#7 Si, claro. Lo he dicho al revés.

powernergia

#11 Por eso no es tan sencillo como decir:

"Quien provocó la situación debe morir antes que quien circulaba respetando las normas"

Y es que todo esto es bastante mas complicado de lo que muchos suponen, y una razón (mas), de porqué no veremos coches autónomos en nuestras calles y carreteras a medio plazo.

el_pepiño

#12 ya, no digo que sea sencillo. Digo que se debería tener en cuenta no sólo el número de víctimas sino también la situación de cada uno con respecto al cumplimiento de las normas de tráfico.

Siempre se pueden encontrar ejemplos extremos como el que nombraste, en cambio encontrarse gente andando por la autopista o cruzando por donde no debe ocurre todos los días.

D

Que sobraos.

D

A los coches no les puede importar. Trabajan por programas, no tienen conciencia.

Los programadores de los coches autónomos tratan de resolver los problemas para saber cómo conducirlo y evitar accidentes, y le enseñan al coche cosas como "si viene un objeto grande en contra en curso de colisión (coche, camión, o lo que sea) y puedes desviarte para no colisionar, hazlo, pero si no puedes desviarte, entonces frena". "Si hay un objeto pequeño (un niño, por ejemplo) en medio de la vía, frena si se mueve o desvíate si está quieto"

Sería muy interesante saber cuál es la lógica que les programan. ¿conocen estos programadores el dilema del tranvía?, ¿le han dado una solución?, ¿de ser así, cuál?. Por otro lado, ¿deberíamos enseñarle a todo programador de coches autónomos el dilema del tranvía?, ¿tenemos derecho a saber cómo lo resuelven, la lógica que usan?

el_pepiño

En todos estos dilemas nunca veo que hablen del culpable de la situación. Por ejemplo, si el coche se dirige a 10 personas que están cruzando a pie una autopista y las opciones son atropellarles y matar a 10 personas, o dar un volantazo y matar al único ocupante del vehículo, para mí la respuesta es claramente atropellarles. Quien provocó la situación debe morir antes que quien circulaba respetando las normas.

powernergia

#9 Esas 10 personas estaban siguiendo instrucciones de evacuación por parte de la policía.

el_pepiño

#10 entonces es un supuesto diferente, donde ninguna de las partes tienen la culpa de estar en esa situación. En tu ejemplo el culpable sería la policía por ordenar que la gente cruce y no cortar la circulación, de todas maneras el coche debería elegir arrollarlos y salvar al conductor, porque el coche no sabe por qué estaban ahí, pero sí sabe que no deberían estar ahí.

D

Pues, anda que a sus usuarios...

D

No me gusta la presentación, pero a grandes rasgos estoy de acuerdo, la solución "buena" sería lo esperable de un humano. No puedes pedirle a un humano que en cuestión de milisegundos selecciones la mejor opción. Simplemente se recomienda frenar y ya, además un coche podrá tener mejor tiempo de reacción que nosotros, pero no puede nunca controlar todas las variables.

Un problema que podría darse, sería el de un suicida que salte en tu camino (o varios, o incluso un maniquí) y que un sistema decida que tu tienes que morir. ¿puedes reaccionar con total seguridad? reacciona. Que no, frena.

gassganso

Para lo corto que es el artículo, el "autor" podía haber revisado la traducción automática.