Hace 9 años | Por wanakes a microsiervos.com
Publicado hace 9 años por wanakes a microsiervos.com

En un interesante blog se planteaba la cuestión sobre si tu coche autónomo puede o debe tomar la decisión de matarte en un intento por salvar dos o más vidas, o poner la vida de unos en riesgo para salvar otra vida (de un niño, por ejemplo). En teoría la operación matemática puede parecer sencilla: mejor perder una vida que dos; mejor salvar al niño-peatón-desprotegido aunque eso suponga dirigir el coche contra un vehículo que ‘pasaba por allí’ y viene de frente. Pero no lo es. Y hasta puede ser ilegal.

Comentarios

wanakes

#3 Si, y lo hace un comité en base a varios criterios, algunos de ellos que escapan de la propia objetividad.

Y de lo que hablamos es que una máquina tenga los criterios para poder decidir en una fracción de segundo, lo que implica parametrizar a priori y sin más consideraciones el valor absoluto de la vida salvada/vida dañada. Casi nada.

wanakes

Anda que no que no es interesante la cosa... ¿Cómo programaremos nuestros robots para minimizar el daño potencial?¿Qué valor otorgamos a un niños vs. una embarazada vs. un anciano vs. un hombre normal? Algunos cuentos de de Robots de Asimov pasan rozando estos conflictos éticos, pero no recuerdo ninguno que lo afrontara directamente...

gonas

#2 Eso es algo que se hace en medicina constantemente y nadie se escandaliza. Cuando hay un corazón para trasplantar se le asigna al paciente que más posibilidades tiene de sobrevivir. La esperanza de vida es otro punto a tener en cuenta, ante se atiende a un niño que a un anciano.

wanakes

#8 Puesto que parece que no hay dios, o está demasiado escondido y ausente para jugar, y que la robótica parece imparable, parece que no queda mucho más remedio que ponerse a programar estos algoritmos. Que es de lo que va el artículo.

Y es curioso, pero la tendencia que explica, al menos en Alemania, es negar el conocimiento: en el caso extremo que definía antes, el algoritmo no haría...¡nada!. Supongo que acabaría estampándose contra el autobús y matando a varias personas. Curioso...

kucho

#9 lo consultare en el manual del coche autonomo que me compre. entonces saldremos de dudas.

mfaustino

Para acabar igual, mejor dejarlo como está...

Homertron3

Los coches autónomos no pueden tener accidentes, mejor dicho, no pueden ser los causantes, están programados para ello. Por lo tanto en cualquier caso el coche tiene que velar por mi integridad siempre y cuando no provoque con ello un accidente, yo lo veo claro.

wanakes

#5 #6 Discutible, pero acepto pulpo. El caso es que tu coche patina en hielo en una calle cuesta abajo, y no puede frenar. Esa calle desemboca en otra en la que el GPS le informa que viene (y colisionará irremediablemente) un autobús lleno de jubilados. Y como única alternativa es chocar contra los edificios laterales, en cuyo caso previsiblemente atropellará a un niño o a una señora claramente embarazada. Tu no resultarás dañado en ningún caso, el sistema determina que los sistemas de seguridad pasiva te protegerán en cualquier caso.

Si yo fuera el responsable de la programación de algoritmo que determinará la respuesta del coche... ¿qué haría?¿que debería priorizar?

kucho

#7 sospecho que son debates éticos más allá del alcance de la tecnología que pueden acabar con su prohibición "por si acaso".

el responsable de la programación del algoritmo estaría jugando a ser dios.

kucho

ya saldra el parche para que tu propiedad te respete.