Hace 4 años | Por RobertoConde a hipertextual.com
Publicado hace 4 años por RobertoConde a hipertextual.com

Un equipo internacional de científicos, con participación española, ha constatado por primera vez que las ondas cerebrales lentas son las que tienen mayor peso en la toma de decisiones morales en las personas. Esta información es de gran interés para el desarrollo de vehículos de conducción autónoma, ya que se busca que los protocolos de conducción tomen decisiones de manera similar a cómo lo harían las personas.

Comentarios

I

A tenor de lo que estamos viendo este verano, dudo mucho que lo hagan peor que algunos humanos.

D

#21 si un coche de conducción autónoma se pone a más velocidad de la permitida no está funcionando correctamente, estoy hablando de casos en los que el funcionamiento sea correcto y aun así se de una situación en la que haya riesgo mortal para los ocupantes y otras personas.

En una zona donde pueda aparecer un niño en la carretera lo normal es que existan límites de velocidad donde chocar el coche no sea un riesgo para los ocupantes, pero si por alguna extraña razón saltase un niño al medio de una autopista con coches circulando a 120km/h no tengo nada claro que estrellar el coche, matar a los ocupantes y potencialmente provocar una colisión múltiple sea la opción adecuada, por mucho que se pueda ver como algo egoísta.

Nadie va a comprar un coche sabiendo que en una situación donde está circulando correctamente, la opción del coche va a ser matar a los que van dentro antes que a otra persona. Y nadie va a fabricar un coche que no se vaya a vender.

G

¿Un conductor en una decima de segundo antes de un accidente es capaz de tomar una decision moral? ¿O es simplemente un reflejo? Yo creo que no seria capaz de tomar una decision pensada, que mi cuerpo actuaria y ya

D

#6 #7
Eso es una cosa y otra es sugerir que hay criterios racistas en la implementación de esos sistemas.

musg0

#10 el mensaje al que contestabas me parecía más bien un chiste, y en general las noticias sobre sesgos en los algoritmos de IA son bastante sensacionalistas.

ninyobolsa

#10 era una broma

ninyobolsa

Este estudio es lo más idiota que he leído en mi vida. Como las ondas morales que son retrasaditas

D

Sea como sea la prioridad será siempre salvar al conductor y sus ocupantes. Es la respuesta instintiva que tendrían la mayoría de los conductores y no tiene nada que ver con la moral. Además, si no fuera así se generaría un fuerte rechazo a comprar un coche sin esa premisa.
Otra cosa interesante será el hackeo y el tuneo de dichos algoritmos

pepepoi

#4 el vehiculo es el causante así que moralmente no debería ser el primero en librarse de las consecuencias. Un peaton o un ciclista tienen más preferencia en salir ilesos

D

#15 No. Partimos de la base de que todas las vidas son igualmente valiosas. El vehículo es un objeto y no está sometido a condicionantes morales como no lo está una piedra que cae de un barranco sobre la cabeza de uno que pasaba por allí. Por lo tanto si como consecuencia de un fallo del coche ha de morir alguien es irrelevante, moralmente, que sea el pasajero (el coche es autónomo) o un ciclista. Puestas las cosas así el coche ha de dar una respuesta lo más similar a la que daría un conductor manual y este, instintivamente siempre trataría de salvarse él. Nadie querría ir en un coche que en caso de accidente tratara de salvar a personas distintas de los ocupantes a costa de estas, es un planteamiento absurdo. Asunto distinto es cuando tiene que elegir entre el número de víctimas, la edad, el sexo un otros condicionantes, siempre y cuando no sean ocupantes del coche. Ahí si puede haber criterios morales. También puede haber condicionantes morales si el accidente es consecuencia de algo que haya hecho un ocupante.

pepepoi

#16 "Nadie querría ir en un coche que en caso de accidente tratara de salvar a personas distintas de los ocupantes a costa de estas, es un planteamiento absurdo."
No es absurdo, simplemente egoista. Lo moralmente correcto es salvar al inocente, el que no va a demasiada velocidad con un vehiculo de 2000 kilos.
Si lo planteamos así seguramente algunos irresponsables se pensarían no correr tanto.
De acuerdo en que todas las vidas son igual de valiosas pero si alguien paga que sea quien comete la imprudencia y ese suele ser el de la velocidad con vehiculo de 2000 kilos, no el niño que sale detrás de una pelota

D

#17 A ver chato, que estamos hablando de coches autónomos. En tu ejemplo del niño de la pelota NADIE TIENE LA CULPA, en todo caso el cuidador del niño.

pepepoi

#18 nadie tiene la culpa?
A ver si somos un poquito más honestos!!! Un niño no atropella un coche.
Un niño no tiene tampoco que vivir custodiado porque haya irresponsables en el mundo divirtiendose con sus juguetitos.

D

#17 ¿tú te comprarías un coche autónomo que supieses que en caso de accidente va a optar por matarte a ti y a tu familia antes que a otros que no vayan en el coche? Porque la cosa va de coches autónomos donde la culpa del accidente no es de los ocupantes, quien conduce es el propio coche.

pepepoi

#19 ya he dicho que mi opinión es la que considero moralmente correcta no la egoisticamente correcta.
Si un coche autónomo se cruza con un niño debería dar volantazo y estrellarse con una farola.
Verías como así la gente iría más despacio,
El coche, por muy autonomo que sea no deja de estar controlado por el hombre. Si yo entiendo que hay peligro mi obligación es señalarle que reduzca la velocidad.

jolucas

Van a enseñar a la máquina egoísmo, imprudencia, temeridad.

Para un grado de temeridad 18 pulsar botón rojo,
para un grado de egoísmo 3 pulsar botón azul + control L
.....

trylks

squanchy

Ante dos posibles víctimas de atropello, que eche una foto, que la compare con las de facebook, luego que consulte una base de datos, y que elija al que no es votante del partido en el gobierno.

ElTioPaco

bueno, los primeros coches autónomos tenían mas probabilidad de atropellar a negros que a blancos.

Les están enseñando el "American way of life" desde las bases.

D

#3 La primera vez que lo oigo ¿fuentes?

musg0

#5 https://arxiv.org/pdf/1902.11097.pdf También hay más articulos diciendo cosas similares sobre que los algoritmos de detección de caras tienen problemas detectando pieles oscuras

D

#5 Creo que es porque estaban entrenados principalmente con imágenes de peatones blancos.

R

Los primeros en caer deben ser los que cobren pensiones y/o prestaciones y luego los feos. No, ahora en serio, todos tendremos nuestro carnet de puntos sociales, y esto determinará el orden de prioridad de superviviencia

D

Primero tienen que enseñarle distinguir entre cosas y personas. Lo de tomar decisiones éticas esta muuuyyy lejos.