Hace 5 años | Por ElLocoDelMolino a tendencias21.net
Publicado hace 5 años por ElLocoDelMolino a tendencias21.net

Más de 40 millones de decisiones recogidas por una web en 18 meses han permitido elaborar el primer árbol poligenético moral de la humanidad. Se ha construido sobre algo tan elemental como el transporte cotidiano y los posibles dilemas que puede plantearnos. No son los resultados de una encuesta cualquiera, sino de una web creada en 2016 por investigadores franceses (CNRS), del MIT y de las universidades de Harvard y de la Columbia Británica, para preguntar a los internautas sobre los dilemas a los que se enfrentan los vehículos autónomos.

Comentarios

#9 Venía a comentar esto mismo

daphoene

#9 Yo también participé en su momento, y entiendo que es su trabajo. Lo justo si has participado es que te dejen ver tus respuestas, no el cómputo total de ellas. Era algo voluntario y en ningún momento dijeron que te diera ningún derecho especial.

Fuckencio

#9 Seguro que alguien paga esos 9$ y lo cuelga en algún lado... ¡Esa no la vio venir la IA!

ElLocoDelMolino

son los resultados del primer estudio realizado por esta web que salió en La máquina del juzgamiento moral

Hace 7 años | Por yesaire a microsiervos.com


Enlace a The Moral Machine http://moralmachine.mit.edu

D

Yo no voy a comprar un coche autónomo que tome la decisión de matar a los pasajeros aunque a cambio salve 10 veces más vidas.
Vamos, es muy bonito visto desde fuera, pero yo no tendría ninguna confianza en un cacharro así.
Además seguro que se pueden hacer mecanismos que impidan que se den estas situaciones.

CrearUsuario

#3 Cuando un nación estado hackee la red que intecomunica a todos los coches autónomos verás lo poco que nos importa la moral y el sentido común...

#8 ¿Tú crees que los coches autónomos no tienen su propio procesador y que los maneja una red central o algo así?

superjavisoft

#11 Bueno, se actualizan conectandose a un servidor en red, si alguien mete un firmware con una pequeña modificacion...

#15 Si eso fuese tan sencillo podría pasar exactamente lo mismo con Windows, Linux, Android, etc... Y que yo sepa no pasa. Es la propia Microsoft la que la caga en esos asuntos, y puede que la cague algún fabricante de coches también, pero también la cagan con los coches actuales, no me parece un tema como para alterarse.

CrearUsuario

#11 No, pero para evitar atascos, hablarse entre ellos, y tal, no lo van a hacer de manera descentralizada, no? O al menos viendo el ritmo de implementación de medidas de seguridad en la industria y sobretodo, en la parte del código cerrado pues la verdad es que no tengo mucha esperanza de que se tomen las medidas de seguridad necesarias para evitar de manera adecuada cualquier tipo de escenario de hackeo.

Sí, hablo en términos generales y no específicos. Yo solamente digo que tener tu red de transporte interconectada siempre supone un gran peligro.

Nathaniel.Maris

#23 Y unas grandes ventajas, el problema es ¿Qué pesa más?

#23 Para evitar un atasco no es necesaria ninguna red centralizada, los GPS ya avisan de eso actualmente, el coche solo tiene que tener un algoritmo de preferencias y tener en cuenta los atascos igual que tiene en cuenta autopistas y siempre preguntando al "conductor".
Y si los coches se hablasen entre ellos no entiendo porque tanta inversión en que "se vean" entre ellos, todos tienen cámaras y detectan a los otros coches de esa manera (igual que los humanos), si hay alguna marca intentando interconectar a todos los coches en mi opinión se están flipando un poco.

rafaLin

#23 Sí se va a hacer de forma descentralizada, es la mejor forma y la más segura, así no dependes de servidores centrales que pueden caer. Parece que la mayoría de las marcas están probando hacerlo con IOTA, una criptomoneda pensada para estas cosas.

Maelstrom

#3 Yo tampoco me fío y por una razón más profunda: el humano moralmente maduro cuando no es capaz de matar directamente frente a un dilema que "sentencia" que esa salida es la menos costosa en vidas no lo hace solamente por el horror de la ejecución directa sino también porque intuye, e intuye muy bien, que los dilemas morales solo existen como modelos ideales que nunca se dan en la realidad, y porque espera, y con razón, que haya variables instadas en la riquísima realidad que hagan probable la escapatoria del dilema y, por tanto, no tener que condenarse a un fatalismo que solo existe en ese modelo. Dicho para un autómata: o se encuentra en una situación indecidible que no puede computar (ninguna situación real que se encuentre se ajusta a su modelo) o, peor, reduce todo escenario a su modelo y aplica la solución en él presentada. Esto lo digo porque muchos dilemas, que solo aparentemente lo son, se descubre a posteriori que podrían haberse evitado. Y no solo a posteriori: si un humano puede prever salidas (aunque luego resulten algunas veces más complicadas que las propuestas por un modelo moral), mucho más para una máquina que quizás solo contemple variables muy circunscritas (por mucho que contemple millones de veces más variables que el humano en la conducción, este puede decidir sencillamente no conducir o no escoger esa vía alternativa o cualquier otra razón más allá de la mera conducción, simplemente porque sabe que tal día circulan más ciclistas, hay una manifestación, en esa zona suelen cruzarse jabalíes a tal hora, etc.).

T

#10 Casi me peta la cabeza.

Maelstrom

#21 De verdad que escribir un mensaje largo desde el móvil es una odisea. Debería quedar así (y de paso lo lees otra vez):

Yo tampoco me fío y por una razón más profunda: el humano moralmente maduro cuando no es capaz de matar directamente frente a un dilema que "sentencia" que esa salida es la menos costosa en vidas no lo hace solamente por el horror de una ejecución directa sino también porque intuye, e intuye muy bien, que los dilemas morales solo existen como modelos ideales que nunca se dan en la realidad. También porque espera, y con razón, que haya variables instadas en la riquísima realidad que hagan probable la escapatoria del dilema y, por tanto, que le permitan no tener que condenarse a un fatalismo que solo existe en esos modelos. Dicho para un autómata esto queda muy limitado: o se encuentra en una situación indecidible que no puede computar (ninguna situación real que se encuentre se ajusta a su modelo) o, peor, reduce todo escenario a su modelo y aplica la solución en él presentada, que siempre parecerá insatisfactoria.

Esto lo digo porque muchos dilemas se descubre a posteriori que podrían haberse evitado, lo cual prueba que eran dilemas solo en apariencia. Y no solo a posteriori: un humano puede prever salidas o vías de escape dentro y fuera de un escenario. Más concretamente, puede decidir sencillamente no conducir o no escoger una vía alternativa, ir con más cautela y precaución, estar más atento, etc., por ejemplo porque sabe que tal día circulan más ciclistas, hay una manifestación, en esa zona suelen cruzarse jabalíes a tal hora... Una máquina sin embargo quizás solo contemple variables muy circunscritas a la conducción, empobreciendo el mapa global de otras circunstancias muy determinantes de posibles accidentes.

sotanez

#22 En la práctica, si se afinan bien los coches autónomos y se implantan masivamente se reducirá bastante en general el número de accidentes, por el simple hecho de que una máquina (salvo error) siempre va a respetar las normas de tráfico y va a conducir con la debida precaución, a pesar de otras limitaciones que puedan no tener los humanos.

Será una cuestión estadística, y todas estas pajas mentales sobre dilemas morales, errores muy puntuales y otras historias se quedarán en algún que otro caso anecdótico que ocurre cada mucho tiempo, reaviva el debate durante unos días y luego vuelta a la normalidad.

E

#3 Igual que hace años alguien diría que jamás en la vida iba a poner sus fotos y una lista de amigos y conocidos en un tablero público consultable por todo el mundo.

No vas a tener esa opción, nadie te va a preguntar y comprarás el equipo que sea legal vender y poseer.

Por otro lado, este tipo de "dilemas morales" no sirven para eso, por más que se repita, y esta noticia es la prueba. Los dilemas morales sirven para las personas y si algún día una máquina artificial es capaz de llegar a esa complejidad tendrá sus propias opiniones y tomará sus decisiones, no se la va a entrenar tan fácil con opiniones aleatorias de Internet igual que por mucho que un padre no fume su hijo puede acabar haciéndolo o viceversa.

Y que es una tontería, precisamente la ventaja de la conducción autónoma es que puede evitar las situaciones de esos dilemas: no conducir a una velocidad que conlleve que no puedas frenar ante lo que hay a la vuelta de la esquina, recibir comunicación de un accidente previamente...

Estas decisiones artificiales y forzadas son tan ridículas como lo de un tren que va por una vía que va a matar a tres o lo cambias y solo mata a uno (justo tú estás en el sitio para cambiarlo, justo algo ha puesto un rehén en una vía y tres en otra, justo tú lo sabes y estás informado de todo, justo tienes tu tiempo para debatir la moralidad internamente, justo se crea una imposibilidad de ir corriendo a salvarlos...)

No es más que un estudio social, lo de la conducción autónoma solo es para que los sujetos observados "se lo crean" y obtener valores realistas voluntariamente.

daphoene

#13 Esas situaciones ridículas se dan, y el aparato tiene que tener un baremo para comparar pesos en sus decisiones, este tipo de información es necesaria, aunque en algunos casos nos resulte muy ficticia y muy grosera, tienen que evaluar datos y límites.

Otro tema es, como menciona #3, que vayamos a comprar un vehículo que puede elegir que matar a sus ocupantes es mejor opción que atropellar a una embarazada que está cruzando en rojo, o a cuatro niños, ese tipo de decisiones son muy complejas a nivel legal.

Yo hice el estudio porque me gustan los juegos y poner a prueba las propias convicciones. Me pareció un estudio muy curioso. Pero tanto las leyes que lo regulen como la propia programación de los coches autónomos es algo que no va a estar en nuestras manos, realmente, y nos lo tendremos que comer con patatas nos guste o no.

E

#18 ¿Realmente crees que alguien va a escribir unas líneas de código en las que se les de unos valores de importancia a una embarazada, a un anciano y a un niño, con unos modificadores según si va en bici, si va en moto, en patinete o andando y luego va a va a poner un código que explícitamente elija a quien atropellar en una situación?

No hombre, no, eso no va a pasar así. Ni se va a preparar al coche para diferenciar un hombre de 50 años de una muchacha de 15, ni se va a preparar para diferenciar a un hombre a cuatro patas de un perro grande (Y si lo hacen, serán demostraciones comerciales que "inminente estarán disponibles"). El coche va a "ver" obstáculos, clasificarlos como móviles o fijos, mobiliario o "animal", predecible o impredecible y va que chuta por muchos años. En base a eso calculará las posibilidades de movilidad de esos obstáculos para que sea altamente improbable cruzar ruta con ellos.

Va a hacer sus cálculos para que no se choque con nada, y si hay dudas va a frenar lo más posible. Y ya. No va a elegir tirarse por un barranco para salvar a un bebé, ni va a meterse en el carril contrario para esquivar un caballo "sabiendo" que choca con una moto. Va a seguir su carril y cuando haya algo impredecible intermitentes, frenada, alerta; con los reflejos y control que le corresponden a un ordenador: bestialmente superiores a los humanos.

Esas situaciones no se le dan en toda la vida a un conductor normal ¿¡Quien va a gastar tiempo en modelizarlas y certificarlas en un producto comercial!? ¿Con qué narices te van a aprobar ese diseño? ¿Cómo lo vas a defender en un juicio si alguien lee el código? Son situaciones muy sensibles a cualquier pequeña variabilidad (¿A qué distancia están los niños que voy a atropellar y a cual los anciano? ¿De quien es la "culpa"? ¿A qué velocidad se mueven? ¿Hacia donde?). Ninguna empresa ni ingeniero se va a arriesgar a tener que justificar que su producto "decidió" matar a X o Y, el código será de forma que no se vea decisión alguna y que haga lo posible por evitar la situación, resultando impredecible e incontrolable el hacer daño en caso de hacerlo.

Esta es mi apuesta: Morirán dos atropellados al año, será inevitable y saldrá en portada a bombo y platillo. Algún coche más se saldrá del recorrido si no se preparan las vías para ser menos ambiguas.

daphoene

#20 No se trata de la cantidad estadística de posibilidades de que algo ocurra, aquí el problema para que un vehículo autónomo pueda circular es de base legal, a nivel de seguros, indemnizaciones y capacidad de decisión. Y por supuesto que tendrá que distinguir entre un perro y un niño para poder circular, y muchas cosas más. Otra cosa es que los ejemplos propuestos se lleven un poco al extremo, como diferenciar un indigente, que supongo que lo han añadido como parte del estudio ético independientemente de su utilidad para coches autónomos.

Si un vehículo autónomo no es capaz de diferenciar y valorar cuestiones tan elementales como diferenciar un animal de una persona, o un niño de un perro, o una moto de un caballo, es cuando va a tener problemas para que se acepte su legalidad.

E

#26 Es que hablas como si esos sistemas fuesen algo de ciencia ficción. Pero lo cierto es que ya están en pruebas y diseñados mucho antes de este estudio social, y ya están permitiéndose en algunos puntos y planteándose su legalización en el resto. Sin ir mas allá el AutoPilot de Tesla no tiene la característica de ser autónomo oficialmente, pero la gente lo ha usado de esa manera.

El hombre a cuatro patas y el perro es un buen ejemplo: el perro es más impredecible y más ágil, por tanto su abanico de posiciones futuras es mayor. El resultado: es mejor confundir a un hombre a cuatro patas con un perro u otro animal cuadrúpedo que viceversa. Por tanto, nadie va a gastar dinero en refinar su producto para ser más inseguro.

Es más, el hombre a cuatro patas por la calle es algo extraordinario, como otras infinitas posibilidades que podríamos pasarnos el día inventando, un buen juego para niños. No es una casuística que se pueda probar ni se van a hacer tests de eso a medida: ni vale la pena, ni es viable, ni es realista, ni va a dar resultados definitorios.

Y luego, es segregar un mercado que ya tienes, comercialmente, unificado: si elije hombres antes que mujeres no vendes a muchos varones ni en ciertos países; si elije matar mujeres antes que hombres vas a ser muy polémico y posiblemente tengas campañas en contra; si son niños en vez de ancianos los países con cierta moralidad te van a repudiar pero si matas ancianos pierdes secretamente muchos clientes de edades altas y por tanto con mayores ingresos... ¿Para qué te vas a meter en esos berenjenales cuando además hacer un sistema capaz de esas diferenciaciones cuesta mucho más y la competencia se te va a adelantar?

Solo hay que ver el comentario que inicia este hilo. Deja a los coches que hagan bien su trabajo: conducir. De la filosofía por ahora solo nos encargamos los humanos. Y si el árbol cae y no está cerca de ninguna carretera, para el coche autónomo no ha hecho ruido.

daphoene

#28 Yo no hablo como si fuera de ciencia ficción, al contrario, lo que he comentado es que estos dilemas tiene que tratarlos la IA. Respondía a tu comentario que dice que no se pueden hacer pruebas para estos casos, y que se iba a actuar sólo con un control de colisiones.

E

#35 Has señalado que no se iba a aceptar la legalidad si no hacia ciertas cosas, yo te he intentado decir que ya se esta aceptando y no hace esas cosas.

La IA no va a tratar dilemas, eso sí que no sería aceptado. Sin un patrón y criterio reproducible y que se pueda analizar objetivamente ningún fabricante ni seguro va a mojarse.

daphoene

#36 "ya se esta aceptando"

Será moralmente, porque legalmente aún no he visto ningún país que acepte coches autónomos. Y si me equivoco, corrígeme.

Que haya flipados que usen el sistema de Tesla de forma ilegal no quiere decir que se haya legalizado ni aceptado, para que eso ocurra, muchas de estas premisas las tiene que cumplir un coche objetivamente mejor que un humano, y aún así, veremos.

La IA tiene que tratar dilemas, y resolverlos de una forma legalmente aceptable.

E

#37 Fue portada recientemente.
https://wwwhatsnew.com/2018/10/31/los-coches-autonomos-de-google-ya-circulan-sin-conductor-de-apoyo-en-california/

Por saber si seguir este debate tiene sentido ¿Sabes lo que es una IA, los tipos que hay y como funcionan? ¿Conoces el estado del arte actual en ese área?

D

#3 "Yo no voy a comprar un coche autónomo que tome la decisión de matar a..."

Es decir, prefieres hacerlo en persona.

Yo por mi lado no confío en los primeros algoritmos de los coches autónomos. Pero creo que llegará el momento en donde ellos sean mejores que nosotros en encontrar el menor daño.

Aunque tiene sus problemas. Por un lado tendrán la capacidad de tomar decisiones mucho más rápidamente que nosotros, lo cuál es muy bueno ya que en ciertos casos ni nos daría tiempo de alguna reacción, pero por otro lado pudiera pasar como en "Yo Robot", donde el robot toma la decisión equivocada y no salva a la niña... Pero ¿quién sabe?, al final fue la decisión correcta por lo que sucedió después.

Nathaniel.Maris

#14 Yo lo que tengo claro, es que jamás compraré un coche autónomo que se plantee la idea de matarme a mi en algún escenario hipotético. Yo compro el coche, yo sobrevivo.

D

#25 Sobrevivir no depende de ti solamente. Los otros coches (que pueden ser autónomos) también tienen algo que decir al respecto. No puedes escaparte de eso.

Nathaniel.Maris

#29 A ver si me explico, el resto de coches que hagan lo que quieran, yo espero que un aparato de mi propiedad ponga por encima de todo la seguridad de su dueño.
Si hay que elegir entre estamparse contra un muro a 90km/h y atropellar a 10 gatitos, 4 perritos y 15 pelirrojos, que los atropelle sin miramientos.
Y si el resto de coches intenta evitarlo, bien por ellos, están en su derecho.

Es el mismo caso que el "rumor" ese de que si eres donante de órganos intentan salvarte un poquito menos que si no lo eres, ya que así usan tus órganos para otra cosa. No mire, si soy donante no es para que me dejen morir.

D

#32 Pero los otros coches (autónomos) pudieran decidir chocar contra el tuyo para desviarte y que choques contra el muro por el bien mayor, para salvar a los 10 gatitos, 4 perritos y 15 pelirrojos.

Nathaniel.Maris

#33 Y están en su derecho de hacerlo, yo sólo espero que mi coche intente salvarme a mi, no que me estampe contra un muro porque le apetece.

Resumiendo, el resto que hagan lo que quieran, mi coche que me defienda a mi, que para algo es mío.

efectogamonal

Ostia Haravacard, un estudio con sello propio roll 🔥

Zeioth

Donde se pueden ver el resto de paises?

soundnessia

Y quienes iban a religión ?

capitan__nemo

¿Y los resultados del estudio acabaran explotados por una empresa como cambridge analytica en un modelo de red neuronal entrenado para detectar y extrapolar la ética de cada usuario de internet por las webs que visita, los me gusta que da, y el resto de datos que recoge el big data?

Los modelos de robo de datos de Cambridge Analytica ya están aquí [EN]
Los modelos de robo de datos de Cambridge Analytica ya están aquí [EN]

Hace 5 años | Por letra a technologyreview.com