EDICIóN GENERAL
278 meneos
5182 clics
Tesla confirma que el Autopilot estaba activado durante el accidente fatal del Model X

Tesla confirma que el Autopilot estaba activado durante el accidente fatal del Model X

Tesla no sólo señala que el Autopilot estaba activado al momento del choque, sino que también se emitieron varias alertas visuales y sonoras al conductor, y seis segundos antes del impacto, no se detectaron la manos del conductor en el volante. Es decir, los registros del coche muestran que no se tomó ninguna acción a pesar de las diversas advertencias del sistema.

| etiquetas: tesla , accidente , autopilot , model x
Comentarios destacados:                
#15 #3 No, un conductor que está distraído, no es capaz de comprender las circunstancias de conducción en un segundo.

Ese Autopilot es bastante cabroncete, te mete en una situación comprometida, y cuando no sabe salir de ella de devuelve el control y allá de las apañes. Tesla está tomando muchos riesgos, ofreciendo una tecnología que no está depurada. Aunque realmente, el riesgo lo asume el conductor. Tesla se lava las manos diciendo que es sólo semi-autónomo. Claro, ves que el coche conduce solo, pero sigues atento en todo momento y con las manos en el volante, "porsiaca". Pues no, como es normal, el conductor se acaba distrayendo y, cuando se le exige retomar el control, puede no ser capaz de hacerlo a tiempo de evitar el accidente.
O es realmente autónomo, o no lo es. Estas medias tintas van a generar muchos accidentes.
Y el tipo sabia que el autopilot fallaba en ese tramo, menudo figura
#1 todo para poder decir "VEIS COMO TENIA RAZON"
Si le avisó 6 segundos antes, creo que entonces el autopilot no falló, el tiempo de reacción de un humano es de un segundo más o menos... Podría haberlo evitado o minimizado el impacto si hubiera hecho lo que debería hacer, que es retomar el control.
#3 El "autopilot" dio señales se alarma y a la vez lanzó el coche contra el hormigón, osea fue un fallo del sistema.

"Aquí aún se desconoce cómo es que el coche se movió de tal manera del carril hacía la barrera de hormigón de forma frontal"

Aunque se trata de un asistente a la conducción y ya avisa en los manuales que el conductor tiene que estar pendiente continuamente.

Encima tenia el nivel de aviso al mínimo con poco tiempo para tomar el control.
#4 El "autopilot" dio señales se alarma y a la vez lanzó el coche contra el hormigón, o sea fue un fallo del sistema.

no es un fallo del sistema, es una característica del sistema.
Tesla sabe que tiene un autopilot que es una ayuda a la conducción, que no puede tomar decisiones complejas por sí mismo y que requiere un conductor supervisando.

Si el conductor decide obviar este hecho, suceden accidentes bajo su responsabilidad, no la de Tesla.
#7 Una de las características del sistema es evitar obstáculos no lanzarse contra ellos.

Parece un "falso positivo" que uno de los grandes problemas de estos sistemas.
#9 Depende lo que considere obstáculo, hace no tanto salía una noticia aquí en la que se comentaba que en caso de decidir, elegiría el mal menor, esto es chocar contra un motorista en vez de contra un camión.

In the moments before the collision, which occurred at 9:27 a.m. on Friday, March 23rd, Autopilot was engaged with the adaptive cruise control follow-distance set to minimum. The driver had received several visual and one audible hands-on warning earlier in the drive and the driver’s

…   » ver todo el comentario
#19 no tengo yo muy claro que el mal menor sea chocar contra un motorista.
#40 Yo, como motero, lo tengo muy claro. gracia ninguna.
Pero se ve que las IAs aún no. Mal menor para el coche, claro. Pero contando que son máquinas que aún no distinguen una imagen de un cuerpo real, pues es lo que hay.
#47 Distinguir, lo hacen. Otra cosa es la toma de decisiones lógica, fuera del sentimiento y pensamiento humano. La toma de decisiones se basa en parámetros, estadísticas, algoritmos, etc. Si una persona no sería capaz o le costaría decidir de matar a 1 persona para salvar a miles, una máquina no tardaría ni un microsegundo en tomar esta decisión. Si un Tesla o otros sistemas más avanzados ve mejor atropellar un motero, para evitar un accidente mayor, lo hará porque es la decisión "lógica".
#49 Esto salió por aquí: www.microsiervos.com/archivo/coches/imagen-explica-coches-autonomos-ta

No distinguen bien una persona de la imagen de una persona. Es lo mismo que pasa con los desbloqueos faciales.
#50 El articulo que indicas no dice que no sepan distinguir, leelo bien. Dice que los sistemas autónomos llevan un conjunto de sensores que combinados, solventan los errores que tiene cada sensor. En imagen (yo he trabajado mínimamente con computer vision o OpenCV) tiene el error que no sabe distinguir de una imagen de una persona, pero combinado con LIDAR (sistemas de posicionamiento y entornos por láser) detecta que delante no hay objetos individuales, sino un vehiculo, por tanto detecta el…   » ver todo el comentario
#47 Bueno, yo me imagino que la máxima prioridad de la IA del coche es proteger a los ocupantes del vehículo en el que está a cargo, y en caso de accidente será menos gravoso para dichos ocupantes el chocar contra un ciclista o un motorista, que no contra un camión de varias toneladas (además del hecho que un motorista o ciclista es más probable que se mueva esos centímetros que le separan del golpe a estar ileso a que lo haga un camión).

Pero sí, gracia para el motorista o el ciclista ninguna.
#3 No, un conductor que está distraído, no es capaz de comprender las circunstancias de conducción en un segundo.

Ese Autopilot es bastante cabroncete, te mete en una situación comprometida, y cuando no sabe salir de ella de devuelve el control y allá de las apañes. Tesla está tomando muchos riesgos, ofreciendo una tecnología que no está depurada. Aunque realmente, el riesgo lo asume el conductor. Tesla se lava las manos diciendo que es sólo semi-autónomo. Claro, ves que el coche conduce…   » ver todo el comentario
#15 Es como los pilotos automáticos de los aviones. Se vuela haciendo uso de ellos, pero no puedes dejar la cabina vacía.
#23 Eso es pero peor, un avión es mucho más sencillo, lo normal es que no haya nada alrededor del avión en kilómetros, no se te va a cruzar un peatón, ni va a aparecer otro avión de la nada. Si tienes que retomar el control, tienes más tiempo para reaccionar.
#15 El autopilot solo es un nivel más adicional de otros automatismos que ya existían, como por ejemplo el control de velocidad de crucero o la velocidad adaptativa.

Esos mecanismos añaden comodidad al automatizar algunas de las tareas de la conducción, pero el conductor siempre tiene que estar al tanto de la situación a su alrededor para tomar la última decisión en algo que podría acabar en un accidente.

Desde un punto de vista técnico y legal, da lo mismo que se gire el volante solo o se…   » ver todo el comentario
#15 A mi me parece miedo a la innovación.
El coche de tesla conduce pero el conductor debe estar pendiente en todo momento, y no hay más. Así te da tiempo de sobra de reaccionar.
#15 se emitieron varias alertas visuales y sonoras al conductor, y seis segundos antes del impacto, no se detectaron la manos del conductor en el volante.

El conductor tenía activada la función de Autopilot y además, modificó de forma manual el 'control de crucero adaptado' (Traffic-Aware Cruise Control o Adaptive Cruise Control) al mínimo, cuando por defecto está activado en nivel medio. Esto provoca que las alertas se emitan cuando el vehículo está a una distancia

…   » ver todo el comentario
#3 Habría que ver cuantas veces el autopilot avisa en un viaje. Es posible que lo haga en numerosas ocasiones, con lo que, al final, el conductor deja de prestar atención a los avisos. Lo digo porque avisar con 6 segundos de antelación me parece una medida muy muy preventiva.
#25 A ver, estamos especulando, sobre si avisa mucho o poco, es como echarle la culpa al asistente de aviso de salida de carril... señores, es una ayuda en la conducción NUNCA hay que ignorar los avisos, si los da es por algo.
#39 No digo que los de sin motivo, digo que la efectividad de un aviso se pierde si este es recurrente.
#48 mi experiencia personal con un Opel (ni de lejos un Tesla) que cuando detecta que el coche de delante frena te avísa de colisión, me salta vamos a decir que una media de una vez cada dos veces que conduzco, y nunca ha estado de menos. La primera vez fue inclúso simpático pq saltó al tiempo que mi mujer echaba la mano al salpicadero, cosa que sucede mucho antes de que sea realmente necesario forzar la frenada.
#25 Si quitas las manos del volante por mas de unos segundos, salta la alarma. Da igual que este en auto-pilot, que estes en una autopista en linea recta, o lo que sea. Tiene que detectar que tienes las manos en el volante.

Si esta persona no puso las manos en el volante ni cuando el coche le estaba avisando de que necesitaba tener las manos en el volante, no es una sorpresa que pasara lo que paso.
Van a tener empezar a mira más a quien se le venden estos coches. Porque si ni se miran las instrucciones o los riegos y piensan que con apretar un boton ya pueden convertirse en un pasajero mas, vamos a leer muchas noticias mas de este tipo
#5 yo empezaría por mirar más a quien se le venden coches de combustión, tienen un porcentaje más alto de accidentes.
#10 No estaria mal tampoco. Pero es dificil convencer a algunas personas de que son demasiado iotas para ponerse al volante se de cualquier vehiculo que supere los 10kmh
#16 pero a los que quieren un Tesla sí? A esos sí les convences?
#10 Que el coche sea eléctrico o de combustión no tiene nada que ver con que sea automático no y el tipo de motor dudo mucho que afecte a la siniestralidad
#35 en contra de la intuición, un eléctrico te hace conducir más tranquilo. No sé si es porque no tiene marchas o porque no ruge, pero en la práctica te hace conducir más relajado.
#5 Más bien deberían ver que están vendiendo los fabricantes y si las características son razonables. Un sistema que te hace perder el interés en el carretera, como es el caso, y que además, espera que reacciones a tiempo "siempre" es un error. Aquí Tesla se está columpiando.
#5 Si se llenarán portadas cada vez que un Ford o un Renault tienen un accidente...
Soy un seguidor, no solo de tesla sino de los vehículos eléctricos en general, pero me disgusta la manera que tenemos de depender de esas tecnologías, tanto o más, como para resultar negligentes.
#6 la tecnología está para eso, para facilitarnos la vida. Es como decir, me fastidia cómo dependemos de la tecnología en una UCI....
#11 "para resultar negligentes" me refería a que tienes ese elemento para ayudarte, no para depender de él. Ése conductor (según el artículo) optó por hacer caso omiso de los avisos así como poner las manos en el volante(vease el motivo) lo cuál considero una negligencia por su parte, nada que ver con la UCI...
Se emitieron varias alertas, pero durante el viaje, no en el momento del accidente.

www.tesla.com/blog/update-last-week’s-accident

The driver had received several visual and one audible hands-on warning earlier in the drive and the driver’s hands were not detected on the wheel for six seconds prior to the collision.

El conductor había recibido anteriormente en el viaje varios avisos sobre el modo de conducción, pero no recibió aviso o alerta sobre el accidente que estaba a punto de ocurrir.
#8 No puedes interpretar parte de un párrafo si no tienes en cuenta la otra parte: "In the moments before the collision ...".

Claro que se le avisó antes en el viaje, justo cuando se detectó la posibilidad de un accidente, por eso dispuso de 5 segundos para retomar el control manual del vehículo: "The driver had about five seconds and 150 meters of unobstructed view of the concrete divider with the crushed crash attenuator, but the vehicle logs show that no action was taken."
#22 Si interpreto bien el texto no hubo aviso por el accidente, si no porque no tenía las manos en el volante (y si entiendo bien, es un aviso normal cuando está en autopilot)
#8 La consecuencia es la misma.

No le aviso de que habia riesgo de accidente. Pero le aviso de que tenia que poner las manos en el volante, y no las puso, por lo que tuvo un accidente.
Estaría el conductor dormido o desmayado?Por que parece raro no hacerle caso a la señal en tanto tiempo
Cualquier programador sabe que lo que está ocurriendo ahora es que están saliendo todos los supuestos tan extraños que no se contemplaban durante la preparación del coche, que si el coche se cruza con un camión blanco, que si la valla estaba rota, etc.. Para cuando yo tenga dinero para comprarme un coche autónomo (como en 2030) ya estarán todos estos fallos corregidos.
#13 Sí, como los de Intel.
#13 Y cualquier programador sabe que una vez arreglados todos los fallos... aparecerán nuevos fallos :troll:
#13 Como es posible que no se contemple que si el coche te esta pidiendo poner las manos durante 6 segundos, y no las pones, tengas un accidente? el fallo no lo tenia el coche, lo tenia el conductor.
#13 Cualquier programador sabe que esto es una red neuronal y que no se van programando las decisiones a mano.
#59 en tal caso, que dios nos pille confesados. Porque las RN bien entrenadas funcionan bien la inmensa mayoría de las veces, pero cuando fallan, la cagan hasta el fondo.
#62 Pues como las personas.
#59 Le ha faltado un poco de blockchain y tensorflow a tu comentario, pero sigue practicando
#13 Toda la razón, se está dando la máxima que todo programador conoce cuando desarrolla software para usuarios. Al final, después de pensar todos los casos de problemas posibles (coches blancos, lineas mal marcadas, etc) descubres que el usuario se pone en el asiento de atrás a ver una película y le pone una naranja en el volante para que no le salga el aviso de no poner las manos.
Detrás de esto, aparte de lo llamativo del comportamiento de la IA del vehiculo, es que es de las marcas con menos siniestralidad de los USA.

Hay coches en el mercado con 400CV y 300kmh , otros hechos de hojalata, y muy potencialmente pilotados por gilipollas, pero a nadie le parecen peligrosos.

www.statisticbrain.com/driver-fatality-stats-by-auto-make/
#14 Es que muertes de gilipollas las ha habido siempre, muertes por coches autónomos son la novedad.
#27 muy cierto xD
La solución está en conducir el coche. El piloto automático está bien para vehículos sin ocupantes en zonas ya probadas o más o menos conocidas y sin grandes riesgos.
#20 ¿La solución a qué? ¿A los accidentes?
#20 El problema es que estos sistemas van aprendiendo con los casos reales que se van encontrando. En realidad Tesla está usando a sus usuarios para crear sistemas más seguros y mejores, y de mientras pues algunos morirán.
Si el software se da cuenta de que no tiene buenas condiciones de controlar el coche, debería desconectarse, dar unos momentos y moverse al arcén y detenerse el solito. Y si quieres seguir, en manual
#21 Así lo hace, pero en algunos casos el coche va por un sitio que controla y de golpe se encuentra con algo que confunde al sistema.
Para eso sólo hay una solución: que el conductor vaya atento.
Sea como sea, aun en los comienzos de esta tecnología yo prefiero mil veces una IA que un humano. Los humanos somos demasiado imbéciles
A alguien se le ha ocurrido pensar que el conductor se habría dormido?
O incluso que hubiera fallecido de un infarto o cualquier cosa antes del accidente #28
#28 Lo primero que pensé.
#28 A mi me parece raro que estos coches con 10.000 camaras no tengas un video del accidente y solo miren el log.
Creo sinceramente que el problema del "autopilot" és que és demasiado bueno para ser un SAE2 y la gente acaba pasándose las indicaciones del fabricante por el arco del triunfo. La gente iba con mucha precaución después del accidente del camión y de la salida de MobilEye del proyecto de conducción autónoma de Tesla, pero con la última actualización que ha superado con creces a su predecesor ya se están viendo vídeos que realmente "delegan" en el sistema de una forma muy temeraria. Por desgracia este accidente quizá haga reflexionar sobre como utilizar esta tecnología de forma segura. Básicamente, haciendo caso al fabricante.
Video de Saul López explicando que hace el Tesla si se ignoran los avisos del autopilot:
www.youtube.com/watch?v=twp_8VP0wJ4
La conducción autónoma sólo será posible luego de que Skynet extinga a los humanos y sus tonterías, todos los autos sean autónomos y los habitantes de la tierra sean robots. Mientras tanto, hay que estan atentos al volante.
Este es un problema que ya apareció con los sistemas de pilotos automáticos de los aviones. Se llegó a la conclusión que es mejor tenerlos desactivados durante el despegue y el aterrizaje. Los pilotos no estarían atentos a cualquier imprevisto, por mucho que lo diga el manual. Es parte de la naturalea humana.
Fácil, si no conduces te duermes...
Suma y sigue a ver si de una vez por todas empiezan a prohibir estas empresas.
Cualquiera se sube ahí , Ami trato humano que al final terminareis por follaros a un robot(eso si de manera muy progre)

menéame