edición general
227 meneos
617 clics
China prohíbe la afirmación de “vehículo autónomo” después de una colisión en la que murieron tres personas

China prohíbe la afirmación de “vehículo autónomo” después de una colisión en la que murieron tres personas

China prohíbe que las automotrices de su país anuncien que sus vehículos traen “conducción inteligente” o “conducción autónoma”, términos grandiosos que ahora ya no pueden usarse debido a la colisión fatal de un Xiaomi SU7. El vehículo estaba en modo de conducción asistida al acercarse a una zona en construcción, pero el conductor solo pudo tomar el control justo antes de que chocara contra una barrera de hormigón. También se indica que no se puede usar a los dueños de los coches como conejillos de Indias para probar las nuevas actualizaciones.

| etiquetas: china , conducción asistida , vehiculos autónomo , prohibición , denominación
Salió hace tiempo un hilo sobre una frase de los años 70 sobre la IA:

"si la IA no puede ser castigada por sus malas decisiones, tampoco puede ser responsable de ejecutarlas".

Lo que viene a significar que el problema de la conducción autónoma no es la tecnología, sino decidir quien es el responsable cuando algo vaya mal.
#1 #6 Yo es q lo veo facil:

Si se vende como conduccion autonoma la culpa, si hay un accidente, es de la conducciin autonoma. No hay mas:

El usuario la usaba correctamente, dejandola actuar, y la conduccion autonoma fallo. Pq va a ser culpa del usuario? No es autonoma? Si es autonoma pq debiera estar sie.lre supervisada?

No veo manera de ver otro culpable en ese caso.

Si dejas de llamarla 'autonoma' o 'autopilot' para mi ya es otra cosa.
#15 El nombre es lo de menos.
Si es un software que toma decisiones y ha sido diseñado por una empresa, las buenas o malas decisiones que tome son consecuencia del diseño de dicha empresa y por tanto deberían ser responsabilidad final de dicha empresa.

Es como si enseñas a tu perro a que morder a extraños está bien y luego si muerde a un extraño te escudas en que fué su decisión. Pues no, no funciona así, tu eres responsable del perro y de como actúe, y si le has educado mal es tu culpa.
Lo mismo con un menor, lo mismo con un empleado sin experiencia a tu cargo, se llama ser responsable de algo cuando ese algo no puede responsabilizarse de sus propias acciones.
#33 Si tu enseñas a tu perro a morder a extraños y lo vendes como "perro que muerde a extraños" no hay problema. El problema es venderlo como "perro vigilante". Esto es lo mismo. El sistema no es el problema, en vender un sistema de control de crucero con ínfulas como "sistemas de conducción automática" es el problema.
#1 #15
Y si se hiciera como siempre se ha hecho?

Si un edificio cae cuando no debía, la culpa es del arquitecto

Y así todo

En este caso, la culpa debería ser del fabricante, con afectación personal penal al responsable en el momento de salir al mercado
Es decir, el director general de la fábrica de coches tiene que responder penalmente si falla.
En ese caso, el director no dejaría salir al mercado nada de lo que no estuviese seguro que funcionase del todo bien, exactamente como pasa con un edificio, un rascacielos, una puente, una estadio o lo que sea

E que no dejamos que un rascacielos mate 1 o 2 personas cada 5 años?
Pues lo mismo con los coches, no hay diferencia
#37 #1 Pues si la IA consigue que haya menos muertes en la conducción que muertes por conducción manual deberíamos cederle el paso sin responsabilizar a los que la desarrollan, ya que de hacerlo de esa manera no conseguiríamos un avance para l sociedad.
En el supuesto de que la premisa sea cierta, que ahora mismo dudo que lo sea.
#40 qué interesante dilema moral!

Si, creo que se asemeja al tema de los medicamentos.
El global es que se salvan vidas, pero se aceptan un porcentaje de muertes.

Supongo que se debería legislar y buscar métodos de medición, para que si una IA consigue un curro porcentaje de mejora sobre la conducción humana, sea aceptable que salga al mercado, incluso aunque en un porcentaje de veces pueda fallar
#41 Yo aquí no veo dilema moral, todo lo que sea disminuir cuantitativamente el número de accidentes no entra a debate posible.
La cosa se pone compleja si entramos en temas cualitativos, si dotamos al sistema de toma de decisiones tipo "dilema del tranvía". Que tiene que tomar decisiones en función de los afectados que pueda haber. Ejemplo: El coche va conduciendo por una vía y sufre un reventón que desestabiliza el vehículo, el coche intenta maniobrar y se encuentra con una moto, si gira al carril contrario seguramente el motorista muera, si gira a la derecha, seguramente el coche se despeña y mueran sus ocupantes.
#40 cuando alguien mata a alguien con el coche hay responsabilidades.

De eso hablamos.

Q haya mas o menos da un poco igual, si en un accidente provocado por una IA o una persona muere algun familiar tuyo querras responsabilidades igual.
#50 Si yo mato a alguien con un coche, por error humano, por ejemplo una distracción mi responsabilidad es cero, se encarga el seguro.
Si es por negligencia, exceso de velocidad, drogas, alcohol entonces sí que me la cargo. Una IA debería estar sujeta a las mismas condiciones.
Y no, no da igual el número de accidentes.
#51 No, vamos, la culpa SIEMPRE es tuya, por eso te OBLIGAN a contratar un seguro, por si te toca pagar y no puedes...

Pero si paga tu seguro es porque la culpa es tuya, sino es asi tu seguro no paga. Aqui igual...
#54 Por supuesto, los matices son importantes, siempre va a ser culpa tuya. Pero bueno, a efectos prácticos ninguna responsabilidad, para eso están los seguros. Por tanto, ¿Por qué deberían responsabilizarse los fabricantes? (Estoy hablando de un supuesto de conducción autónoma de verdad, no de lo que intentan vedernos ahora).
Pongamos que a tu coche un día le fallan los frenos, y matas a alguien, se investigaría si la falla ha sido algo de defecto de fábrica o de desgaste, etc. Si es de…   » ver todo el comentario
#55 Yo digo q si la conduccion autonoma falla, la conduccion autonoma paga.

Como en la colision de la q habla la noticia.
#58 Yo digo que si te falla un componente no paga el componente porque sí. Si te fallan los frenos no paga el fabricante de los frenos.

Y lo de la noticia no es conducción autónoma, por eso lo de dejar de llamarlo así, con todo el buen criterio del mundo.
#40 La IA es 10 veces más segura que que un humano segun estadísticas de Baidu.
#56 Habría que ver de donde se ha sacado esos datos, y que datos son.

es.m.wikipedia.org/wiki/Anexo:Países_por_tasa_de_muertes_por_siniestr

Por ejemplo, y faltaría buscar datos de accidentes por drogas, alcohol y/o exceso de velocidad. Que habría que sacar de los datos.
#59 Por mucho margen de error ya llevan mas de 7 millones de viajes, cada viaje mas seguro por la propia IA y ya estan desde este año sin asistencia aunque parezca ciencia ficción. El mayor problema que tienen los robotaxis ahora mismo son los propios taxistas por el problema de empleo.
#61 Hombre, vamos a ver. No, no da igual. Lo mismo un conductor responsable, que circula siempre dentro de los limites de velocidad, sin drogarse tiene una tasa de accidentes inferior. Es importante, porque gran parte de los accidentes es por causas que no son accidentes.
#62 Es un trabajo totalmente automatizado. Una máquina tiene acceso a sensores que no tiene un humano y puede procesar todos esos datos. Pero pasarán bastantes años para que llegue a España, no hay ni legislacion.
#63 Es un trabajo totalmente automatizado, bueno, no lo dudo. Yo dudo sobre como se han recogido los datos de siniestralidad para asegurar que la conducción autónoma (la auténtica) es 10 veces más segura.
#15 la culpa siempre del informático, eso lleva siendo así varias décadas.
#42 o del conductor del tren
#42 no lo decia en ese sentido, lo decia pq si la empresa dice q la conduccion es autonoma es q no necesita intervencion humana y si hay un accidente solo puede ser pq la IA ha fallado. Culpa de la IA.

Si no lo llaman asi es otra cosa.
#15 Ahi tienes como ejemplo del mundo real tm a tesla que desconecta el autopilot antes del impacto para que la culpa no sea de tesla. Como decia; hasta que no abordemos, sin hacernos trampas al solitario, las incoherencias incompatibles entre el capitalismo y el ser humano no hay futuro en la conduccion autonoma.
#1 China dando lecciones de sentido común. Una vez más.
El problema con todo sistema asistido por debajo del nivel 4 – en el que el ve hículo puede operar enteramente sin intervención humana – es que el conductor de todos modos tiene que prestar atención al camino e intervenir según haga falta. Pero entra en juego entonces la complacencia, y para cuando el conductor nota que puede producirse un accidente, ya podría ser demasiado tarde.

No hace mucho estuve viendo un testimonio de un piloto argentino en Malvinas. Comentaba que como…   » ver todo el comentario
#3 Con nivel 3 el conductor tiene tiempo para intervenir si algo falla. Es decir, se puede no estar atento a la carretera porque el chisme nos va a avisar con suficiente antelación.

Ahora, eso es con nivel 3. Y ni el sistema de Tesla ni el de BYD es nivel 3

#5 el problema es el marketing, que venden lo que no es. El personal técnico tiene meridianamente claro cuando es seguro y cuando no. Por eso hay coches con nivel 3 restringido: pueden funcionar como autónomos, pero sólo en ciertas condiciones. Si sales de ellas, tienes que tomar el control.
#9 Si el chisme nos avisa con antelacion, ¿porque no actua el? ¿no sabe como actuar? ¿no puede actuar antes para evitar la situacion?
#35 Avisa si hay un problema que no sepa solucionar, para que tomes el control. Y efectivamente, no actúa él porque no sabe cómo actuar.

Lo ideal es un frenado seguro, pero no siempre es sencillo hacer un frenado seguro. Y si queremos que sea seguro de verdad tiene que ser seguro en cualquier condición concebible. Y normalmente si falla el sistema de conducción es que estamos en una situación poco común.
#3 Esta tecnología es, a todas luces, un foco de distracción para el conductor y no basta con un párrafo que diga "El conductor ha de estar atento en todo momento a lo que hace el piloto automático", y esperar que al usuario no le entre la modorra o se confíe. Es de 1º de prevención de riesgos.

Hay soluciones muy fáciles, como un control ocular al conductor que si detecta que no se presta atención se dan avisos y si hay reincidencia se desactiva el piloto automático o se inutiliza el coche. Se puede añadir un sistema de puntos al carnet de conducir y si los consumes te quedas sin esa funcionalidad, etc.

Pero nada, lo importante son las ventas, ya vendrá el sentido común dentro de una década, como con las pantallas táctiles...
#22 Es agotador... Si tienes que estar atento a todo sin perderlo de vista, no es una ayuda. Prefiero conducir yo.
#32 Es que es eso, no tiene sentido un coche que conduce solo pero tienes que tener la misma atención que si conduces tú.
A pesar de todos sus problemas, hay algo bueno en una dictadura de partido único como China: las políticas se modifican de inmediato. En Estados Unidos, una movida similar para prohibir el lenguaje de marketing podría quedar durante años atrapada entre juicios y obstáculos regulatorios.

¿Lleva el periodista metido en una cueva cuatro meses? Estados Unidos hace de inmediato lo que dice el señor de la Casa Blanca por muy estúpido o ilegal que sea.

Por eso se parece tanto a una dictadura.
Yo el coche 100% autónomo y seguro solo lo veo el día que todos los coches sea autónomos, se comunican entre ellos y las vias tienen balizas digitales que también se comunican con los coches. Que un software acierte al 100% con toda la casuística que se puede dar con calles llenas de humanos lo veo complicado. Pass continuamente, el diseñador imagina como el usuario manipula su producto, y cuando sale al mercado se descubren un montón de situaciones en las que ningún ingeniero había pensado.
igualitos que tesla desde hace años,
y la confianza, y seguridad,
que da eeuu en sus productos
www.infobae.com/wapo/2023/06/11/el-impactante-numero-de-victimas-del-p
xD xD
#2 Noticia de Xaiomi pero alguien tiene que sacar el monotema de Tesla. Podéis ser algo más originales, en serio
#14 Pues la verdad es que es algo que tiene que salir, sobretodo por las formas. Aquí los que mandan dicen que no se puede usar al usuario como conejillo de indias, en otros casos se ha culpabilizado al usuario por el supuesto mal uso.
#14 es para recordar como tratan a los retrasados que lo defienden simplemente
#14 te has leído la noticia? Hablan de Tesla también...
#14 no es tesla, es la diferencia se tratar ese tipo de problemas, en China (sin ser yo muy fan de los totalitarismos) hay un problema... lo cortan de raiz. En EEUU tienes casos como el del Ford Pinto... que no es la práctica habitual pero claro... con una vez que lo hagas..

www.coches.com/noticias/noticias-motor/ford-pinto-seguridad/282541
#10 Se supone que en un nivel 3 pita con antelación suficiente para que puedas tomar los controles. Frenar con seguridad es más complicado; eso es nivel 4.

#14 Es el mismo caso. Están vendiendo un nivel 2 avanzado como "piloto automático". Y no funciona cómo tal.
#36

Se supone que en un nivel 3 pita con antelación suficiente para que puedas tomar los controles.

Si le da tiempo ... te sale algo por un lateral y a ver qué tiempo te da.
#47 O un peatón que va por la acera se cae de repente... en ese caso es inevitable que te estampes. Pero no se está hablando de eso. Se habla que no sea capaz de resolver una situación y tenga que ceder el control a un humano por ello. Esas soluciones las resuelve igual (de mal) que un humano.
#48

Precisamente ese es el problema que le veo.
Que lo llamen "conducción por cuenta propia" o "conducción emprendedora".
Tal vez me equivoque pero tengo la sensación de que los ingenieros y personal técnico de estas empresas tiene claro que no está todavía listo para poderse usar con seguridad.
Me imagino a los cargos intermedios metiendo presión a los equipos de desarrallo, presionados a su vez por los directivos que a su vez están presionados por accionistas y por la competencia.
El resultado final es un producto que no está a la altura de lo que vende el departamento de marketing. Y lo peor es que todo parece…   » ver todo el comentario
#5 El debate real ni siquiera va por ahi, es un debate del que nadie quiere hablar y que nadie va a afrontar. Un callejon sin salida; El humano va a culpar siempre a la maquina y la empresa que te ha vendido la maquina va a culpar siempre al humano.

p.d. Y el segundo problema es que con nuestro sistema capitalista las empresas son maquinas programadas para hacer mas dinero da igual cuando leas esto, sin ningun filtro ni medida de control.
#6 El autopilot de Tesla se desconecta ante un impacto inminente para evitar responsabilidades. Aún así hay métodos de verificar quién tuvo la culpa (como pasaba con los Toyota Camri que aceleraban espontáneamente)

www.motorpasion.com/videos-de-coches/autopilot-tesla-deja-evidencia-a-
#5

Yo el problema lo veo sobre todo en la transición del control máquina/humano.

En un avión cuando el piloto automático pierde el control empieza a pitar como un loco y una persona entrenada sentada en los controles pilla el control, pero por lo general no hay obstáculos inminentes, hay un margen. En el coche,me puede surgir algo en una curva, el conductor que NO está entrenado por lo general para lidiar con emergencias tarda unos segundos en tomar el control .y hacerse con la situación.. Y…   » ver todo el comentario
#10 y aún así anda que no a habido accidentes donde empieza a sonar la alarma de proximidad al suelo y los pilotos confían más en la altitud que le habían metido al piloto automático que en el aviso y se comen el océano o alguna montaña
#5 Y las peleas entre comercial y delivery, con comercial precisamemte utilizando vocabulario que da por hecho cosas que no debería dar, y cacarea como comercializables tecnologías que producción y delivery aún ven a años a vista. Y luego, las prisas y los gritos. El pan de cada día.
#5 Ya existen coches sin supervision humana, aunque solo van por grandes ciudades.
Pero vamos a ver.
"También se indica que no se puede usar a los dueños de los coches como conejillos de Indias para probar las nuevas actualizaciones."

Como se pongan estrictos con esto paralizamos la sociedad.
Anda que no se lanzan "actualizaciones" para ver por donde respira el vulgo.
Que necesario es poner en vereda a los departamentos de marketing.
#7 Aunque no lo anuncien como autónomo, gran parte de los usuarios lo van a seguir usando como si lo fuese. Con Tesla ya ha pasado.

Si no es seguro, que no se comercialice, no hay mucho más.
#25 bueno, pero siempre hay prisas para ser el primero, es una cosa muy de capitalismo
Autónomo para matar
Barrera de concreto? Nos hemos convertido ya en latinoamericanos?
#18 en concreto, era una barrera :troll:
#18 Contando que es una traducción de un artículo publicado en EEUU, que seguramente habrá hecho algún latinoamericano, me parece normal la expresión.

No entiendo a los que parece que tengan un problema con la riqueza y las variantes del español...
#18 basta con que lo sea el traductor
el lector, que se convierta en lo que quiera, y omita los "¿" si le estorban
Ya, pero el tarado de la casa blanca solo toma decisiones rapidamente si es en favor de sus amigos o de su ego.

Ninguna de seguridad del cknsumidor le quitaria el sueño....

A no ser q cause perdidas a sus amigos, claro, entonces si le quitaria ek sueño....
Muera el marketing y los vende humos!
Se estrellaron 3 concretamente.
comentarios cerrados

menéame