Hace 4 años | Por Mr.Bug a xataka.com
Publicado hace 4 años por Mr.Bug a xataka.com

Un trozo de cinta de cinco centímetros pegado a una señal. Eso es todo lo que han necesitado unos investigadores de McAfee para conseguir engañar a la cámara de un Tesla Model X y Tesla Model S de 2016 y hacer que aceleren automáticamente. En pocas palabras, los investigadores han pegado un trozo de cinta a una señal de 35 mph, de forma que el "3" pareciera un "8", engañando así al sistema.

Comentarios

D

#1 la persona es más inteligente valorando si las instrucciones no tienen sentido, por el tipo de vía, por las normas de tráfico y por eso que no tienen las máquinas: sentido común

D

#1 sería más difícil porque una persona tiene luces para saber qué ahí no tiene lógica ir a 85mph. Por ejemplo porque no sea autovía.

Y digo difícil pero no imposible porque hay mucho cenutrio suelto.

D

#2 A ver han transformado un 3 en un 8, con cinta adhesiva con pintura o lo que quieran, es como si tachan una señal de Stop, pues se lo saltará, además son 136 kilometros no llega a 140, la noticia es completamente sensacionalista,

D

#37 Los bricks de El Conquistador con cola se llevaban todo el presupuesto lol

D

Yo dudaría si esa señal es legítima, la máquina actúa sin interpretar. ¿Es la duda lo que nos hace humanos?

oso_69

El navegador de Google tiene una función que te avisa si superas el límite de velocidad de la vía. Y ese límite está definido por los mapas, no por las señales de tráfico. Eso sí, no tiene en cuenta las señales de velocidad temporales como las de obras, por ejemplo.

Teranosaurus

Y si le llegan a poner un cero a la derecha viaja al pasado.

powernergia

En realidad es facil engañar a los sistemas, lo cual no es demasiado relevante.
Lo verdaderamente relevante es que a causa de los falsos positivos (cosas que suceden continuamente delante de cámaras y sensores, y que con realmente difíciles de interpretar, como viento, lluvia, peatones), la IA siempre actuará del modo mas conservador, con lo que los bloqueos, frenazos y paradas serán continuos.

Por eso esto está muy, muy lejos.

D

Lo de usar cinta de electricista para hacer números es algo que se emplea desde siempre, básicamente convierten el 3 en un 8, la noticia es Sensacionalista total, es como tachar una señal de Stop, no se que ganaran los de Xataka con estas noticias.

c

#33 ¿Sensacionalista? Un humano leería sin problemas el 35 en esa señal, así que ahí tienen un problema que corregir. Lo otro se llama redondeo, y teniendo en cuenta que hablamos de doblar el límite de velocidad es perfectamente aceptable.

ElPerroDeLosCinco

#2 Eso es verdad. El engaño puede ser disculpable, pero el coche debería tener reglas para cumplir ciertas normas siempre.

l

#21 menos extraño son carreteras que engañan y de repente aparece una curva que hay que coger a mucho menos o incluso una rotonda. En Pamplona hay una via que parece que se puede ir mas rapido y aparece la rotonda de repente. No debo ser el unico, porque esta llena de lucecitas de peligro para que no se la salten.

Hay un monton de ilusiones visuales que hackean el cerebro humano. Hay una gallega que hace un concurso de ilusiones visuales en USA.
Tambien son medio famosas las cuestas que desafian la gravedad. Pones una pelota y aparentemente la pelota sube la cuesta.

En el caso de los limites de velocidad se puede solucionar. Por ejemplo, se puede saber las señales por el GPS o incluso la velocidad correspondiente si no hay señales o la velocidad que conviene porque otros coches frenan de repente, etc.

Saul Lopez se queja de algo parecido. Cuando activa el control de crucero, no se selecciona la velocidad que Ya lleva, sino la de una señal que ve y se pone a acelerar.

#9 #14 #6 #18 #4 #3 #20 #10 #13

Big_che

#77 y dos dias despues tienes una noticia que dice:

"Engañan a un Tesla para que pase de 120 a 12 km/h automáticamente pegando un trozo de cinta a una señal"

reithor

Buah, esto con un Tesla de 2016. Ya han dicho que en los de 2020 no sucede, así que los Tesla son como los iPhone, hay que cambiarlos cada uno o dos años. Tener un Tesla de 2016 es de pobres.

D

#4 Las personas tampoco somos perfectas.

La cuestión es saber quién comete más errores, los coches guiados por IA o los guiados por personas.

Noticia de ahora: https://www.diariodemallorca.es/sucesos/2020/02/19/coche-fuera-control-atropella-peatones/1487615.html

sofazen

#8 "Me encontré con uno que venía de frente ... por el lado de ir." Qué barbaridad, mira que ir por el lado de ir.
😂

ElTioPaco

#69 #71 es velocidad máxima caballeros, solo con tener ambos datos (Maps y sensores leyendo señales) y usar el más bajo de ellos nos aseguramos de que el coche no se vuelve una nave espacial.

La redundancia genera seguridad.

yopasabaporaqui

#19 Claro, claro : o es IA o puticlús...

Falso dilema diría yo.

devnull

#41 Estoy seguro de que en el artículo original usaban la palabra "redundancy" y han usado el google traductor roll roll

yopasabaporaqui

#2 Y por GPS debería saber la velocidad en ese punto de la vía.

pedrobz

Me ha parecido curioso esta parte del ultimo párrafo: MobilEye afirma que "... para garantizar la fiabilidad de la información recibida de los sensores de la cámara y ofrecer despidos y seguridad".
Ofrecer despidos.... esta claro que se lo quieren vender a los empresarios para automatizar aun mas la empresa

a

#15 El problema es llamarle inteligencia artificial a esto. Es las expectativas que crea.

tusitala

#1 Hay engaños y efectos ópticos con los que puedes engañar a una persona y no a una inteligencia artificial.
Me acuerdo de esa carretera en la que los árboles estaban colocados de tal forma que, al pasar entre ellos la luz, producían ataques a los epilépticos. Eso nunca le pasaría a una inteligencia artificial.
Además detectando estos fallos se pueden arreglar a la vez en todos los coches, cosa que no se puede hacer con todos los humanos.

uyquefrio

#15 No te falta razón, hay mucho más de humo que de realidad.

D

#25 yo recuerdo 90 en Florida pero igual ha cambiado

D

#101 porque la velocidad mata, ¿no dicen eso? ¿O es que ahora no vale esa premisa? ¿Es que partimos de la base de que todas las personas conducen todas igual? ¿Por qué suponemos que la IA es mejor que los humanos y merecen unos límites más laxos pero no suponemos que hay personas más capaces que otras y se merecen limites más laxos? ¿Por qué presupones que una IA que confunde un 3 con un 8 es mejor que un humano? ¿No ha sido acaso un humano el que ha engañado a la súper inteligente IA?

D

#25 De hecho 85 es solo en alguna autovía, ni siquiera en todas las de Texas.

A

Para que los coches autónomos tenga realmente fiabilidad, es posible que aún tengan que pasar 40 o 50 años. Se trata de manejar cientos de millones de variables en unas carreteras que no están adaptadas a la conducción autónoma.

Otra cosa es que las carreteras se adapten a este tipo de conducción y esto facilite el trabajo. Por ejemplo, si toda señal está geolocalizada, sea fija o temporal y subida en una base de datos mapeada a la que tenga acceso el vehículo en todo momento, se podría prescindir de leer las señales. Es decir, los humanos facilitaríamos el trabajo a la máquina adaptándonos a sus necesidades y no al revés. Siempre será más efectivo adaptarnos nosotros, y más seguro.

P

#19 Putas para todos, y de nivel como los sindicatos el PSOE,y el PP.

c

#88 Si tu lo dices....roll

D

#1 Difícil

tdgwho

#3 https://www.elmundo.es/madrid/2019/12/10/5deff46521efa01b7b8b4580.html

por supuesto que las personas tienen luces si.

cc #4

bubiba

#1 bueno si va muy pasado quizás... Pero dudo que alguien sobrio se trague una señal de 140 km por hora en una carretera donde se puede ir a 60....

T

#2 Es imposible entrenar a una IA, por mucho que se quiera, para que sea eficaz en el 100% de los casos. Esto es un desastre, en efecto.

T

#62 Te equivocas de disyuntiva. Aunque no fue por dónde fui en la carrera, algo de redes neuronales e IA sí que di, poca cosa pero algo sí, lo justo para que me picase el gusanillo aunque después no fuese a más. Te puedo asegurar que el reconocimiento de imágenes no es una tarea fácil. Y no es lo mismo hacer un reconocimiento de imágenes de un TAC para detectar un tumor, que siendo algo muy serio, no importa si tarda unos minutos más o menos, a reconocer bien una señal de tráfico, que tiene que estar resuelto, y bien, el 100% de las veces, en milésimas de segundo.

Decía que te equivocas de disyuntiva porque no se trata de ver cómo muere más gente, si por su cuenta o con IAs, se trata de que las IAs deberían ser, como mínimo, igual de buenas conduciendo que los humanos. No me sirve que sean mejores en una parte de la conducción si luego son desastrosas en cosas tan humanamente triviales como es reconocer una señal de tráfico.

T

#74 Tú sí ¿qué?

Siento55

#1 Primero que sigue poniendo 35 y un humano no leería ahí 85, y segundo que el humano sabe interpretar el entorno y darse cuenta de que esa vía no es para ir a 140km/h.

Arty_Rider

#45 #42 No... me reafirmo. Los que trabajamos en el sector estamos maravillados con lo que a avanzado la ciencia en computación de IA, y lo que está por venir va a revolucionar al mundo de formas que aún está por imaginar.

https://es.wikipedia.org/wiki/DeepMind

Ale, ya podéis seguir disfrutando de vuestro cubata

Efecto Dunning-Kruger en su máximo explendor

m

#7: Si pusieran un par de trozos más podrían trucar el 5 dejando un 8 para hacer los 88 MPH de #BTTF.

ramon_lopez

#67 claramente el tuyo al ser modelo español es mucho más pillo y difícil de engañar #83

ytuqdizes

#23 Los catetos de turno también son útiles para tener los pies en el suelo y contrarestar los que quieren adoptar cualquier cambio sin pensar los peligros / desventajas.

Aokromes

#33 goto #91 y oh, por 4km de diferencia menos de un 3% no llega a 140, que sensacionalista.

D

#33 Es mucho más sensacionalista decir que han convertido un tres en un ocho tras ver la foto.

f

#129 No leches, aunque algo sí que ha avanzado la cosa desde el 2016 del que son esos coches. Pero es que el reconocimiento de señales no es 100% infalible ni nunca lo será. Olvídate del trozo de cinta, te viene alguien con una pegatina con el 8 o el incluso el 85 completo, y ahí hasta un humano fallará. Lo que pasa es que la mayoría de humanos, basados en el contexto, se cuestionarán ese dato y posiblemente lo descarte como absurdo. De hecho en el artículo dicen que versiones más nuevas de MobilEye ya no comenten ese fallo. El comentario iba por la, al menos aparente, subestimación que hacías de la IA por lo que estudiaste (me voy a lanzar al río y decir que, como yo, hará 20-25 años). Es precisamente en el procesamiento del contexto, que una IA puede hacer en función ya no de decenas, sino miles (quizás decenas... cientos de miles, millones) de parámetros, donde nos están empezado a dar mil vueltas gracias a los avances en la última década: rectified linear units (ReLUs, mejora de eficiencia a similar capacidad de cálculo), aumento masivo de la potencia de cálculo vs coste (GPUs y más recientemente TPUs), nuevas arquitecturas neuronales (por ejemplo, redes generativas adversarias, GANs, que precisamente intentan minimizar o solucionar el tipo de problema en el que haces hincapié), cantidad masiva de datos nuevos e históricos (sin datos suficientes poca IA vas a tener) y más cosas que seguramente me dejo en el tintero. Y espero no equivocarme, pero en los 5 próximos años vamos a ver avances increíbles, al menos en comparación con los 5 últimos, que ya es decir bastante.

D

#130 permíteme agregar lo que para mí ha sido la gran revolución de los últimos diez años, Deep Learning. Antes para hacer una red neuronal tenías que definir tu solito las funciones (features) de tu modelo. Por ejemplo, si querías clasificar vehículos en dos categorías de motos o automóviles una función típica era reconocer cuantas ruedas tenía el vehículo a clasificar. Esto que parece obvio en este ejemplo trivial exigía un enorme esfuerzo en una profesión que se denominaba feature engineering. Las redes de hoy que usan Deep Learning no necesitan que les definamos features, los aprenden y escogen ellas solitas y los resultados en muchos casos son poco menos que espectaculares.

D

#79 Se llama manipular la información para conseguir un fin en concreto, más visitas, sponsors lo que sea.

T

#128 Hace ya unos cuantos. Seguro que tú me dirás que en los últimos años ha habido algún milagro que, por lo que sea, no se ha aplicado al reconocimiento de señales...

chorche77

#13 si, tienes razón, es 85. No se por qué tenía en la cabeza que eran 90.

Arty_Rider

#28 Parece ser que el concepto de "reducción al absurdo" no lo aprendiste bien. No pasa nada, a todos nos ha pasado alguna vez, no hay de qué avergonzarse.

Arty_Rider

#30 Pero qué atrevida es la ignorancia...

chemari

#28 Yo no veo ningún dilema ahí. Puticluses del tirón.

balancin

#2 nada que no se pueda resolver con un algoritmo.

Si al ver una señal 180 dudas, es porque tienes almacenada información pre existente contradictoria.
Entoces te paras y buscas otras referencias (lo que hacen otros coches, te paras en una gasolinera y preguntas, etc).

D

A ver. To tengo un Model 3 y cuando vas en Autopilot adapta la velocidad según las señales y el gps. Nunca me ha pasado lo de esta prueba, pero si no pasar de 70 kmh en una autovía recién inaugurada todavia no cartografiada. Y ahí hay señalea claras de 120, pero el coche en ese tramo no se pone a 120.

fugaz

#51 O bien aceptar que el coche aún no puede conducir sin vigilancia humana constante.

S

... la semana próxima: Engañan a un Tesla para que se despeñe por un barranco pegando unos trozos de cinta blanca en la carretera

f

un tesla, un condensador de fluzo y unas pegatinas..... y a viajar al futu... a la cuneta .

swapdisk

alguien en la sala que nos pueda decir cuál es la pena en este país por manipular con fines delictivos una señal de tráfico, por favor

JBM00

No sé las demás marcas, pero por ejemplo Mercedes Benz comprueba vía cartografía si la señal que está visualizando corresponde con la de su base de datos

poyeur

¿Qué te había dicho, Marty? ¡140 kilometros por horaaaaaa!

ElTioPaco

#2 #5 Google sabe la velocidad máxima y de hecho la velocidad del tráfico en tiempo real de todas las vías del mundo civilizado. Lo tiene en el Google Maps.

Me cuesta creer que Tesla no llegue a un acuerdo con Google en ese campo.

Pero si, es terrorífico que se pueda engañar con esa facilidad a los sensores.

masde120

#24 yo creo que mil o dos mil años al menos...

Polmac

#6 Las personas interpretamos información en base a las reglas que conocemos, no tenemos nada de especial. Al software le puede faltar tener en cuenta algunas de las variables que las personas manejamos. Pero cuando lo haga nos dejará en la cuneta por velocidad y capacidad de procesamiento.

Darkness00

#48 cuidado! Google tardo tiempo en actualizar las velocidades cuando España paso a 110 de un día para otro, y otro tiempo igual al devolverlo, eso no es inmediato. Personalmente no creo que debamos culpar al coche, salvo un conocimiento de la velocidad máxima del país, acompasado por el conocimiento general de velocidad con el tipo de vía estaría bien, pero no me parece sorpréndete lo que ocurrió. No creo que debamos exigir al menos por el momento una capacidad y pericia comparable al humano, ni la de saber cada ida de pinza de lo que nuestros ayuntamientos ponen en sus calles.

Big_che

#48 y cada cuanto lo actualizan? que prevalece lo que dice una BBDD que vete tu a saber desde cuando esta actualizado o una señal nueva, por ejemplo por obras en la calzada?

Big_che

#2 pongamos que en una carretera limitada a 100 pasas por un tramo que esta limitado a 50 y un gracioso te cambia la señal y lo pone a 100? o modifica el 50 y pone 80 ¿sabrias identificar el engaño? Pues no.

ElTioPaco

#80 mucho más seguro que lo otro. Además los mismos sensores aceleraría si alguien se le va a estampar por detrás.

ElTioPaco

#89 Elon es un drogadicto gracioso, pero como todos los drogadictos, nada fiable.

NotVizzini

#2 bueno cuando estuve en Irlanda algún problema tuve con las señales al cambiar de "sur a norte"

ElTioPaco

#112 dirás, "pa una vez que se fuma SOLO un porro"

Además en este caso hablaba de las pastillas que se mete, no de los porros.

heffeque

#2 ¡Un desastre apocalíptico! ¡Imperdonable! Ah, no, que la persona que está detrás del volante es plenamente responsable de la conducción del vehículo, y el AutoPilot (por ahora) es una ayuda a la conducción, no un sustituto.

Homertron3

#9 déjame que lo dude

baronrampante

La pasta y el marketing mandan. Los ciudadanos deberíamos ser más críticos con la adopción temprana de nuevas tecnologías.

kmon

#2 lo han hecho en un área de pruebas no urbana, no tenemos ni idea de lo que habría hecho el coche en ciudad o carretera así que el experimento demuestra poca cosa, que la cámara no ve la cinta, ya está

f

#73 Perdona la pregunta por, quizás, indiscreta: ¿en qué año dices que diste algo de redes neuronales e IA?

Wintermutius

#2 Pues es más grave todavía: el coche no tiene por qué saberlo, pero su inteligencia artificial, sí. Cualquier navegador de tres al cuarto de google, se sabe las velocidades de todas las carreteras, las condiciones del tráfico, las incidencias en el trazado, y obviamente, es más que probable que conozca las señales del camino.

Obviamente, Tesla no tiene por qué desplegar toda la infraestructura que a Google le ha costado una fortuna. Pero sí que podría alquilarle el servicio para sus clientes.

uyquefrio

#35 No, no creo que sea ignorancia. Se de lo que hablo y es más que habitual la imagen de medio equipo llevándose las manos a la cabeza cuando nos enteramos de lo que van vendiendo por ahí los comerciales.
Desgraciadamente ese humo que venden los comerciales es la idea (más cercano a lo que se ve en películas que a la realidad) que suele llegar al público general.

D

#35 Ignorante o no ha dado en el clavo.

r

#13 Al humano lo pueden engañar igual, las señales se miran por muy poco tiempo.

r

#55 Igual que a los humanos, por eso tenemos miles de muertos en carretera todos los años. Ahora hay que ver cómo muere más gente, si con humanos o IAs conduciendo.

fugaz

#3 El Tesla tiene un nivel 2 de conducción autónoma. Es decir, que requiere au humano sujetando el volante y atento por si pasan estas cosas.

Cuando el coche tenga un nivel 4 o 5 entonces sí será un problema.

redscare

#48 Tesla no usa mapas para el autopilot, usa exclusivamente los sensores del coche. Lo bueno es que no se va a liar si en el mapa pone 120 pero la carretera está en obras con señales de 80. Lo malo es que se lía con absolutamente todo lo demás.

r

#73 Yo sí que fuí más lejos, casi 10 años trabajando en I+D con temas relacionados con IA en general y visión por computador en particular.

Para saber qué es "mejor" hay que establecer una métrica. El número de muertos en carretera me parece una buena métrica si hablamos de conducción.

el 100% de las veces, en milésimas de segundo Eso tampoco lo consiguen los humanos.

Arty_Rider

#64 claro, porque eso es lo que de toda la vida ha hecho la ciencia: adoptar cualquier cambio sin pensar los peligros / desventajas.

Con este “mercado”, normal que estemos como 50 años por detrás de Europa

MoneyTalks

#2 El dia menos pensado estos concienzudos investigadores me hackean a mi, dibujan una linea blanca en un puerto de montanya que me envie a un acantilado y de noche o con niebla me despanyan los cabrones.

Nadie esta a salvo de los estupidos.

redscare

#77 Si a mi no me tienes que convencer. Diselo a Elon lol

Aokromes

#1 no de una forma tan burda una persona no confunde un 3 alargado con un 8 ni un trozo de cinta de otro color con un 8.

Aokromes
Aokromes

#52 mira las fotos, en ningun lugar un humano confundiria esos 3 con un 8.

Aokromes

#72 mira las fotos, ningun ser humano confundiria esos 3 con un 8.

1 2