Los diseños son básicamente patrones de imágenes antagónicas que confunden a los algoritmos –especialmente al YOLOv2– evitando la clasificación, de modo que evita que el algoritmo con consigue marcar como tal a quien lleva esas prendas puestas en un alto porcentaje de los fotogramas. El resultado es como una «capa de invisibilidad» a lo Harry Potter, pero que funciona tal cual en ante las cámaras que hay en las calles y comercios.
#8:
Corre el rumor que la ropa de Desigual también hace eso. No se sabe si por los diseños o por lo anodinas que son las profesoras que es la gente que la lleva.
Obviamente todo es super nuevo, pero es muy interesante. Los sistemas de reconocimiento de patrones en base a redes neuronales pueden ser engañados con patrones impresos en pegatinas o ropa. Las defensas contra esto todavía son muy rudimentarias, y puede que estemos al principio de un largo juego del gato y el ratón, ya que esto tiene incluso aplicaciones militares o de inteligencia en el futuro próximo.
#9:
#3 Y aunque sea el v5, actualización de algoritmo y la ropa ya no hace nada.
#4 yo veo factible, incluso fácil que funcione bien con un algoritmo concreto. Tendrá sus redes neuronales y basta con buscar alguna combinación que los engañe. Pero veo casi imposible que la invisibilidad se mantenga para un gran número de algoritmos a la vez, y más difícil aún que no pueda ser sobrepasada con un mínimo entrenamiento del algoritmo y una actualización del mismo.
#3:
Los diseños son básicamente patrones de imágenes antagónicas que confunden a los algoritmos –especialmente al YOLOv2
Yolo.v2?! en que estamos? en el 2016?
Desde el año pasado está disponible la v4 y la v5 está actualmente en beta.
Corre el rumor que la ropa de Desigual también hace eso. No se sabe si por los diseños o por lo anodinas que son las profesoras que es la gente que la lleva.
Obviamente todo es super nuevo, pero es muy interesante. Los sistemas de reconocimiento de patrones en base a redes neuronales pueden ser engañados con patrones impresos en pegatinas o ropa. Las defensas contra esto todavía son muy rudimentarias, y puede que estemos al principio de un largo juego del gato y el ratón, ya que esto tiene incluso aplicaciones militares o de inteligencia en el futuro próximo.
#7 No es tan sencillo, porque para generar dichas pegatinas, y tener seguro que funcionarán básicamente necesitas saber que algoritmo usan y cómo ha aprendido la red que identifica los objetivos, si es posible tener acceso a ella.
#11 De sencillo no tiene nada, pero si pretendes quitarle peso al ataque, hay dos contra argumentos respecto a lo que comentas:
1. Nada nos hace pensar que sea necesariamente así, es decir, que el hecho de tener que crear patches para cada algoritmo en específico puede ser perfectamente una limitación del estado del arte del ataque.
2. Los sistemas de reconocimiento visual a escala industrial no van a ser hechos a mano. Sólo necesitarías engañar al algoritmo mas popular, el que sea, para generar problemas.
Te pongo un ejemplo: Una compañía de taxis autónomos llega a la ciudad, pero los taxistas no están de acuerdo. Crean pegatinas atacando específicamente a ese algoritmo, pero en el fondo generan el caos, por mucho que solo atacan a un algoritmo en concreto.
#17 No pretendo quitarle peso, pero estas noticias suelen ser alarmistas.
1) Simplemente hay que probarlo, a mi me parece una limitación de los algoritmos actuales que conozco, hasta entrenando dos veces la misma red puede que aprenda cosas ligeramente diferentes y no sabes cómo te puede afectar eso.
2) No entiendo esto a qué va, de hecho diría que a escala industrial seguramente creen sus propios algoritmos , y en todo caso cada versión que salga del algoritmo es probable que no sea vulnerable a las mismas pegatinas.
No veo que sentido tiene tu ejemplo si justamente lo que se discute es que eso pueda pasar.
#3 Ataques adversarios?
En camisetas no se hasta que punto funcionarian CSV los grabo en JPG y la compresion quito el efecto, lo tuvo que grabar en PNG, compresion sin perdida. #7 Yo creo que una GAN deberia aprender no ser engañada por ataques adversarios.
#3 Y aunque sea el v5, actualización de algoritmo y la ropa ya no hace nada.
#4 yo veo factible, incluso fácil que funcione bien con un algoritmo concreto. Tendrá sus redes neuronales y basta con buscar alguna combinación que los engañe. Pero veo casi imposible que la invisibilidad se mantenga para un gran número de algoritmos a la vez, y más difícil aún que no pueda ser sobrepasada con un mínimo entrenamiento del algoritmo y una actualización del mismo.
#4 al leer antes de ver el video pensé que se subiría de alguna forma algo más diferente. La chavala va con un abrigo abierto por la calle y con la cara totalmente destapada. Fake total. Imagino que más una crítica que otra cosa.
Estas cosas funcionan (y alguna camiseta fea con imagenes estampadas también) por el funcionamiento del algoritmo de reconocimiento.
Si os dignais a sacaros el palillo de la boca y leeis un poco podeis comprobarlo vosotros mismos.
Esto es bastante inútil a nivel práctico. El trasfondo es interesante, pero justamente los algoritmos de IA en muchos aspectos son cajas negras, no sabes que patrón funcionará bien para despistarlas porque no sabes a ciencia cierta qué ha aprendido para identificar a las que sí son caras. Lo que se hace es utilizar otra IA que genera patrones, y aprende a generarlos hasta que engaña a la otra.
Esto tiene algunos problemas:
1) Depende de qué algoritmo de reconocimiento usan, lo que funciona en un algoritmo, puede que no funcione en otro.
2) Depende de qué imágenes se usen para aprender.
3) Al ser IA, se pueden retroalimentar de los patrones malos para ignorarlos, lo que lo convertiría en una continua batalla, y no puedes "actualizar" tu ropa.
PS: De hecho, como ya dice otro comentario, están probándolo en una versión antigua...
#10 Los sistema de reconocimiento escalados a nivel industrial no estarán hechos a mano por científicos de datos adaptando cada caso. habrá unos científicos de datos en un lugar creando ciencia, y empresas bebiendo de las librerías mas populares para implementar sus sistemas.
Los exploits contra "stack-based buffer overflow" son completamente dependientes de la implementación del sistema operativo y del compilador, pero eso no los hace menos peligrosos ni poco populares. Durante décadas hemos sufrido y seguiremos sufriendo las consecuencias de ese ataque, por que ya no estamos en los 60, y los binarios se compilan en un sitio centralizado, para que la informática haya podido escalar a escala planetaria
Por cierto, la gente actualiza su ropa cada pocos meses, desafortunadamente. Pero creo que la ropa, el Yolo en concreto que utilizan y el resto de detalles son eso, detalles.
#19 Más bien diría lo contrario, justamente a nivel industríal tendrán sus propias versiones de ese algoritmo, y efectivamente lo adaptarán a cada caso, otra cosa es que a lo mejor la tienda de la esquina use lo que pueda coger de internet a pelo.
Ehm, ok?
No es suficiente que la cambien cada pocos meses, cuando puedes actualizar la IA cada día.
Comentarios
Corre el rumor que la ropa de Desigual también hace eso. No se sabe si por los diseños o por lo anodina
s que son las profesorasque es la gente que la lleva.#8 jajajaja cabron, vine a decir exactamente eso
La ciencia detrás de estos ataques:
https://arxiv.org/abs/1910.14667
La ciencia para evitar estos aques:
https://openreview.net/pdf?id=HyeaSkrYPH
Obviamente todo es super nuevo, pero es muy interesante. Los sistemas de reconocimiento de patrones en base a redes neuronales pueden ser engañados con patrones impresos en pegatinas o ropa. Las defensas contra esto todavía son muy rudimentarias, y puede que estemos al principio de un largo juego del gato y el ratón, ya que esto tiene incluso aplicaciones militares o de inteligencia en el futuro próximo.
#7 No es tan sencillo, porque para generar dichas pegatinas, y tener seguro que funcionarán básicamente necesitas saber que algoritmo usan y cómo ha aprendido la red que identifica los objetivos, si es posible tener acceso a ella.
#11 De sencillo no tiene nada, pero si pretendes quitarle peso al ataque, hay dos contra argumentos respecto a lo que comentas:
1. Nada nos hace pensar que sea necesariamente así, es decir, que el hecho de tener que crear patches para cada algoritmo en específico puede ser perfectamente una limitación del estado del arte del ataque.
2. Los sistemas de reconocimiento visual a escala industrial no van a ser hechos a mano. Sólo necesitarías engañar al algoritmo mas popular, el que sea, para generar problemas.
Te pongo un ejemplo: Una compañía de taxis autónomos llega a la ciudad, pero los taxistas no están de acuerdo. Crean pegatinas atacando específicamente a ese algoritmo, pero en el fondo generan el caos, por mucho que solo atacan a un algoritmo en concreto.
#17 Un Real Decreto prohibiendo el uso de esas pegatinas y arreando.
#17 No pretendo quitarle peso, pero estas noticias suelen ser alarmistas.
1) Simplemente hay que probarlo, a mi me parece una limitación de los algoritmos actuales que conozco, hasta entrenando dos veces la misma red puede que aprenda cosas ligeramente diferentes y no sabes cómo te puede afectar eso.
2) No entiendo esto a qué va, de hecho diría que a escala industrial seguramente creen sus propios algoritmos , y en todo caso cada versión que salga del algoritmo es probable que no sea vulnerable a las mismas pegatinas.
No veo que sentido tiene tu ejemplo si justamente lo que se discute es que eso pueda pasar.
#3 Ataques adversarios?
En camisetas no se hasta que punto funcionarian CSV los grabo en JPG y la compresion quito el efecto, lo tuvo que grabar en PNG, compresion sin perdida.
#7 Yo creo que una GAN deberia aprender no ser engañada por ataques adversarios.
Los diseños son básicamente patrones de imágenes antagónicas que confunden a los algoritmos –especialmente al YOLOv2
Yolo.v2?! en que estamos? en el 2016?
Desde el año pasado está disponible la v4 y la v5 está actualmente en beta.
#3 Y aunque sea el v5, actualización de algoritmo y la ropa ya no hace nada.
#4 yo veo factible, incluso fácil que funcione bien con un algoritmo concreto. Tendrá sus redes neuronales y basta con buscar alguna combinación que los engañe. Pero veo casi imposible que la invisibilidad se mantenga para un gran número de algoritmos a la vez, y más difícil aún que no pueda ser sobrepasada con un mínimo entrenamiento del algoritmo y una actualización del mismo.
#3 y esperas que los gobiernos las tengan ya?
En 10 años a lo mejor
#24 Básicamente es llamar a una librería o a otra...
#28 eso es un desarrollo de quizás medio millón de euros.
#3 https://es.m.wikipedia.org/wiki/YOLO
Puro marketing. Ni de coña funciona.
#4 Lo veo más como propaganda anti-reconocimiento que otra cosa
#13 la sensación de seguridad vende. preguntadle a securitas indirect y mierdas del mismo calibre.
esto lo veo de la misma forma: humo del rastrero
#4 al leer antes de ver el video pensé que se subiría de alguna forma algo más diferente. La chavala va con un abrigo abierto por la calle y con la cara totalmente destapada. Fake total. Imagino que más una crítica que otra cosa.
#6 #4 #1 Madre mia os falta el palillo en la boca.
*m8p5lhWdFDdapEFa2zUtIA.jpegEstas cosas funcionan (y alguna camiseta fea con imagenes estampadas también) por el funcionamiento del algoritmo de reconocimiento.
Si os dignais a sacaros el palillo de la boca y leeis un poco podeis comprobarlo vosotros mismos.
https://github.com/erdos-ml/yolo-v3-object-detector
Os meto el negativo... por... por cuñados. ¡Es que os lo mereceis!
#14 #23 No se si funciona o no, pero ese video pura publicidad.
Motin de esquilache incoming. (vamos que si funcionan los querrán prohibir).
No funciona, con las botas blancas no cuela.
Que digo yo que no tardará en aprender que eso es una persona, sino menuda basura de IA.
Yo probaría con este traje https://www.amazon.com/-/es/Disfraz-de-doblador-para-adultos/dp/B00HOT2G98
#20 Doblador...
Que sí, que sí... pero... doblador...
increible la creatividad de algunos
Si te tomas una media a las 9 de la mañana, también confundes al algoritmo
DESIGUAL se va a hacer de oro
El dia que tengamos implantes cibernéticos y alguien los hackee para que no podamos verle la cara llegará
Documental relacionadisimo con la noticia y realmente preocupante.
Menudo fake.
#6 Tu si que sabes... en que bar estás?
Esto es bastante inútil a nivel práctico. El trasfondo es interesante, pero justamente los algoritmos de IA en muchos aspectos son cajas negras, no sabes que patrón funcionará bien para despistarlas porque no sabes a ciencia cierta qué ha aprendido para identificar a las que sí son caras. Lo que se hace es utilizar otra IA que genera patrones, y aprende a generarlos hasta que engaña a la otra.
Esto tiene algunos problemas:
1) Depende de qué algoritmo de reconocimiento usan, lo que funciona en un algoritmo, puede que no funcione en otro.
2) Depende de qué imágenes se usen para aprender.
3) Al ser IA, se pueden retroalimentar de los patrones malos para ignorarlos, lo que lo convertiría en una continua batalla, y no puedes "actualizar" tu ropa.
PS: De hecho, como ya dice otro comentario, están probándolo en una versión antigua...
#10 Los sistema de reconocimiento escalados a nivel industrial no estarán hechos a mano por científicos de datos adaptando cada caso. habrá unos científicos de datos en un lugar creando ciencia, y empresas bebiendo de las librerías mas populares para implementar sus sistemas.
Los exploits contra "stack-based buffer overflow" son completamente dependientes de la implementación del sistema operativo y del compilador, pero eso no los hace menos peligrosos ni poco populares. Durante décadas hemos sufrido y seguiremos sufriendo las consecuencias de ese ataque, por que ya no estamos en los 60, y los binarios se compilan en un sitio centralizado, para que la informática haya podido escalar a escala planetaria
Por cierto, la gente actualiza su ropa cada pocos meses, desafortunadamente. Pero creo que la ropa, el Yolo en concreto que utilizan y el resto de detalles son eso, detalles.
#19 Más bien diría lo contrario, justamente a nivel industríal tendrán sus propias versiones de ese algoritmo, y efectivamente lo adaptarán a cada caso, otra cosa es que a lo mejor la tienda de la esquina use lo que pueda coger de internet a pelo.
Ehm, ok?
No es suficiente que la cambien cada pocos meses, cuando puedes actualizar la IA cada día.
Soy pro privacidad pero verás qué gracia te hace cuando el coche automático no te reconozca al cruzar
#15 Vistes al chiquillo de camuflaje y cobras el seguro O a la novia con la que quieres dejarlo y no sabes como decirselo
#18 jajajajajja. No lo había pensado. Porque no estaba bebiendo que si no lo hubiese echado todo