Publicado hace 7 años por CortoCircuito a ciencia-explicada.com

Investigadores de la Universidad de Zurich, llevan tres años desarrollando algo que tiene toda la pinta de ir camino de revolucionar el mundo de la robótica y los drones. Se trata de un modelo totalmente revolucionario de cámara de visión artificial, que rompe que la tradición de casi un siglo de registrar el movimiento fotograma a fotograma. En lugar de eso, en las nuevas cámaras inspiradas por el funcionamiento de las retinas biológicas cada píxel transmite los cambios que detecta de manera independiente.

Comentarios

d

#2 Es lo que estaba pensando yo, esto ya se hace cuando estamos viendo un video con algún reproductor pero ahora quieren hacer lo mismo desde la cámara.
La verdad que no sé como no han investigado en eso antes.

y

#6 El problema es la impresionante capacidad de cálculo que hace falta para procesar una imagen así. El cerebro hace esto, con muchas etapas intermedias de procesado, pero no hay ordenador actual capaz de acercarse.

WarDog77

#23 Aparte de que el ojo no tiene la misma "resolución" en todo el "sensor", lo que alivia bastante la carga de trabajo permitiendo tener una visión periférica que no sobrecargue el sistema.

l

#2 Los LIDAR no creo que sean el futuro, al menos en la conducción autónoma. Tesla ya los ha desechado y son los que tienen en la calle la tecnología más efectiva con diferencia. Y lo ha hecho por que el análisis de imágenes por ordenador a avanzado muchísimo gracias a la enorme capacidad de computación que tienen las GPUs.
Los LIDAR tienen piezas móviles y eso siempre causa problemas a la larga. Se quedará como una tecnología para mediciones de gran precisión, pero los automóviles autónomos no serán su campo.

placeres

#20 Mi fijación con el Lidar es que una universidad israelí lo consiguió reducir a un chip (Falta saber si es comercializable o no) y me resultan dos sistemas compatibles lástima del precio que tienen, aparte que el accidente gordo del Tesla fue porque se tropezó con un coche con el mismo color que el cielo y no pudo reaccionar a tiempo.

y

#20 Los radares no necesitan piezas móviles si no se quiere. El Lidar puede acabar igual.

drone

#24 Eso es lo que buscan hacer. Todo en un chip. Y seguramente será el futuro. Imitar a la retina está muy bien, pero si se puede conseguir algo todavía mejor, ¿por qué pararse ahí?

WarDog77

#24 Se me ocurre un sensor óptico semiesférico en el que vas anulando prixeles a voluntad para fijar el foco en la direccin deseada y dejando activos alguna nos píxeles alrededor para detectar movimiento, siluetas y colores (como hace ojo humano) pero evitando el mivimiento al activar y desactivar píxeles (un circulo de píxeles activos que se "desplaza" por la superficie del sensor)

RubiaDereBote

#7 La peli es buena pero este calzador mejor:

D

#12 Positivo por troll

fjcm_xx

#12 ¿Calzador? Qué coño calzador. Es muy pertinente lo que puse, la noticia va de robots del futuro y avance tecnológico y la película gira entorno a eso. Vaya te voté positivo por error, te compensaré con uno negativo en otro comentario.

s

Apuesto más por Project Tango

D

#4 Pues yo he visto ya a gente devolver su Lenovo...

Tal vez esté demasiado verde aún.

Sr.No

#4 Pues ha llegado lejos el amigo Johnny Lee. Hace unos años se le conoció en Internet por unos videos en los que hackeaba todos los juguetitos de la Wii, impulsando toda la subsiguiente integración en robótica casera que se vio hasta que los sensores bajaron de precio.



Ahora dirige uno de esos equipos de ciencia ficción de Google. No está nada mal.

gassganso

#4 En el vídeo que enlazas sale el logotipo de la Universidad de Zúrich. El proyecto Tango parece que usa tres cámaras, con el DVS quizás se pueda hacer lo mismo con sólo una.

r

Ya podemos tener robots T-Rex con su mismo sistema de visión.

capitan__nemo

#28 El postproceso o preproceso no seria tan tocho. Es solo cuestión del microprocesador y el bus.

Aquí la clave solo está en la velocidad.

Tienes un ccd nuevo de estos en el cual para determinar si se ha encendido la luz de la habitación puedes saberlo mucho antes que con el otro. En 0,5 milisegundos, o en 100 microsegundos, o en 10 microsegundos.

Es como la comparación entre la latencia y el ancho de banda en los juegos online o para jugar juegos online suficientemente rápido para interactuar.

D

#0 muy chulo. Gracias por el envío.

Bio_Jose

Gran avance....... Espero que se noten en el día a día....... Reconocimiento faciales de terroristas y delincuentes muchísimo más avanzado

y

#17 No has visto el primer video? En el se aprecia perfectamente uno de los problemas mas grandes con los sensores tradicionales "sincronos", el motion blur. En cambio, con este tipo de sensor, los pixeles son tratados de manera asincrona, es decir, cuando un pixel acumula suficiente cambio, este se transmite. Eso reduce el consumo a nivel de sensor, con lo que consume menos que un ccd tradicional. Ademas no dependes de un reloj que te diga cuando consultar el valor acumulado en el pixel, ni tener un disparador (shutter) con una estrategia concreta, con lo cual evitas efectos indeseados cuando haces el barrido para generar la imagen.

Es un sensor revolucionario lo mires por donde lo mires, porque no habia nada parecido hasta ahora.

r

Lo "revolucionario" es que es hardware y no software, en muchas aplicaciones de visión artificial se utiliza Motion History Image, Optical Flow, caracteristicas SURF, SIFT, etc para ver determinar el movimiento de los objetos o la visual odometry. Al ser hardware reduces el error provocado por el procesamiento, (blurring etc).

La aplicación práctica de esta cámara es para entornos o cosas muy especificas (sobretodo industriales). Esta cámara y las normales sirven para complementarse, no para ser sustituidas.

s

#9 #22 yo vi el prototipo hace unos años en un congreso en el reino unido. Era la misma idea pero no hacía el giro para obtener datos, era el operario el que tenía que menear la cámara para que los detectara. Como todo, pese a obtener datos de forma continua, se utilizaba un umbral para decidir si un pixel se modificaba o no. La resolución era pobre, pero no era muy importante porque la idea era hacer SLAM con muchas pasadas. Lo que sí era un problema era el alcance, era muy corto, sobre 1 metro o 2 como mucho.

El titular me parece un poco engañoso, porque pareciera referirse a cámaras típicas para grabar vídeo, y no es así.

capitan__nemo

#30 Así que la clave es lo de slam.
https://en.m.wikipedia.org/wiki/Simultaneous_localization_and_mapping

Son "camaras/sensores" para funcionalidades muy especificas. De hecho para propositos periodísticos y divulgativos, dejaria de llamarlas camaras e inventaria un nuevo concepto. O si se quiere camaras slam.

capitan__nemo

#32 #30 SLAM me ha hecho recordar la pelicula "Open windows" en que los hackers eran capaces de extrapolar un monton de detalles del entorno, con las camaras sensores que tenian.
https://es.m.wikipedia.org/wiki/Open_Windows

C

#32 Cámaras de eventos se les suele llamar.

Ainur

#22 Todavía está pañales, pero solo por el alto rango dinámico que tiene pueden suponer un avance, es pronto para que la industria sustituya nada, pero de aquí a 10 años nos podemos llevar una sorpresa con esta tecnología, sobre todo para vídeo.

mikibastar

Increible

fjcm_xx

#1 En breve tendremos esto con sus correspondientes hibernaciones tipo Passengers, por cierto, buena peli.

capitan__nemo

Pero ¿Qué diferencia hay para el que ve lo grabado?

¿Que diferencia hay con un sensor normal que despues toda la imagen la pasa a un microprocesador que la procesa y si es necesario transmite solo los cambios de píxel individuales de la imagen completa?

Será la necesidad de ese microprocesador, el tamaño del bus de transmisión, pero tampoco lo veo tan revolucionario.
Nuevo sensor=antiguo sensor+microprocesador

Si precio (nuevo sensor) es mayor que precio (antiguo sensor + microprocesador) que será probablemente lo que ocurra. Y ademas el nuevo sensor no está disponible hoy en dia, pero el antiguo mas microprocesador si.

D

#13 Completamente. Como dicen en el artículo tiene bastante dificultad localizar objetos desde las imágenes tomadas con cámaras. Se lleva bien con elementos casi estáticos, pero cuesta mucho y hay cierto margen de error con elementos en movimiento. Sobre todo a grandes velocidades.

Con esta tecnología, teóricamente, se reduce el margen de error y la necesidad de cómputo.

capitan__nemo

#13 Vale, esto es para drones y sistemas que necesitan la maxima velocidad de reacción. Milisegundos o menos.

Aun así eso ya se puede conseguir hoy con ccd y microprocesadores con la maxima velocidad de proceso posible y que te puedas permitir.

EauDeMeLancomes

#17 entiendo que el el concepto es algo así como "grabar el movimiento" en lugar acumular una sucesión enorme de imágenes estáticas, como se hace ahora, y que como dice #13 luego tienes que postprocesar a lo bestia si quieres ver qué es lo que se mueve realmente. No creo que este pensado para su uso en camaras convencionales de vídeo (cine, etc.)

Parece chulo. A ver qué sale.

capitan__nemo

#26 Con una sensor normal ccd normal no tienes que acumular una enorme cantidad de imagenes estaticas porque no las acumulas si no quieres.
El microprocesador procesa el flujo y transmite a la siguiente etapa si quiere solo el movimiento.

Es algo tan chulo que ya existe.

Esto lo único que quizas haga es ser mas rapido (o ser mas barato cuando sea mas barato realmente, en algun momento indeterminado del futuro), velocidad de proceso de milisegundos/microsegundos por fotograma completo. Y ahora el fotograma ya no tiene que ser el fotograma sino un píxel solo. Un fotograma de 1x1 pixels.

Con esto, si tienes una capacidad limitada del microprocesador, puedes decidir que el nuevo ccd (que realmente igual es solo un antiguo ccd mas un microprocesador todo integrado) solo pille los pixels que cambian.

Realmente tambien seria como añadir un flag a cada sensor de pixel del "ccd" de forma que solo transmite si cambia su estado y valor.

WarDog77

#26 Este sistema si se combinado con sensores con una distribución irregular de los pixeles (imitando al ojo humano) en los que en el centro del sensor se concentra la mayor densidad de píxeles y esta va decreciendo concentricamente hacia el exterior permitiendo así una visión definida en el foco y difusa en la periferia donde solo se busca la detección de movimiento y una referencia del entorno puede dar mucho juego en sistemas de IA aliviando la carga del sistema

S

#17 De momento coincido contigo lo mismo se puede conseguir sin el gadget este,
que entiendo externaliza el proceso de encontrar lo que cambia en la imagen.

Nos ahorramos computo que deriva en el periferico.

c

mola mucho

Casanotra

Similar al funcionamiento de un códec tipo MP4.

j

ya tardaban.

j

En teoría es lo mismo, pero en vez de aplicar el cambio al fotograma completo, se le aplica dichos cambios a cada pixel independientemente.

Así cada píxel transmite los cambios que detecta de manera independiente.