185 meneos
2943 clics

Samsung utiliza el chip TrueNorth de IBM para crear un ojo digital

Lo ha adaptado a su sensor de visión dinámica para crear una cámara que puede grabar a una velocidad de 2.000 frames por segundo.
etiquetas: ojo digital, truenorth, samsung, ibm
usuarios: 77   anónimos: 108   negativos: 0  
#1   ¿Soy yo, o se parece demasiado ese ojo a este?  media
votos: 2    karma: 21
 *   Snake_Charmer Snake_Charmer
#2   #1 De hecho, de lejos parece una lavadora
votos: 4    karma: 25
#3   Pues parecen muy interesantes las aplicaciones. A mi me recuerda a Wheatley de portal 2.
votos: 9    karma: 88
#4   www.samsung.com/global/galaxy/gear-360/ La foto no se corresponde con el articulo.
votos: 0    karma: 10
#8   #4 por que sera una foto de referencia no de su nueva camara pues seguramente aun sea un prototipo.
votos: 0    karma: 11
#13   #8 De referencia nada, simplemente la han puesto para confundir y hacer pensar que la camara de la foto, que parece un ojo, es lo construido. Es como lo de 'no te creeras lo que paso' pero con foto
votos: 1    karma: 16
#5   4 comentarios y en portada. :-O
votos: 0    karma: 9
#6   Es interesante sobre todo el chip. Con unos cuantos de esos sí que se podría crear tal vez una IA de verdad.
votos: 0    karma: 9
#7   2.000 frames a full resolution no hice cuentas pero seguro que se encontraran con el problema de un disco que consiga guarda todos esos frames a velocidad suficiente.

Por cierto 2.000 frames parece una burrada, 120fps ya consiguen capturar bastante precisamente el movimiento de objetos, vale que igual en algunas cosas más precisión vendra bien... pero vamos viendo como trabajan 120fps pues doblando ya sería magnifico,
votos: 1    karma: 22
 *   GoDie
#24   #7 si es para IA no hay que volcarlos a disco, hay q aplicarles algoritmos de reconocimiento de imagen, pero sigueexistiendo el mismo problema, el algoritmo deberá procesar cada frame en menos de 0.5 ms, un tiempo bastante jodido. Al final todo depende de la resolución y el propósito.
votos: 0    karma: 11
#26   #24 Y la resolución tiene que ser la justa para el propósito, cuanto más baja mejor siempre que sea suficiente para el propósito por que si quieres RT el tiempo de procesamiento es primordial y con una alta resolución no lo vas a conseguir por muy baja latencia o muchos fps que tenga la cámara.

Unos cuantos millones de pixeles por segundo, desmadrados millones si utilizas altas resolución no los procesa cualquier ordenador del mercado ni quemando la tarjeta de credito.
votos: 1    karma: 22
 *   GoDie
#28   #26 cierto, aunque habría q ver si con hardware añadido, por ejemplo para temas de deteccion de movimiento estaria interesante un comparador hardware para cada uno de los píxeles.
votos: 0    karma: 11
#9   Quiero aclarar un par de cosas sobre la noticia: la foto no se corresponde con el sensor de visión de samsung... lo de la foto es una Gear 360; el aparato de visión de samsung es más como un cubito magenta con dos ojitos; lo que reconoce por ahora está al nivel de la kinect; que capte a 2000 fps no quiere decir que guarde a 2000 fps... de hecho no guarda nah, lo que está calculando es posición de manos y sus movimientos. Así que mejor no pensar que será una camaraza guay para grabar, porque no, básicamente es una kinect que calcula movimiento de manos mucho más eficientemente.
votos: 3    karma: 39
#10   #9 Bueno realmente si guardan :-P , el frame tiene que enviarse al ordenador y en el ordenador se guarda en la memoria para su procesamiento, una vez procesado se deshecha o más bien se sobreescribira con el siguiente frame. Pero realmente se guarda, aunque sea temporalmente, posiblemente hasta se guarden varias frames en una cola. :troll:


Por cierto me pregunto si dará el USB3.0 para tal cosa.
votos: 0    karma: 11
 *   GoDie
#11   #10 Por lo que vi durante la presentación, no envían todos los frames, los usan para procesar y envían al PC un heat map del movimiento, diría que a unos 60 fps. Aunque enviasen los 2000 frames, la pantalla no los podría representar, así que sería un gasto inútil de datos. La cámara tiene su propio procesador para los cálculos, diría que calcula sobre una cache L2, y escupe los resultados de procesar. Para el movimiento de manos o cuerpo no veo necesario 2000 fps de input, lo había visto para…   » ver todo el comentario
votos: 1    karma: 14
#14   #11 Realmente no tengo duda era por ser quisquilloso con el tema de "guardar" ;)

"Procesar" no quiere decir que los representes en pantalla, pero para detección de movimiento tienes que hacer los calculos en tu equipo, no que te vengan hechos. Y claro que toda la camaras tienen procesador de imagenes ya que es el encargado de la captura, comprimirla y enviarla pero que haga la detección nada de nada. Aunque hay camaras que tienes algun algoritmo de detección en su…   » ver todo el comentario
votos: 0    karma: 11
 *   GoDie
#17   #14 Perdón, me explique demasiado brevemente.
Me refería a que para que el USB 3.0 soporte el flujo de datos de la cámara hay que tener en cuenta tanto el framerate, como el tamaño del cuadro como la profundidad de color, y la compresión (suponiendo que tenga), para conocer el bitrate final, en caso de que la cámara envie los datos "en crudo" por el USB, cosa que tampoco se.
votos: 0    karma: 7
#18   #17 Tampoco lo se, aunque dare por sentado que ira comprimido, cogiendo mi camara de fotos que de 6000x4000 en RAW deben ser 20mb de media por foto, a muy pocos X fps ya es poco asumible, para una fotico bien pero para X frames por segundo oO
votos: 0    karma: 11
 *   GoDie
#22   #18 Ya, la cámara profesional más bestia que conozco es la RED ONE, captura 4k@60fps o 2k@120fps, y codifica en 12bits-RAW, y estamos hablando de 50.000$ de cámara, sólo el cuerpo de cámara, optica, visor y grabador van aparte.
votos: 0    karma: 7
#25   #22 Esas son supongo más centradas en el cine, fotografía, hay cámaras más baratas con alto FPS y resolución suficiente (quizas no 4k), no si cabe demasiada profundidad de color. Tambien hay camaras de 1000fps para cine. oO

De todas formas para el procesamiento y detección de imágenes lo más importante es la latencia y fps y tampoco interesa demasiada una GRAN resolución por que una vez tengas la imagen tienes que procesar dicha imagen y si esperas procesar una image 4k con 16bit en un tiempo…   » ver todo el comentario
votos: 1    karma: 18
#27   #25 Si, está claro que en la captación no está el problema, está en la potencia de procesado, ahora imagínate lo mismo pero con visión estereoscópica para poder calcular también profundidad, no hay procesador ni bus de datos que aguante eso.
votos: 0    karma: 7
#12   #10 Pues todo dependerá del tamaño del cuadro y la profundidad de color, al final lo que cuenta es el bitrate no los fps.
votos: 0    karma: 7
#15   #10 Y por completar un poquito más, te envío imagen del dispositivo (abajo a la izquierda) y de lo que detecta (la mano de colorcillos). Como ves por las 5 cositas que detecta, por ahora está en pañales, kinect ya hacía todo esto hace años, pero supongo que están inviertiendo en ello porque tienen posibilidad de hacer mejores cosas con ello... o puede ser otro proyecto de R&D más que termina en callejón sin salida y se va a un cajón. Ya lo veremos. Por ahora no veo que sea noticia, nada…  media   » ver todo el comentario
votos: 1    karma: 17
#16   #15 El kinect (que tengo un cajon) de hace años es bastante malo para capturar en RT (real time), yo personalmente lo utilizaba para MOTION CAPTURE (no RT), y escáner de profundidad que es la ventaja del kinect. Pero la publicidad de Microsoft como de costumbre era un engaño, nunca funciono tan bien como decían ni de lejos.

Tienes el Leap motion del que personalmente desarrolle un par de aplicaciones de tracking de las manos para RV (realidad virtual), si bien los primeros años se notaba una…   » ver todo el comentario
votos: 0    karma: 11
 *   GoDie
#19   #16 Gracias :-) Tengo tanto kinect 2 como leap motion, ambas en cajón también, criando polvo desde 2013 y 2014 respectivamente. Últimamente estube con desarrollo de hololens, pero no tengo propias así que fue el poco tiempo que tuve unas, y ahora estoy esperando por unas Meta AR que sí disfrutaré a tiempo completo. Serán mi tesoro. Lo de detección de movimiento me interesó porque tuve que hacer una PoC de control de apps usando movimiento, por ejemplo para entornos de laboratorio médico.…   » ver todo el comentario
votos: 0    karma: 10
#20   #19 Con el kinect 2 creo que si mejoro bastante el tema RT pero tampoco suficiente, aunque yo no tuve ocasión de meterle mano al igual que los otros temas AR, aparte de muy caros aun es una tecnologia que esta muy en pañales y salvo que tengas/trabajes en una empresa fuerte a largo plazo no le veo yo salida a corto plazo de años como para "jugar" con ellos. Eso si es una inversión de futuro buena "jugar" con ellos.

En reconocimiento de imagenes es lo que me quiero liarme yo próximamente, con OpenCV, ya tengo el hardware pero me falta el tiempo para liarme la manta a la cabeza y empezar un poco seriamente. :-(
votos: 0    karma: 11
 *   GoDie
#21   #20 Con OpenCV no necesitas un hardware especial... yo lo uso con una webcam salchichera de 20€, y reconoce genial caras, posición de ojos, boca, etc. Lo que sí necesitarás será una iluminación correcta, con focos muy directamente se equivoca e identifica caras dónde no las hay (uso Haar Cascade). Durante una demo en un lugar con una iluminación muy fuerte de neones, identificaba caras en la pared de detrás de mí... y la gente decía que si serían las caras de Bélmez. Lo que necesites avisa, si te vas a poner con ello, siempre te puedo echar una mano para arrancar (en mi caso NodeJS + OpenCV + Socket.io y el front con Angular + Socket.io).
votos: 0    karma: 10
#23   #21 Si necesitas una de 120fps mínimo si quieres hacer algo en RT de detección + reconocimiento.
Las salchicheras tienen una latencia de 1-2segundos sin contar el tema de procesado en tu ordenador.

Sobre lenguajes tirare por C++ supongo, y librerías pues OpenCV y no se que más necesitare aun como dije lo tengo en la cabeza pero no empece solo verlo por encima lo que si evitare es todo lo que tenga que ver con java, soy alérgico xD

Ya hice proyecto en C++ + Unreal Engine de capturar el…   » ver todo el comentario
votos: 1    karma: 21
#31   #23 Con OpenCV tienes un emulador por ahí que emula la GB camera en una GameBoy :-)

github.com/AntonioND/giibiiadvance
votos: 0    karma: 10
 *   Ander_ Ander_
#29   No me parecen suficientes fps.

Imaginemos unos seres vivos cuyo metabolismo les permite existir a velocidades absurdas para nosotros, percibiéndonos ellos a nosotros, como nosotros percibimos a las plantas, inmobiles a simple vista.

Dichos seres, desplazándose a una velocidad cercana a la luz, serían indetectables incluso con semejante dispositivo.
votos: 0    karma: 9
#30   #29 En conclusión, esta cámara es insuficiente para detectar a seres imaginarios.
votos: 0    karma: 10
 *   eldelmedio
#32   -Haz girar la cápsula, HAL
-...
votos: 0    karma: 6
comentarios cerrados

menéame