Hace 5 años | Por Telaco a microsiervos.com
Publicado hace 5 años por Telaco a microsiervos.com

Abhishek Singh muestra en este vídeo cómo ha enseñado a Alexa a entender el lenguaje de signos. O, más bien, cómo ha creado un sistema de aprendizaje automático capaz de interpretar lenguaje de signos con TensorFlow.js usando la webcam de un MacBook Pro. Los textos simplemente se envían a Alexa para que a su vez conteste con texto + voz.

Comentarios

bronco1890

Desde la ignorancia, ¿No es más rápido y más cómodo teclearlo directamente con el teclado?

T

#2 Si pero:

A) Se acabó el reto técnico.
B) Se podrá usar de una forma más cómoda para:
1) Reconocimiento automático.
2) Estudiantes de lengua de signos.

Sólo con el primero ya es motivo, pero seguro que hay más

T

Pongo el enlace a microsiervos porque el video no tiene mucha explicación y aun no lo ha publicado en su web o github.

Shek tiene otros proyectos, más o menos chorras, con tecnología, realidad aumentada, etc en shek.it