Hace 10 meses | Por karakol a mymodernmet.com
Publicado hace 10 meses por karakol a mymodernmet.com

El producto es un conducto entre conversores de voz a texto asequibles como Otter.ai o Live Transcribe de Google y unas simples gafas. El producto recibe mensajes bluetooth del dispositivo de subtitulado y los convierte en proyecciones de realidad aumentada (RA) dentro de las gafas. El usuario puede cambiar el tamaño del texto para adaptarlo a la escena. Esta tecnología puede permitir a las personas sordas o con problemas de audición mirar a donde quieran sin dejar de comunicarse. También puede ayudar en entornos que pueden desconcertar incluso

Comentarios

borteixo

Coño, que le metan traducción también.

i

Entraba a lo mismo. Y para los idiomas?

M

Me he registrado solo para comentar.

Ya lo había visto por otros lados, es solo publicidad para unos estudiantes. Esto es más viejo que el cagar.

Smart glasses en el mercado hay para aburrir, al fin y al cabo son solo dispositivos Android con un pequeño visor. Otras son solo visores conectados a un móvil.

Una aplicación de traducción automática es algo bastante chorra. Unos pocos días de trabajo ya sea implementando una librería de terceros o llamando a una API como la de azure o Nvidia.

Por ejemplo, como usuario, hace años que puedes comprar unas gafas vuzix y pagando 5 euros al mes ya tienes speech to text. Yo también lo he visto traduciendo.



Yo lo he visto funcionar bastante bien, en ferias, pero seguramente tenga un porcentaje de fallos en la calle o en entornos más reales. Al fin y al cabo los micrófonos no hacen milagros y captan todo lo de alrededor.

La única innovación que podrían haber hecho y no aparece en la noticia sería la de cargar voces de personas conocidas y cercanas para que les dé prioridad e identifique el resto de voces como ruido si hay varias voces siendo captadas a la vez. O que el sistema reconozca cuándo una voz es de una persona diferente y la ponga en otro color.

El problema aquí no sería la IA, sino la capacidad de cómputo del cacharro. Yo he puesto modelos simples de análisis de imagen en unas gafas ar con snapdragon xr2 y sufren bastante aunque aguantan.

Pero claro, el cacharro no valdría cien dólares y le haría falta una mayor batería.