Hace 18 días | Por ElCuñadoDelHac... a es.wired.com
Publicado hace 18 días por ElCuñadoDelHacker a es.wired.com

Una investigación de Microsoft demuestra que es posible crear modelos de IA lo bastante pequeños para que funcionen en teléfonos o laptops sin comprometer su capacidad. La técnica aportaría nuevos casos de uso para esta tecnología.
El encogimiento muestra la rapidez con que los investigadores están perfeccionando los modelos de IA para hacerlos más ligeros y eficientes. También demuestra que ir a escalas cada vez mayores no es la única forma de conseguir que las máquinas sean significativamente más inteligentes.

Comentarios

r

Leyendo la entradilla pienso... "pero de cuándo es ésto? de hace 2 años?"

Porque ya hay dispositivos con "IA"... el rabbit no sé qué y otros...
Y también hay varias apps para correr LLM locales... de hecho el modelo de Microsoft Phi-3 está muy bien para correr en dispositivos pequeños... y como es local, la privacidad está garantizada (al menos la app para correr el modelo, lo que haga el teléfono, es otra cosa).

R

Vamos mal, ya os digo yo que vamos mal....
Ahora nos quejamos de que todos llevamos un espía dentro del móvil. Ya veréis lo divertido que sera cuando todos llevemos dentro del móvil a un colega solicito y amistoso que en realidad después resulte ser un policía encubierto. 1984, se va a quedar muy corto...   

Fernando_x

#1 Pues la solución es no usarlo, me parece a mi.