edición general
166 meneos
1884 clics
Micron, Samsung y SK Hynix se tambalean: Google encuentra una forma de reducir el uso de memoria para IA

Micron, Samsung y SK Hynix se tambalean: Google encuentra una forma de reducir el uso de memoria para IA

TurboQuant, de Google Research, permite ahorrar hasta 6 veces memoria en IA, lo que ha desencadenado una caída en bolsa de Micron.

| etiquetas: turboquant , google , ia
Pues que comiencen por Chrome...
#1 Chrome no puede rebajar el uso de la memoria porque ese uso es para espiarte y robarte todos tus datos de navegación :troll:
#1 no abras tantas pestañas
#9 Unos 14GB de RAM. Y eso que una de las pestañas es Google.com :troll:
#10 Si, pero la otra pestaña es TikTok y lleva doomscroleando desde Septiembre. A ver si entre todos conseguimos enseñar a los usuarios medios que A) el bookmark existe, B) no hace falta tener setenta y ocho pestañas abiertas por ventana, porque "si la cierro igual me olvido de esa pagina", C) una web con scroll infinito cuenta por X paginas, dependiendo de cuanto sigas bajando...
#29 yo tengo una sola pestaña abierta en cada ventana, pero 78 ventanas abiertas
#30 Tal y como está programado Chrome, es casi casi lo mismo. Venga threads, venga memoria encapsulada...
#29 cuento ahora mismo 204 en varios contenedores, Firefox
#29 ufffff. Pensé que estaba solo en esta lucha sin cuartel.
#8 Todas las pestañas son necesarias
#1 Chrome en cuanto lo desinstalas ocupa cero memoria.
#1 Utiliza linux
Emplearán modelos 6 veces mayores...
#4#2



hola
Estoy de la IA hasta los cojones. IA en el sistema operativo, en los resultados de búsqueda, en todas las RRSS en forma de vídeos de mierda, en los plastas que no paran de decir que los programadores están acabados, en los teléfonos, relojes y hasta en la puta madre que los parió a todos. No quiero IA, metérosla por el ojete, enterita.
#15 cabronazo :peineta: :peineta:
#15 ostia cabrón! No sabes lo que me he reído por tu culpa que me duele hasta la tripa xD xD xD xD :ffu:
#15 Buenñísimo, lo propongo a respuesta del mes :troll:
#15 esta es la respuesta correcta.
Dame likes
#14 Nos la vamos a comer todos con patatas, nos guste o no.
#14 varias veces multiplicado por setenta veces siete, amen hermano.

Esperando que reciente esa puñetera burbuja y me dejen de meter IA hasta en el colacao.
se puede dar la paradoja de jevons
#2 Interesante
#2 habiendo una carrera, es lo que va a pasar
#2 por eso es buen momento para comprar si es que las acciones han bajado.
Vamos, que la burbuja se tambalea y toca ajustar los números con trucos de diversa índole...

Ok, entendido.
#6 a eso venía, cuando les empieza a faltar pasta, de repente saben optimizar recursos.
#22 Se optimiza lo que se sabe que hay que optimizar, hacerlo antes es sobreingeniería
#43 al final "cocinas" con lo que te dejan en la cocina, si tienes muchas cazuelas, no te vas a parar a pensar, si te dejan pocas, vas a optimizar desde el segundo cero. Ya lo vivi en mi ex empresa en el 2008, cuando recortaron hardware, todos a exprimirse la cabeza que tampoco podían subcontrar servicios.
Pero también deja claro que hablamos de una técnica aplicada a casos concretos de compresión y búsqueda vectorial; . Por lo que quizás es muy pronto para hablar que la demanda de memoria DRAM o HBM se desplome de inmediato.
Noticia de distracción del foco, para no admitir que la falta de Helio está haciendo que la industria de semiconductores se tambalee.

www.meneame.net/story/cierre-planta-helio-catar-deja-cadena-suministro
#16 lo del Helio es una burbuja
#27 lo del helio es un globo sonda :troll:
#28 hay que correr la voz con lo del helio.
#34 Lástima que Galindo ya no esté entre nosotros.
Personalmente creo que esta noticia no cambia nada en el ámbito de la crisis de electrónica para uso doméstico. La buena noticia es que se podrá hacer uso de modelos más grandes con menos memoria, que en algún año remoto volverá a ser accesible al populacho supongo...
#18 no se si bajarán los precios o habilitarán más IAs
Estrategias de entrenamiento o de producción gastando menos memoria manteniendo la calidad sería el invento del año.

Actualmente la cantidad de memoria que necesitan para cualquier cosa es tan alta que no sale muchas veces rentable hacer proyectos adhoc a clientes.
#12 si pudieran reducir la memoria usada, los nuevos modelos harían uso de esas técnicas para ser aún más grandes. Aún así sería bueno que se pudiera usar menos memoria...
Pues que liberen toda la RAM que han comprado y que hace que los precios de los ordenadores para el común se haya multiplicado
Ah no, eso ya no.
multiversecomputing.com/

Multiverse Computing wins the 2025 Adigital Award in the Scalability category

Deploy Compressed AI Models Anywhere
Our advanced compression technology reduces LLM size, enabling faster, scalable and cost effective AI on any enterprise system or edge device.

MULTIVERSE COMPUTING, S.L., a company with registered offices in Donostia-San Sebastián (Gipuzkoa),
Va a ser gracioso (tal vez) ver a 'Micron' relanzando 'Crucial' y (tal vez) arrastrándose de rodillas ante los usuarios finales para intentar recuperar su confianza (y su cartera) perdida. :-D
Bien, con suerte se meten tal rijostrio que aprenden la lección. Y con algo más de suerte, la siguiente en bajar en bolsa es Nvidia
a ver si miran algo pa las gpus también
Noticia redactada desde la ignorancia. La optimización reduce el tamaño de la caché KV en inferencia, que es una parte mínima de la memoria que usa el modelo, la mayoría está en los pesos.

Aparte de que aunque lo hayan publicado ahora eso lleva en uso al menos un año.

No sé por qué "se tambalean" los fabricantes pero no es por eso.

menéame