#10 Si, pero la otra pestaña es TikTok y lleva doomscroleando desde Septiembre. A ver si entre todos conseguimos enseñar a los usuarios medios que A) el bookmark existe, B) no hace falta tener setenta y ocho pestañas abiertas por ventana, porque "si la cierro igual me olvido de esa pagina", C) una web con scroll infinito cuenta por X paginas, dependiendo de cuanto sigas bajando...
Estoy de la IA hasta los cojones. IA en el sistema operativo, en los resultados de búsqueda, en todas las RRSS en forma de vídeos de mierda, en los plastas que no paran de decir que los programadores están acabados, en los teléfonos, relojes y hasta en la puta madre que los parió a todos. No quiero IA, metérosla por el ojete, enterita.
Pero también deja claro que hablamos de una técnica aplicada a casos concretos de compresión y búsqueda vectorial; . Por lo que quizás es muy pronto para hablar que la demanda de memoria DRAM o HBM se desplome de inmediato.
Personalmente creo que esta noticia no cambia nada en el ámbito de la crisis de electrónica para uso doméstico. La buena noticia es que se podrá hacer uso de modelos más grandes con menos memoria, que en algún año remoto volverá a ser accesible al populacho supongo...
Noticia redactada desde la ignorancia. La optimización reduce el tamaño de la caché KV en inferencia, que es una parte mínima de la memoria que usa el modelo, la mayoría está en los pesos.
Aparte de que aunque lo hayan publicado ahora eso lleva en uso al menos un año.
No sé por qué "se tambalean" los fabricantes pero no es por eso.
hola
Ok, entendido.
www.meneame.net/story/cierre-planta-helio-catar-deja-cadena-suministro
Actualmente la cantidad de memoria que necesitan para cualquier cosa es tan alta que no sale muchas veces rentable hacer proyectos adhoc a clientes.
Aparte de que aunque lo hayan publicado ahora eso lleva en uso al menos un año.
No sé por qué "se tambalean" los fabricantes pero no es por eso.