Actualidad y sociedad
4 meneos
33 clics
Phison sobre NAND Flash: "Habrá una grave escasez por 10 años"

Phison sobre NAND Flash: "Habrá una grave escasez por 10 años"

Justo ayer veíamos cómo OpenAI había firmado el mayor acuerdo de la historia de la DRAM con Samsung y SK Hynix reservando casi la mitad de la capacidad mundial de memoria. Hoy tenemos un nuevo aviso sobre la de escasez de memoria, solo que ahora va enfocado a la flash NAND. Pua Khein-Seng, director ejecutivo de Phison, aseguró recientemente que la falta de suministro, la escasez, no será un bache puntual, sino un problema que podría prolongarse hasta diez años. Una predicción mucho más ambiciosa que la de la mayoría de analistas, ...

| etiquetas: ia , demanda , ram , nand , flash
Nos pasaremos a NOR Flash. :-P

Eso sí, acordaos de que los Flipflops SR van al revés. ;)
#6

O a la JAAARL ...  media
#10: Sí, pero no son de Turing Completo, solo lo son las NOR y las NAND, con ellas puedes hacer cualquier otra puerta lógica, empezando por NOT, que es un NOR o un NAND de una única entrada, y el resto salen por combinaciones.

#8: Yo siempre he pensado también en #Chiquito_de_la_Calzada. xD
#11 Joder se me caen las lagrimitas recordando a este post púber, montando puertas lógicas a partir de componentes discretos y puertas a base de puertas.
#13: Yo de momento solo lo he hecho una vez y por ocio, el resto han sido con el Crocodile Clips. xD
#14 Hice el FP de equipos electrónicos de consumo y todo el segundo año de electrónica digital fue con los entrenadores montando componentes cada vez más complejos a partir de los que habíamos el día anterior.
#6 Yo siempre fui muy fan de las XOR tienen algo especial.
#6 Are you JoKing?

(Si vamos a bajar el listón también podemos tirarlo)
#12: Siempre que leo algo sobre ese flipflop se me carga esta canción en el BrainAmp y empieza a sonar automáticamente: :-P
www.youtube.com/watch?v=XjfjsGCTaO8 #Eurodance JK - You & I (Bliss Team Remix - Full Version)
#16 Doy gracias a mi genética y entorno en tanto que uno prefiere, yo qué sé, MetallicA y otras hierbas por el estilo. Mi más sentido pésame por el fallecimiento de tu gusto musical :-D
En 2022 y 2023, “las grandes nubes” gastaron miles de millones en HBM para entrenar modelos de IA. Esa fase ya está madura y ahora toca monetizar. Y la inferencia masiva necesita almacenamiento nearline, esa categoría intermedia que no es tan rápida como el hot storage ni tan barata como el cold storage, pero resulta crucial para mantener versiones previas de modelos, consultas antiguas o datos de usuarios que no se consultan a diario.

A ver una pregunta tonta, que me estoy metiendo a…   » ver todo el comentario
Y habrá una gran confusión entre las gentes
ahora es cuando dejamos de usar IA
El mercado se regula solo y es gilipollas por naturaleza.
#5 Se regula solo pero no preguntes hacia donde, como o cuales son las consecuencias. Es una afirmacion trampa.
#5

A ver ... tampoco seamos talibanes.

Hay una capacidad de producción y una capacidad de crecimiento. La IA está pidiendo memoria por un tubo, es normal que suba el precio. Pero ojo, que hay cosas que pueden pasar:
- Una frenada en la IA (hace grandes cosas, pero no tantas como la gente cree) y de repente la demanda de congela.
- Una optimización que reduzca la demanda (menos probable, por lo general debería pasar lo contrario, se abarata y se demanda más)

Yo creo que va a pasar lo primero, pero dentro de un año o así.
Total…No hay nada que merezca la pena recordar.

menéame