Hace 15 años | Por lanclot a legox.com
Publicado hace 15 años por lanclot a legox.com

El problema del “muro de la memoria” se debe a la nueva era multicore. El problema surge cuando la ejecución de ancho de banda (es decir, cuando se agrega instrucciones por segundo, través de múltiples hilos y programas) disponibles en una sola toma se ve limitada por la cantidad de memoria de ancho de banda disponible para esa toma. Y esto conlleva a que la memoria tiene que aumentar con el fin de mantener la ejecución. Es decir, el multinúcleo de un computador no puede mantenerse si dichos núcleos no son alimentados con código y datos.

Comentarios

D

La he meneado y ahora pienso que es un error. Es SPAM.

Sandia ha patentado un diseño de memoria con gran ancho de banda (por apilamiento, es patentable ya que ahora se esta usando en la Flash, pero no en la RAM). Pero la dura realidad es que sobra ancho de banda ahora mismo.

Así que crea un artículo donde justifica que su memoria es en lo que hay que invertir.

La verdad es que cada vez es necesario menos ancho de banda, ya que los procesadores llevan más cache y por tanto se necesita acceder menos a la memoria externa.

m

La solucion ya esta inventada http://es.wikipedia.org/wiki/NUMA

y

#4 Ademas bastaria con asignar memoria independiente por grupo de nucleos.
Con esto se doblaria la potencia de la memoria.

Creo que hay muchas mas posibilidades que la que sujiere en el articulo.

r

bueno.. un post interesante... quisas crear mucha tecnologia o el exceso generaria temas como este... algo para pensar

c

Muy interesante la noticia, pues yo que pensaba que un procesador de esa magnitud no tendría ningún tipo de problema, y que sería un súper procesador que quisiéramos poder tener.

g

como siempre unas mejoras estaran en espera , porque la tecnologia puede fallar un dia, pero remediarse rapidamente y ahora que cada vez esperamos asombrarnos que los ordenadores trabajen a velocidades muy indescriptibles

a

Además el articulo está raro, como mal traducido o algo.