Hace 7 años | Por --471299-- a technologyreview.es
Publicado hace 7 años por --471299-- a technologyreview.es

Es imposible seguir encogiendo los chips al ritmo de antes, así que la industria necesita encontrar otras vías de mejorar la potencia computacional, que llegará a afectar a los smartphones en unos años.Dentro de un par de años, puede que las empresas tecnológicas tengan que trabajar mucho más duro para proporcionarnos nuevos casos de uso para los ordenadores. La continua acumulación de cada vez más transistores de silicio en los chips, conocida como la ley de Moore, ha sido la materia prima de la exhuberante innovación en la computación.

Comentarios

D

#13 Joer, ¿a ti te enseñaron factoriales en EGB? ¿Y se les olvidó decirte que es notación y no anotación? Las cosas cambian que es una barbaridad.

D

#29 Yo estudié la EGB en INGLÉS.

Solo había 2 colegios en España por aquel entonces. Hice Selectividad y IB, un sistema que los ingleses aceptan como alternativa a los A'levels, pues está basado directamente en ellos.

P.D. Gracias por llegar donde no llega mi corrector ortográfico libre y abierto. kiss

D

#32 No problem bro.

powernergia

#13 Creo que es "notación", sin la "a".

http://dle.rae.es/?id=Qe0rxfE

Vale no había leído a #29 y tu explicación en #32

powernergia

#40 Ya, lo estaba editando justo antes de llegar tu comentario.

D

#29 Pues yo tenía una profe de la optativa "Informática" y nos enseñó a programar, y ahí aprendí lo que era un factorial, en 2o ESO. Luego ya no lo he visto nunca, y eso que hice el bachiller científico y estudio Finanzas.

D

#9 cualquier excusa es buena pa soltar el rollo

Lugia

#16 sorry x el negatifo

D

#18 la última vez empezaron a meter núcleos a los procesadores. ahora que quiten la fpu pa ahorrar espacio

n

#3 Cierto. Cuando sea muy costoso aumentar la potencia bruta de procesamiento la industria tendra que seguir el camino de la optimizacion. O que llegue una revolucion al estilo de #1

Pentium-ll

#4 Son dos "ligas" distintas creo, la supercomputación y los dispositivos de consumo. Obviamente en la supercomputación no hay Sistemas operativos "mierder" como dicen por aquí aunque supongo que siempre se puede avanzar en software eficiente que no necesariamente requiera mayor potencia de proceso sinó menor.

D

#7 tu lo de entender cuando alguien hace una broma ya tal..

m

#1: ¿Y si lo ponemos bien, con exclamación de apertura? ¡9! #troll

En la Rusia soviética intentaron un sistema de ¡3! valores: -1, 0 y 1.

D

#11 La lógica borrosa lleva inventada cincuenta años.

sagnus

#1 No se si lo has dicho en serio, o es una coña, pero la computación cuántica no funciona así. Según lo que estudié hace algún tiempo, y si no recuerdo mal, de momento hay una manera de enviar de una sola tacada el doble de información (el equivalente a 2 bits) usando el fenómeno del entrelazamiento cuántico. No es tan fácil como usar "varios estados", puesto que estos varios estados (que no son varios, en todo caso son infinitos) no son deterministas y su uso depende más bien de los observadores y sus ejes.

Es una tecnología demasiado verde y, por desgracia, los "divulgadores" a veces cometen tantas imprecisiones que hacen creer a la gente cosas que no son. La computación cuántica servirá para realizar algoritmos con un nivel menor de complejidad al que corresponde con el uso de la computación clásica. Pero esos algoritmos, muchos tienen que ser descubiertos, y ya veremos cuántos de ellos se usarán a nivel doméstico (de forma directa).

D

#24 Querido Sagnus, la fina ironía con la que terminé el comentario era una invitación para que me corrigieran. ¡Gracias! ¡Ya estabas tardando!

Hay mucha peña que se resiste a aceptar el principio de incertidumbre de Heissengberg en su forma extendida: que la partícula SOLO adquiere la propiedad de lugar cuando se la observa. Einstein dedicó el resto de su carrera a buscar una manera de evitar la incertidumbre con una teoría unificada. Por otro lado tienes la idea de universos paralelos que justo pretende atacar ese bloque mental con la idea de que si hay una propiedad de lugar, pero lo que no sabemos es cual de ellos estamos mirando.

Por mi parte, cuando a la ciencia se le cierra una puerta, suele abrir otra. En los años 20 las energía nuclear era imposible, hasta que a uno se le ocurrió que con la fusión de Uranio se producen tres neutrones que sirven para iniciar otras 3 reacciones nucleares (dicho pronto y mal, por un economista).

Un cordial saludo

M

#1 Andas un poco liado, si tienes 300k estados se supone que la representación distinta de cada uno de esos estados es más "costosa" de interpretar o comunicar. De hecho creo recordar que la base numérica optima era el número e (2.7...) más próximo al binario que por ejemplo al decimal.

D

#42 ¿Qué esperas de un economista? kiss

P.D. Explayate un poco please roll

M

#44 Intuitivamente es que si tienes muchos posibles valores como base numérica te salen números con menos cifras, pero tienes que manejar un mayor número de símbolos . El más eficiente seria en el que el producto de la longitud por el de símbolos (base) fuera menor, y eso se consigue con el número e (aunque en la práctica al no ser un número entero no resultaria sencillo de utilizar).

Aqui lo explican más formalmente: http://www.i-ciencias.com/pregunta/11528/cual-es-el-mas-eficiente-sistema-numerico-de-base

D

#50 te pregunto desde la ignorancia
¿no se supone que cuanto mayor es la base, es decir mas simbolos usamos, la representacion ocuparìa menos espacio porque utilizariamos menos cifras(o digitos no se si esta bien dicho aqui)
por ejemplo un numero en hexadecimal siempre se representara con menos simbolos (cifras) que en binario.

M

#77 Claro, pero no siempre el código más eficiente es el más corto. El tener muchos simbolos va añadiendo más dificultad.

Te pongo un ejemplo fuera de las matemáticas, ¿que te parece más eficiente la escritura occidental donde las palabras se forman con un número limitado de símbolos (las letras del abecedario) o la escritura kanji japonesa donde casi cada palabra se representa con un símbolo distinto? Seguramente los mensajes sean más cortos en japonés, pero tienen tal cantidad de símbolos y tienen que ser tan complejos que lo hacen menos eficiente.

javi_ch

#1 Necesitamos realmente tanta capacidad?

D

#48 ¿Tenemos Holodecks en casa?

supercomputacion-ya-sufre-efectos-fin-ley-moore-mit-technology/c023#c-23

Hace 7 años | Por --471299-- a technologyreview.es


Estoy estrenando una TV 4K y la gráfica es nueva y sufre. Si queremos una realidad virtual en condiciones hace falta dispositivos que manejen imagenes con la calidad de nuestra vista.

Piensa que video solo es 24 imagenes por segundo. La realidad virtual la estamos empezando a saborear. Me siento como un frances a mediados del S.XIX esperando que los hermanos Lumierè aparezcan en escena.

javi_ch

#49 mmm... yo propondría hacer un alto en el camino, arreglaría un poco el mundo, y luego a la VR y al resto. No tiene sentido alguno seguir creciendo sin control.

D

#53 Crecer es un problema de ricos. Cuando la gente se moría de miseria por no tener lo básico, la justicia era material.

Ahora que tenemos riqueza, es cuando te olvidas de lo que vivieron nuestros abuelos: EL HAMBRE.

Soy un científico, lucho contra la mayoría necia por mi libertad para crear una realidad donde la necedad no sea un virtud.

Work in Progress, quizás dentro de otros 2 siglos, que la mayoría a nuestro alrededor es muy magufa, intolerante y totalitaria.

javi_ch

#54 nunca me olvido de lo que vivieron nuestros abuelos ni me olvido de lo que está viviendo actualmente más de la mitad de la población mundial.

Crecer en si no es un problema. No solamente se puede crecer materialmente. El problema es cuando se crece en detrimento de los más desfavorecidos, como suele ocurrir.

Gramos

#1 La computacion cuantica solo añade un estado mas no 0 1 2 3 4 5 6 7 8 9 ahi te has equivocado futuro economista

D

#51 ¿Solo uno? ¿Y si miran el spin del electrón?

Me parece que me adelante votándote positivo, eres mas ignorante que yo

"A quantum computer maintains a sequence of qubits. A single qubit can represent a one, a zero, or any quantum superposition of those two qubit states; a pair of qubits can be in any quantum superposition of 4 states, and three qubits in any superposition of 8 states."

https://en.wikipedia.org/wiki/Quantum_computing

Gramos

#52 Eso es solo teoria sin demostrar, lo que se ha demostrado hasta ahora y se a conseguido hacer funcionar en laboratorio son 3 estados, osea uno mas que el actual que ya de por si multiplica muchisimo las combinaciones. A ver si resulta que yo sin buscar nada en internet se mas que tu listillo de google.


Fdo: Un informatico exiliado en UK

D

#55 Ok, pero ten en cuenta que justo estamos hablando de lo que no es y puede ser.

Mira #1 y fijate en el lenguaje que he usado: "Esa es la promesa se la computación cuántica".

Como castigo, te tomas media pinta de Guinnes a mi salud. Espero que luego puedas llegar a fin de mes

sauron34_1

#1 no se usan mas valores, porque al ser uno de ellos apagado, es dificil de confundir entre el 0 y el 1, pero si pones varios, cada uno con diferentes valores de vatios, es fácil que se confundan entre ellos.

D

#1 los rusos ya lo intentaron usando un sistema ternario, en la época de antes de los transistores y el silicio.
Dudo mucho que se pueda hacer con silicio, solo puede ser hay señal o no, no se pueden ni medir ni regular los voltajes dentro de un chip es un 0 o es un uno, no hay más mientras usemos silico

joeelgordo

jajaja,yo sigo pensando lo mismo que hace años, exceptuando para algunas cosas que requieres mas potencia, el resto de tareas realizadas con un PC no necesitan de tantísima potencia, pero claro la aparición de sistemas mierder, que requieren altísimos consumos de CPU y memoria nos ha obligado a ir renovando la tecnología. Cuando se estanque y evolucione a menor ritmo, no les quedará mas cojones que hacer las cosas mejor.... o quizás nos metan mas mierda quien sabe....
No necesito que mi móvil tenga 3569 procesadores , si no que le dure la batería y que sea fácil de usar...

Nathaniel.Maris

#3 ¡Como los iPhone!

Ranma12

Llevo desde mediados de los noventa leyendo la misma noticia cada tres o cuatro años.

A

Si no te va con una CPU mete otra hasta que la cosa vaya como toca. Si algo nos ha enseñado java, nodejs y demás es que los problemas se solucionan echando más hardware al problema y tan contentos oiga

D

La cuestión es, ¿hace falta seguir mejorando la potencia de supercomputación y de la computación para uso doméstico? ¿Neceistamos móviles y portátiles con 384000 nucleos de procesamiento? El estancamiento se veía venir, intel ya lo estaba demostrando en sus familias de procesadores (que casualmente se centraron más en aumentar el ahorro energético que en más potencia bruta).

Y para un centro de supercomputación, meter más equipos para aumentar la potencia de procesamiento no es un enorme problema. El problema estaría en que para meter más potencia en un móvil, el móvil debería ser más grande, y nadie necesita hoy por hoy tener 18 nucleos en un móvil, ni ahora ni nunca. Van a tener que innovar por otro lado.

D

#19 El tema es que antes cada vez mejoraban en potencia ademas de en otros aspectos, casi cada año se duplicaba, antes era un pentium 100, luego un 133, luego un 200, 500... Pero lleva años que esta estancado y lo que hacen es poner mas nucleos.

D

#21 Como que no los últimos procesos de 16nm han permitido ver gpus a 2ghz en cpu's 4ghz sin que se disparen las temperaturas.

D

#21 Bueno, los GHz no se pueden subir más por tema de temperatura, para pasar de 4 GHz necesitas refrigeración líquida u otro sistema de refrigeración sofisticado que es económicamente inviable. En ese punto llegaron los núcleos, ya que si no puedes meter 1 procesador de 8 GHz, pues metemos 4 nucleos a 3 GHz (p.ej.) y algo se le acercará en rendimiento. Y como dice #25 ahora incorporan GPUs con frecuencias elevadas sin disparar la temperatura, tener la gráfica integrada por defecto fue una gran mejora para los que no exigían muchos recursos gráficos.

En fin, los fabricantes de procesadores han sabido mejorarlos y mucho, y entre otras cosas gracias a la ley de Moore, pero el chollo se acaba y en el futuro van a tener que buscar otras maneras de aumentar rendimiento. Pero contradiciendo un poco al artículo, no se acaba el mundo ni van a dejar de fabricar procesadores, simplemente se estancan ligeramente. Como dice el refrán, "todo lo que sube, baja".

D

#68 yo me apuesto a que muchas cosas que se han ido intengrando en la cpu que antes estaban fuera como controladores de memoria, la fpu, y últimamente la gpu tendrán que ir saliendo para dejar sitio.

D

#81 Puede, pero si salen para dejar sitio siempre habrá que ubicarlos en otra parte de la placa, y al final estamos en las mismas, porque si la cuestión solo se centra en miniaturizar, ¿por que no fabrican procesadores del doble de tamaño con los mismos nanómetros? Total si se trata de espacio, con la miniaturización que han sufrido las placas en estas última décadas, sacrificar unos centímetros más a cambio de más procesador no debería ser un problema, ¿no?

D

#86 estaremos como antes, antes la fpu era un chip aparte y podria volver a serlo, lo mismo para las gpus. Si quieres una fpu tendras que pagarla, esto lo digo en el caso de que ya no puedan seguir bajando la integracion que es algo que cojo con pinzas.

D

#25 los 3,8 ghz los daba el pentium 4, un aumento del 10% en el mejor de los casos en 8 años. si a ti eso te parece que las velocidades de reloj no se han estancado...
como dice #21 han metido más núcleos y tambien se ha mejorado el rendimiento por ciclo. y lo que tu dices del calor no es en todas las cpus solo en las pensadas para ello, las de gama alta siguen siendo cafeteras que consumen como un pentium 4

D

#80 No se han estancado solo es una apariencia de ello el ipc por núcleo es la prueba de ello aparte de buses y caches mas rápidas.
En gpu este ultimo salto a sido brutal 1Ghz a 2 Ghz.

D

#21 lo de los nucleos fue porque no pueden pasar de 4-5 ghz facilmente. toparon con el calor y la inestabilidad pero siguieron aumentando el numero de transistores igualmente ahora lo que parece pasar es que si no consiguen bajar el nivel de integración en los chips no podrán meter más núcleos en el mismo tamaño.

D

#19 ¿Nunca? ¡Quiero mi holodeck particular!

Necesito unas gafas VR con resolución de unos 100Mpixels (debatible), que parece será suficiente para no distinguir una imagen bien hecha, de la realidad.

NapalMe

#23 El problema no es la resolución, sino el espacio entre pixels, al tener la pantalla pegada a los ojos, con una lente que aumenta los pixels, se distingue el espacio entre ellos y pierde un poco el "realismo"

D

#30 Puse "debatible" justo porque me estaba dejando muchas cosas en el tintero.

Estas hablando de "resolución angular": https://en.wikipedia.org/wiki/Angular_resolution

Hablar de Kg y libras no es el problema, sino no saber que ambas miden lo mismo, la masa.

con 100Mpx, por mucho aumento que tenga la lente NO ves el espacio entre pixels, y seguramente no veamos ni los pixels roll

D

#23 Si, las gafas de "realidad" virtual estan tan lejos de conseguir acercarse a la realidad como el 3D de los cines para la gente que usamos gafas. Pero bueno, siempre estará el gaming que las comprará junto a su gráfica de 1200 €, y dirá que son una pasada.

D

#67 Mi gráfica es de 150€ y mi VR de 15€, y son "una pasada".

Solo eres un borrego sin criterio que piensa que todos son como el.

En la mayoría de los casos, aciertas kiss

D

#92 Cuéntame más roll

D

#94 Tell me more! Tell me more!

Ujuju... Aja..!!

luiggi

Creo que está entrando fuerte un cambio de paradigma. La potencia máxima que vamos a necesitar en nuestro equipo personal es la mínima para mostrar en pantalla nuestro sistema.

¿A qué me refiero? A qué bastará con que tengamos una conexión a internet de baja latencia y con el suficiente ancho de banda como para enviar lo que necesitamos ver en el monitor (fullhd, 4k ...) porque el proceso puede darse en superservidores remotos. Y ahí hay mucha más facilidad para crecer en potencia. El ancho de banda ya la tenemos de sobra (se puede ver netflix en 4k con una conexión desde 15mb), falta mejorar la latencia. Pero estoy convencido que hacía ahí apunta el futuro del "procesador" ...

prejudice

#47 Eso ya está ocurriendo mas o menos con el auge de las aplicaciones web vs las aplicaciones nativas.
No obstante podría significar un paso mas hacía la perdida de privacidad. (Bueno siempre queda la posibilidad de que los superservidores remotos sean de tu propiedad, y solo tu puedas acceder a ellos)

e

#47 Entonces según tu, el futuro es volver atrás, cuando solo se disponía de un terminal y te conectabas al mainframe para ejecutar lo que deseabas. Hacer lo que dices te convierte en dependiente de la nube y de 3 o 4 monopolios a nivel mundial. Además tu terminal tendría un tiempo de vida util impuesta por el mercado, si mañana dijeran todos los sistemas de procesamiento que necesitan unos terminales con mas potencia o mayor resolución tendrías que cambiar el dispositivo si o si. Además de la privacidad, tendrías que enviar los datos en crudo para que te los devuelvan procesados.
Vamos el sueño el espionaje industrial o de los grande monopolios donde tu posible competencia te daría sus datos para que los compilaras o procesaras.....

luiggi

#63 No digo que sea la panacea, pero es la tendencia, y si la mayoría del mundo ha ignorado lo denunciado por Snowden siendo tan grave, la verdad es que no dudo que se impondrá.

e

#72 Es que eso es lo que "algunos" están intentando vender desde hace ya unos cuantos años, en españa los mas famosos son los "paquitos" de AOL que fueron lanzados sobre los 2000. Fallo por que tanto el terminal como las conexiones de la eran una mierda pinchada en un palo. Recuerdo (tal cual venia de fábrica) lo limitado que estaba y que todo iba por AOL y que durante los 2 primeros años no lo podías "tunear" por que invalidaba la garantía.
De las peores experiencias con un equipo informático de mi vida, volver a eso o a algo parecido sería convertirse en la "putita" del proveedor.
Llevan muchos años intentándolo, cuando lo consigan mejor apagar e irse, lo que creían que microsoft o google hacía monopolio lo fliparian.

luiggi

#73 conocí el Internet de AOL y coincido contigo. Frustrante.

e

#74 En mi caso lo contrato un amigo, pero en esa época yo era el "amigo informatico" por lo que me toco configurarselo. Al final conseguimos invalidar el contrato por que era incapaz de conectarse, de media hora a una hora para conectarse y luego constantes caídas(supongo que la instalación del cobre también afecto que era del año de matusalen). A los 2 meses le conseguí un pentium 166 mmx con 32mb de ram y un modem interno de segunda mano y poco mas que alucino, tuve que tocarle un poco la tolerancia a fallos del modem para que funcionara fluido pero conseguimos conexiones a la primera e incluso descargas a cierta velocidad, incluso en aquella época le instale mame y alucino con los juegos.
Aquí sigo viendo a los "paquitos" en ciertas autoescuelas que los debieron comprar a un precio ridiculo y aprovecharon para "informatizar".

umgul79

Precisamente (https://www.linkedin.com/pulse/el-futuro-está-en-la-nube-jordi-figueras-casas), un tema interesante. Sobre todo porque habrá que ver el posicionamiento de las grandes corporaciones al respecto. Pienso como #47.

peperojoizquierdo

Cortos de miras todos aquellos que dicen eso de un PC doméstico / móvil no necesitan más potencia. Yo quiero mi propia singularidad tecnológica.

S

mientras tanto:

H

#36 Las GPUs tienen un rendimiento FLOP/W mucho mas alto que una CPU (lo que las hace perfectas para computación), y a diferencia de las CPUs los gráficos es un workload totalmente paralelo ya que dibujar un pixel(i,j) es totalmente independiente de dibujar el pixel (i+1,j) con lo que para incrementar el rendimiento solo tienen que duplicar las unidades de cómputo y ya esta (sin pasarse en consumo). Lo mismo pasa con CUDA, donde el framework es escalable.

Y mientras en el mundo de la CPU... 🐢🐢

LarryWalters

¿exhuberante? wall

D

Ahora los procesadores evolucionan en la dirección del rendimiento energético mas que la potencia de cálculo.
Aunque Moore solo hablaba de número de transistores.

a

Con empezar a usar arquitectuea nueva y no el 30 años de parche de Intel la cosa solo por quitarse lastre ya avanzaba, sino mirad ARM

e

#20 Hombre ARM no empezó precisamente ayer https://es.wikipedia.org/wiki/Arquitectura_ARM#Historia , si hubiera triunfado en los equipos personales en lugar de la arquitectura X86(estamos hablando del 83, en esa época hubiera sido factible) a saber que monstruosidades nos podríamos encontrar en la actual arquitectura arm para sostener la retrocompatibilidad o aumentar la potencia según tus usuarios requerían.
ARM no es la panacea si no que se oriento de otra forma y ahora ha llegado un momento en el que gracias a los smartphones y las inversiones que se están haciendo esta convergiendo en potencia y usabilidad con la infraestructura X86, pero en gran parte es culpa de intel el principal fabricante de esta estructura que ha orientado su fabriación a meter núcleos y potencia y a ignorado la cuota de mercado que estaba tomando ARM, hasta que ha llegado al punto donde ha fabricantes chinos que te hacen un SoC basado en ARM totalmente factible para multiproposito por un tercio de le que vale un procesador X86 básico. Aquí la cuestión ademas del consumo ha sido el precio que es increiblemente económico.

D

#20 eso no tiene que ver con la ley de moore que habla de numero de transistores y velocidades de reloj.

De todas formas , y mira que yo siempre eche pestes de x86 por gastar recursos en mantener la compatibilidad, hoy día ya da igual
la arquitectura x86 ya no existe como tal en los chips solo es traducida internamente es como un risc, no se desaprovecha espacio para instrucciones complejas rara vez usadas estas son emuladas(o mas bien desglosadas) por un microcontrolador en el propio chip. yo miro a intel y arm y veo que arm lo único que ha ganado es cuota de mercado, en rendimiento intel ha avanzado muchisimo mas. Un acorn con arm daba vueltas en circulo sobre un pc x86 en los 90, hoy un pc con arm sería mas lento que un x86 de esto se deduce que en rendimiento puro los x86 han avanzado mucho mas que los arm.

a

#82 Si es relevante porque hay margen de mejora lo que da tiempo a seguir evolucionando en ese margen y no en la minituarización

D

#84 pues hoy dia x86 no tiene rival en precio /rendimiento. todos los super procesasores risc DEC/Alpha etc han pasado a segundo plano o desaparecido directamente.

a

#89 ARM es RISC... La idea sería volver a hacer un CISC de cero como fue el Itanium en su dia, que además era nativo a 64 BITs. Claro, volver a re-compilarlo todo para eso, difícil, pero vamos, hay margen.

D

#90 y ARM es irrelevante cuando hablamos de "superprocesadores". La epoca en que risc le sacaba los colores a los x86 paso hace mucho, es a eso a lo que me refiero.
Además la distincion cisc , risc ya está obsoleta. El powerpc era un risc de nombre con la cantidad de instrucciones que le fueron añadiendo se alejo de la filosofia risc. Y los cisc como tal ya no existen desde que amd y despues intel comenzaron a decodificar las instruciones cisc en risc en sus procesadores.

briarreos

Los transistores no se pueden hacer más pequeños pero, pregunta de lego: ¿Qué impide hacer los chips más grandes? Poco me importa si el chip de mi ordenador mide 3x3 cms. o 7x7. En un móvil vale, pero tampoco es que el tamaño del chip sea mucho en relación al del trasto.
¿?

D

#43 No se trata del tamaño de los chips, se trata de la distancia entre transistores.

Si tienes transistores que ocupan menos espacio la electricidad tiene que viajar distancias mas pequeñas con lo que la eficiencia aumenta, cuando se trata de eso, de poco sirve hacer chips mas grandes.

briarreos

#45 lo pillo. Muchas gracias, en serio... me parecía curioso, y ya había dicho que era un lego en el tema

H

#43 #45 Es una combinación de varios factores:

- Fabricar chips con mayor area es mas costoso (debido a que el tamaño de una oblea es fijo, si tienes chips con mas area, salen menos chips por oblea, con lo que cada chip es mas caro) $$ --> productos mas caros
- Problemas de disipación W/cm^2 Si el chip crece mucho puede ser difícil enfriarlo
- Mayores distancias a atravesar -> mayores latencias -> tiempo de ciclo menor --> frecuencia menor (aunque esto se puede solucionar haciendo el core pequeño y replicandolo metiendo varios)

PD: Un programa puede estar limitado por capacidad de computo o por ancho de memoria. Y debido a un factor histórico llamado el "Memory Wall" donde la diferencia en rendimiento entre la DRAM y la CPU es cada año mayor, cada vez es menos importante tener una buena CPU, y más, tener una buena jerarquia de memoria.

e

#43 El tamaño del chip es un factor clave en el diseño desde diferentes puntos de vista. Primero el económico, cuanto mas grande sea el chip menos piezas sacas por oblea, por tanto más caro le resulta a la empresa que los diseña (que muchas veces es diferente a la empresa que los fabrica). Además el empaquetado se vuelve mas caro ,etc. Luego está el diseño , si tenemos chips muy grandes se disipará más potencia, lo cual hace que se caliente el dispositivo y tenemos efectos de electromigración entre otros, lo cual no es lo mas optimo porque al final el chip acabará "quemándose" o no funcionando como nosotros queremos. Como bien dice #45 , intentamos poner los transistores lo más cerca unos de los otros, así podemos aumentar la frecuencia de funcionamiento, además intentamos que no hayan retrasos significativos entre señales de los mismos bloques (ROMs,RAMs,registros,etc.)- imaginate que en un bus de acceso a una memoria las señales no llegan al mismo tiempo , esto hará que la memoria no funcione. A estos niveles tan pequeños los "cablecillos" que utilizamos para unir los transistores varían sus propiedades físicas (resistencia y capacidad) con la longitud y anchura del mismo, haciendo más difícil la ecualización de las señales que viajan dentro del chip. Por tanto nos gusta tenerlo todo bien juntito

No se si ve algo en la imagen qeu subo , pero esto es un chip en el que estamos trabajando ahora mismo son aproximadamente 4x4mm . Y cada rectangulo es una memoria. Es mas o menos para que te hagas una idea de lo que hay dentro de estos bichos.

haprendiz

¿¿Y el grafeno, es que nadie piensa en el grafeno?? Menéame, no te reconozco.

b

A ver si con un poco de suerte atacan el problema de la velocidad de lectura del disco duro y entrada salida que suene ser el cuello botella.

Y siempre nos queda la esperanza de la Computación cuántica aunque esté un poco verde

o

Tranquilos, IBM ya tiene prototipos de procesadores de grafeno a 0.5 THz

stigma1987

"Probablemente el móvil tiene un margen de una o dos generaciones", sugiere Wenisch.

Es decir, dos años

D

estoy hablando del reloj de la cpu no los buses ni las gpus y aún asi si se han estancado que mas prueba quieres si antes cada 36 meses se duplicaba la velocidad de reloj y ahora en 8 años no hemos pasado de los 4 ghz

D

Ahora entiendo lo de los móviles cada día más tochos jijiji