Hace 5 años | Por --586160-- a m.xataka.com
Publicado hace 5 años por --586160-- a m.xataka.com

La Ley de Moore se nos queda corta ante una CPU de tal magnitud, y de hecho apenas sí hemos llegado a contar con procesadores de 5 GHz y llevamos años anclados en esos límites. Así pues, ¿es la CPU a un terahercio posible? Lo cierto es que sí. Durante cierto tiempo la batalla por los "megahercios" dominó la industria del PC. En aquellos tiempos AMD incluso logró ganarle a Intel en la particular carrera por llegar a ofrecer una CPU a 1 GHz, y las mejoras en este ámbito eran constantes.

Comentarios

Conde_Lito

#5 He entrado a poner lo mismo, que la noticia es mentira, el mío va a 0.00401 Thz lol

inar

#16 "Luego vino el Java de los cojones, a cargárselo todo..."

"Todos tenemos un Ferrari espacial en el garaje, que usamos para ir a comprar el pan"

lol lol lol

borteixo

#20 de nodejs mejor no hablamos.

C

#22 Especialmente ahora que les ha dado por la gilipollez de decir que la terminología "maestro - esclavo" es ofensiva.

gonas

#22 se te olvida el php.

frankiegth

#16. El verdadero problema de Java se llama Oracle.

l

#24 Perdona que discrepe, pero Java es en su mismo origen un paso atrás en la programación:
- Que el programador no tenga que gestionar y liberar la memoria = malos programadores
- Que el código se ejecute en cualquier máquina siendo el mismo = mala eficiencia

Java no fue un paso adelante, no aportó nada que no existiera antes, simplemente estropeó dos asuntos que eran serios. De hecho, no empezó a ser útil hasta que el hardware no fue capaz de mover con soltura su máquina virtual, que era un monstruo engorroso devorador de recursos (lo sigue siendo, pero hoy en día es que hay tantos recursos... que no se nota).

frankiegth

#54. Perdona que discrepe yo también. Java está pensado para resolver problemas desde un punto abstracto y del mundo real. Otros lenguajes como el Ansi C están pensados para hablar lo más directamente al hardware que un compilador universal como el Ansi C permite con la complejidad añadida en cuanto programación que ello conlleva y con las ventajas evidentes en cuanto a rendimiento con un código correcto y optimizado. El C++ pretende ser un paso entre ambos mundos. Se trata de elegir lo que más convenga para cada problema.

Como bien apuntas con el hardware actual (incluso con máquinas PCs decentes de hace 10 años) y con una programación correcta y optimizada en Java se pueden conseguir auténticas virgerias como emuladores de mítico Commodore 64 y otras máquinas en tiempo real.
(CC #24)
http://www.z64k.com/

frankiegth

(Edit #55 #24) Para #54 Quise decir : 'auténticas virguerías'.

t

#54 Que el programador tenga que gestionar y liberar la memoria el mismo = más cuelgues por todas partes ante el más mínimo descuido
Que el código se ejecute en cualquier máquina siendo el mismo = mucho más tiempo para programar funcionalidades reales, en vez de pasarse el día reescribiendo el código para diferentes arquitecturas

Todo es relativo. Y, de hecho, en determinadas situaciones el código Java puede ser más rápido que el compilado, básicamente porque la máquina virtual compila al momento y puede aprovechar todas las características de la CPU en la que se ejecute, mientras que el código muchas veces se compila para una CPU "conservadora" que funcione en cualquier CPU, y por tanto no aprovecha las extensiones que pueda tener un procesador concreto.

t

#16 Pues tendríamos programas eficientísimos, que sólo funcionarían en el i5 en el que los has diseñado. ¿Quieres usarlo en un i3? Uy, no se puede, porque le faltan tres instrucciones especiales que sólo tiene el i5. ¿Y aprovechas las características de un i7? Uy, no, porque entonces no funcionaría en un i5. Y espera, que dentro de tres meses sale la siguiente generación de i3/i5/i7, y va a haber que reescribir todo el código. ¿AMD? Uf, no, ahí no funcionan, tienen instrucciones diferentes.

Espera, ¿y si programamos las cosas un pelín a más alto nivel, y que sea el compilador el que se encargue de traducir a las instrucciones de cada procesador en concreto? ¿Y si ya puestos lo hacemos en abstracto, y así el mismo código se puede ejecutar en cualquier máquina, independientemente de la arquitectura? No, hombre, que entonces acabamos con el java de los cojones, cargándoselo todo

x

Y si los tuviéramos, estarían ejecutando NOPs esperando a la memoria.

D

#44

Esa es una pregunta increiblemente profunda. Tan profunda que me pregunto si la has hecho al tuntun, o sabes muy bien lo que estás preguntando, por que has dado en el clavo de la pregunta del siglo

Es decir, el calor que se genera en un conductor cuando pasa una corriente electrica por el es algo que sabemos que sucede por que lo hemos observado. Pero contestar al por que pasa es mucho mas complicado. La explicación de los electrones chocando se llama modelo de Drude, y no es mas que la explicación mas razonable dado el modelo de la física clásica.

En realidad, hay otras explicaciones de por que esto pasa, en la mecánica cuantica. De hecho, si aceptas teoría de cuerdas, esto está pasando por una razón muy distinta. Y si aceptas teoría de automatas de Hooft, esto pasa al final por otras razones muy muy distintas.

Pero, alguien podría argumentar que si bien distintos modelos para explicar la realidad tienen reglas esenciales distintas, el fenomeno en si tiene una explicación concreta, y que lo que cambia si cambiamos de modelo no es la explicación del fenomeno en si, sino explicaciones mas profundas.

Pero, el problema es que la pregunta que has hecho no es baladí, has preguntado si el comportamiento del sistema en si es probabilístico o es determinista. Es decir, independientemente del ejecto joule en si, si el funacionamiento final y ultimo va a ser probabilistico o determinista.

Y aquí nadie se pone de acuerdo.

Existen distintas interpretaciones para expresar este tipo de fenomenos a bajo nivel, y la mas extendida es la interpretación de copenague:

https://en.wikipedia.org/wiki/Copenhagen_interpretation

El axioma fundamental de la interpretación de Copenhague es el "postulado de la cuántica" que dice que los acontecimientos subatómicos son sólo perceptibles como transiciones indeterministas físicamente discontinuas entre estados estacionarios discretos. Varias consecuencias se deducen de este postulado de la discontinuidad física impredecible.

Es decir, esta interpretación dice que el universo no es determinista y que es una máquina de probabilidades.

Eso es algo que no fué aceptado por muchos, como Einstein, que decía que dios no juega a los dados. Muchas cientificos pensaban que si tu ves un fenomeno como probabilistico, es por que te falta una variable, la famosa "hidden variable".

Esta gente que veía un problema en entender el universo como una máquina probabilística, y veían problemas en la mecánica cuantica. propusieron un experimento que provoca una paradoja: (EPR paradox)

A Albert Einstein, y a muchos otros científicos, la idea del entrelazamiento cuántico les resultaba extremadamente perturbadora, ya que violaban el principio de localidad. Esta particular característica de la mecánica cuántica permite preparar estados de dos o más partículas en los cuales es imposible obtener información útil sobre el estado total del sistema haciendo sólo mediciones sobre una de las partículas. Por otro lado, en un estado entrelazado, manipulando una de las partículas, se puede modificar el estado total. Es decir, operando sobre una de las partículas se puede modificar el estado de la otra a distancia de manera instantánea. Esto habla de una correlación entre las dos partículas que no tiene lugar en el mundo de nuestras experiencias cotidianas.

El experimento planteado por EPR consiste en dos partículas que interactuaron en el pasado y que quedan en un estado entrelazado. Dos observadores reciben cada una de las partículas. Si un observador mide la inercia de una de ellas, sabe cuál es la inercia de la otra. Si mide la posición, gracias al entrelazamiento cuántico y al principio de incertidumbre, puede saber la posición de la otra partícula de forma instantánea, lo que contradice el sentido común.

La paradoja EPR está en contradicción con la teoría de la relatividad, ya que aparentemente se transmite información de forma instantánea entre las dos partículas.2 De acuerdo a EPR, esta teoría predice un fenómeno (el de la acción a distancia instantánea) pero no permite hacer predicciones deterministas sobre él; por lo tanto, la mecánica cuántica es una teoría incompleta.

Esta paradoja (aunque, en realidad, es más una crítica que una paradoja), critica dos conceptos cruciales: la no localidad de la mecánica cuántica (es decir, la posibilidad de acción a distancia) y el problema de la medición. En la física clásica, medir un sistema, es poner de manifiesto propiedades que se encontraban presentes en el mismo, es decir, que es una operación determinista. En mecánica cuántica, constituye un error asumir esto último. El sistema va a cambiar de forma incontrolable durante el proceso de medición, y solamente podemos calcular las probabilidades de obtener un resultado u otro.


Luego, vino un señor llamado Bell y a través de la lógica, demostró que era imposible explicar esos fenomenos usando una variable oculta:

https://es.wikipedia.org/wiki/Teorema_de_Bell

El razonamiento de Bell es demoledor, y te recomiendo leerlo, está explicado en el aparato "Introducción" del enlace que acabo de pegar de la wikipedia.

Entonces, esto demuestra que la mecanica cuantica es la mejor predicción que tenemos del universo, y que la fisica clásica no puede predecir correctamente ciertos fenomenos.

Aún y así, eso no es cierto del todo, hay una manera de escapar de esto y es a través del determinismo total. Es decir, si el universo es una maquina completamente determinista, Alicia y bob no pueden escoger los angulos de sus mediciones de forma libre, sino que ellos mismos forman parte de un complejo sistema determinista que les ha forzado en todo momento a poner los angulos de las mediciones de una forma concreta.

Esta visión explicaría la paradoja EPR desde la física clásica y sin recurrir a probabilidades. La explicación mas potente de esto en mi opinion es la de Hooft:

https://arxiv.org/abs/1405.1548

Joder, pensaba condensar esto mucho mas, me ha quedado una respuesta infumable y además me he dejado la mitad de cosas en el tintero.

En fin, que la física actual no tiene capacidad para contestar a tu pregunta, y que la respueta hoy en día va a depender de que interpretación de la mecánica cuantica aceptes tu, filosoficamente.

Ahora en serio, esto lo has preguntado por que tu ya sabías todo esto, verdad? Yo creo que nos has trolleado a todos, con la mejor pregunta posible sobre este asunto.

Nathaniel.Maris

#45 Todo esto tengo que leermelo con calma. Que no me esperaba ese nivel de respuesta, ahora me siento un ignorante en mayúsculas.
Y la respuesta es no, era una pregunta desde la ignorancia.

Por cierto, gracias por la respuesta.

Nathaniel.Maris

#45 Vale, ya lo he leído todo, muchísimas gracias por instruirme de esa manera, más de la mitad de las cosas no las he entendido, supongo que por mi bajo nivel de matemáticas, pero me queda claro que la respuesta a mi pregunta es puramente teórica ya que físicamente si se produce calor al encender un microprocesador.
O sea, que conocemos las consecuencias pero no el proceso a nivel atómico.

Con overclock y un poco de calorcito es fácil saltarse los terahercios y llegar al petahercio

t

#11 Sí, te aseguro que si subes mucho llegan a petar fijo.

albandy

#3 peniflores

Nathaniel.Maris

¡Han puesto la palabra grafeno en el artículo! ¡Procesadores de grafeno!

o

#1 todo es mejor con bluetooth grafeno

gonas

#1 se tardo 20 años para conseguir resutados con el silicio y otros 20 para popularizarse. El grafeno seguro que tarda menos, pero va a tardar.

R

#33 Por desgracia, para la generación de twitter todo lo que tarde más de 3 meses en anunciar fecha de salida es humo.

o

bufff algunas veces, las simplificaciones rozan la mentira, de este artículo me ha dolido especialmente esta:

Cuantos más transistores, más pequeños son y más electricidad pierden, lo que hace difícil aumentar las frecuencias de reloj.

¡Perder electricidad!

D

#4 Eso tenía entendido, buena explicaciòn!

mahuer

#4 el problema no son los conductores, sino los semiconductores. Las corrientes y la tensión limitan la velocidad de conmutación, por debajo de cierto límite, los estados se confunden con ruido y por encima generan mucho calor.
También está el problema del tamaño del canal, que es lo que limita la integración.
Además, los electrones no se "mueven" por el conductor.

D

#9

Por pasos... la parte mas fácil de contestar:

Además, los electrones no se "mueven" por el conductor.

Si, si se mueven por el conductor. La electricidad consiste en electrones que se mueven de atomo en atomo.

D

#15 en realidad no se desplazan más allá de unos pocos átomos, hacen una cadena de huecos simplemente.

editado:
por supuesto se están moviendo todo el tiempo. Me refiero a que una corriente no implica un movimiento de todos los electrones de A a B.

Edit2: joder lo dices en #18, pido disculpas

ur_quan_master

#15 no es lo mismo enlaces metálicos que de valencia.

D

#9 me acabo de dar cuenta que quizás lo que has pensado es que yo he sugerido que un electrón entraba por una punta del conductor y salía por la otra. Eso no es lo que sucede, de hecho los electrones se mueven muy lentos. Nos parece que van rápido que están muy cerca unos de otros y reaccionan en cadena, empujando cada uno al de su lado (de nuevo, una simplificación).

mahuer

#18 Pues sí, lo que se mueve a 2/3 c es el potencial eléctrico, los electrones lo hacen a 1mm/s sólamente, así que en el caso de la ac no hay desplazamiento neto.

D

#27 no hay desplazamiento neto por que van adelante y hacía atrás lol

Pero obviamente que ha habido desplazamiento, sino, no habría electricidad.

D

#12

Mover los huecos y electrones de un estado al otro requiere tiempo y eso es lo que marca la frecuencia

No, solo es el calor lo que marca la frecuencia. Hay un reloj de cuarzo que marca el ritmo al que se usa el circuito para que no se queme. Ese reloj vibra al ritmo que ese circuito puede soportar con la disipación realista que se le puede hacer.

De momento no hemos llegado al punto en el que tenemos una limitación física por el tiempo de una reacción. Tenemos una limitación física por la cantidad de energía que podemos disipar, nada mas.

Te recomiendo leer:

https://www.quora.com/Electrical-Engineering-Is-the-switching-speed-of-a-transistor-the-limiting-factor-of-a-CPUs-speed

Currently, the limiting factor on transistor switching speed is thermal energy that must be dissipated. The thermal energy is primarily due to current supplied to a capacitative load, which increases with switching speed. This is mitigated by using smaller conductors and a lower operating voltage.

El que está confundiendo causa con efecto creo que eres tú.

Esa reacción requiere un tiempo, por que de hacerla con mas energía, no podríamos disipar su calor. Solución? hacemos el circuíto mas pequeño, el transistor transiciona con menos energía. El limite de esto? el tercer postulado de la mecanica cuantica.

Es decir, tu ordenador no va mas rápido por que no podemos disipar el calor tan rápido sin que rompa el circuito. Y no podemos usar menos electrones que una cantidad determinada, donde empezar a medir las cosas es imposible.

Obviamente, existen muchos otros problemas de ingeniería que aparecerían a frequencias mas altas, en eso si estamos 100% de acuerdo. Pero hoy, el factor que limita la velocidad de tu cpu es la capacidad de disipar el calor que se ha generado en un circuito, como consecuencia de las ostias que se han pegado unos electrones. Y eso, es lo que he explicado en mi simplificación y considero que es 100% válida, dentro de la precisión de una simplificación.

s

#17 Justamente, la carga capacitiva es debida al campo interno creado en ambas lados de la barrera, cuanto menos campo (mas pequeño) reordenación mas rápida. Justo eso lo continúan en la siguiente explicación del enlace que has puesto.
El calor generado por la reordenación es un efecto secundario de los choques al reorganizarse el campo, el tope es la velocidad con que se realiza esa ordenacion, a menos electrones y huecos necesarios para reordenar el campo, menos tiempo se necesita para reorganizarse y menos colisiones por lo que menos temperatura generada.

Si bajamos la temperatura habrá menos colisiones pero en cualquier caso tenemos que mover esas cargas y eso no es instantáneo, menos en un semiconductor.

Cuando digo "Mover los huecos y electrones de un estado al otro requiere tiempo y eso es lo que marca la frecuencia" me refiero a la frecuencia máxima a la que el semiconductor alcanzara el equilibrio y por lo tanto la puerta lógica que lo use un valor valido, no del funcionamiento basico de un componente digital.

Creo que por eso no estamos de acuerdo, tu estas mirando la limitación desde el punto de vista de una arquitectura electrónica, que tienes que mantener una temperatura para que se mantenga operativo y yo desde el punto de vista físico de cual es el limite cuantico de funcionamiento del semiconductor. Yo creo que es mas "causa" la limitacion cuantica de funcionamiento, no de de diseño, pero es como lo veo yo.

Esa reacción requiere un tiempo, por que de hacerla con mas energía, no podríamos disipar su calor. Solución? hacemos el circuíto mas pequeño, el transistor transiciona con menos energía. El limite de esto? el tercer postulado de la mecanica cuantica.

Por cierto, te refieres al tercer postulado de termodinámica no al de medición de cuántica, ¿no? Si te refieres al de cuántica no veo en que se relaciona, si es al de termodinámica el problema seria que si afirmas eso no habría cambio de estado, necesitas energía para cambiar el campo y bloquear o dejar pasar la corriente,

Justo por eso digo que la raíz es la transición no el problema térmico, el limite lo pone la necesidad de esa transición y el tiempo que lleva. Por mucho que disipes esa reordenacion de electrones y huecos llevara tiempo porque no se teletransportan, incluso en una conducción imaginaria perfecta sin disipacion porque no hay choques.

D

#28 Obviamente que vamos a estar de acuerdo en que esa reacción lleva tiempo, pero lo que te pretendo explicar es que ese tiempo no es el factor que nos está limitando hoy. Si, llegará un día que eso será el limite. Ese día no ha llegado, por que antes de llegar a ese problema tenemos muchos otros problemas.

El primer problema que ya nos ha frenado ha sido que mucho antes de alcanzar los limites de velocidad de transición del transistor, hemos alcanzado los limites de nuestra capacidad de disipar el calor que se ha generado por llevarle las cargas al transistor para crear el campo, además del calor que se ha generado cuando las cargas han pasado por el semiconductor en su estado de conductor, que aun y así, es una mierda de conductor y genera mucho calor por ejecto joule.

Entonces, si, el limite teorico de una computadora electrica de lógica booleana es el ritmo de transición del transistor. Pero ese limite en el año 2018 aún está lejos. De momento nuestro problemas mas grande es el calor por ejecto joule.

Y si, me refería al tercer postulado de la mecánica cuantica, que es lo que nos va a complicar la vida de intentar observar cosas demasiado pequeñas.

s

#37
Obviamente que vamos a estar de acuerdo en que esa reacción lleva tiempo, pero lo que te pretendo explicar es que ese tiempo no es el factor que nos está limitando hoy. Si, llegará un día que eso será el limite. Ese día no ha llegado, por que antes de llegar a ese problema tenemos muchos otros problemas..

Ya tenemos transistores de 7 átomos, esos no están limitados por colisiones evidentemente, están limitados por la transición del campo y por su estabilidad al hacerlos en gran escala.

Intel tiene una propuesta de procesadores en los que la frecuencia puede subir increíblemente, porque el resultado no es 100% fiable. Esto ocurre porque la unión pn puede verse afectada por interferencias. Estos procesadores tendrían menor tamaño por lo que serian mucho mas susceptibles a interferencias. Una interferencia podría hacer saltar un electrón que a esos tamaños podría cambiar el campo de la unión pn y el resultado de la puerta.

Y si, me refería al tercer postulado de la mecánica cuántica, que es lo que nos va a complicar la vida de intentar observar cosas demasiado pequeñas.

El problema no seria que sea demasiado pequeña o su medición, seria su estabilidad. El campo esta totalmente definido, pero un cuanto suelto por ahí, podría hacer saltar un electrón que podría provocar un cambio del campo y hacer que una pn que no conduce conduzca, y cambiamos el resultado de la puerta.

El efecto cuántico que nos limita es el efecto túnel.

Entiendo tu punto de vista, pero creo que ahora somos esclavos de los limites físicos de los átomos y los electrones de los semiconductores, no los térmicos por sus colisiones.

D

#4 y los retrasos, a esas velocidades de reloj la velocidad de propagación de la luz es demasiado lenta, no se puede garantizar la sincronización de las señales

EmuAGR

#19 En alta frecuencia se imponen límites en el tamaño de los circuitos, es decir, la distancia al generador de reloj. Eso ya se tiene en cuenta al diseñar.

D

#46 pero en analógico diseñas funciones de transferencia conocidas y se pueden dimensionar esos desfases, no?

EmuAGR

#51 En analógico no hay señal de reloj. La señal de reloj sirve para sincronizar los circuitos digitales y que la salida no produzca glitches.

gonas

#2 #4 hay un simil, que aunque también es impreciso,creo que se entiende mejor. Si consideramos un transistor como un depósito de electrones, y la velocidad del procesador depende de la velocidad a la que se llena el transistor de electrones. Hay dos formas de llenarlos más rápidos, subir el voltaje o hacerlos más pequeños.

D

#30 wow, ese es un simil muy bueno! Pero no es incompatible con mi explicación, de hecho, es complementaria. Por que alguien me dirá: pues subimos el voltaje. Y no podemos subir el voltaje por el maldito efecto joule. Y no podemos hacerlos mas pequeños por que fabricar cosas tan pequeñas es un problema, además de que teoricamente hay un limite de hacerlas pequeñas, por que el mundo se comporta de formas muy raras cuando las cosas son demasiado pequeñas.

Priorat

#4 Por no decir que el efecto es exponencial, porque cuanto más calor en el conductor más probabilidades de chocar y generar más calor.

D

#35 cierto, lo daba por hecho en las formulas pero no había racionalizado la explicación simple. Claro, al estar caliente el conductor está vibrando, lo cual todavía incrementa mas la probabilidad de choque.

Priorat

#39 Has definido lo que muchas veces es un problema de la Universidad.

Dangi

#4 A mi me sorprende que no se hable de la electroerosion, algo muy importante cuando quieres hacer transistores mas pequeños y rapidos

Nathaniel.Maris

#4 Desde la ignorancia te pregunto, acabas de decir que al moverse los electrones tienen ciertas posibilidades de chocar y generar calor, ¿eso tiene algo que ver con la transacción en si? O sea, ¿si la transacción sale bien a la primera no chocan y si hay que repetirla si lo hace?
La pregunta más bien es, ¿Si tengo un trebol de 7 hojas y una suerte del copón, podría darse el caso de que durante 3 segundos no chocara ningún electrón dentro del procesador y no se generara calor, o es físicamente imposible?
Aunque no lo parezca es una pregunta seria.

Acido

#44

"¿Si tengo un trebol de 7 hojas y una suerte del copón, podría darse el caso de que durante 3 segundos no chocara ningún electrón dentro del procesador y no se generara calor, o es físicamente imposible?"

Vamos a hacer un pequeño cálculo.

Los procesadores actuales van típicamente a 1 GHz o más... Eso significa 1000 millones de ciclos por segundo.
Por tanto, en 3 segundos serían 3000 millones de ciclos.

Cada ciclo sería un mínimo tiempo, algo así como el tiempo que dura un "semáforo" en el tráfico de electrones, como si fuesen coches circulando.

Pero el procesador tiene muchos transistores, muchos "semáforos" en el símil del tránstito de coches. Concretamente, del orden de miles de millones de transistores por los que van circulando los electrones.
Esto significa que en 3 segundos hay 3000 000 000 de ciclos, y en cada ciclo más de 1000 000 000 de "viajes" de electrones. Esto serían 3*10^18 "viajes" en 3 segundos. Pero no hay un electron en cada transistor... con el tamaño de transistores actual, que creo que todavía tienen más de 100 átomos cada uno, serían bastantes más de 3*10^20 electrones que han circulado en 3 segundos.

Lo que has preguntado, para que te hagas una idea, es similar a decir que si es posible que 100 mil millones de coches circulen encontrándose unos 100 en cada semáforo y que después de pasar 3000 millones de semáforos no haya ningún despieste, ningún choque, ningún pequeño roce. Bueno, en teoría quizá sí, pero en la práctica creo que te puedes hacer una idea de que es muy improbable.
Si cada semáforo dura un minuto, esos 3000 millones de 'semáforos' serían unos 5700 años. Que después de haber circulado 5700 años unos 100 000 millones de coches no haya ni un solo accidente...
La probabilidad de que ocurriese eso es ridículamente pequeña. Y esto en la "práctica", en lenguaje llano se dice "eso no va a ocurrir"... Como si dijeses que si puede tocarte la lotería primitiva 1000 veces seguidas, o algo así... eso no va a ocurrirte, aunque lo intentases durante 13000 millones de años, que se estima como la 'edad del universo'.
Aunque para un matemático o purista podría decir que, bueno, totalmente totalmente imposible no sería en teoría.

Nathaniel.Maris

#47 Muchas gracias por la respuesta. Me queda más claro que el problema es de magnitudes enormes en vez de "suerte".

d

#2 Se refiere al las fugas en dieléctrico que generan calor aparte de la propia conmutación del transistores añade la impedancia/resistencia de las pistas y tendrás fiestas montada ,luego esta las capacidades y tamaño de las puertas de los transistores actúan de barrera en la propia conmutación como mencionan en el articulo.
De todas se tiran a la piscina con grafeno cuando hay alternativas mejores de implementar y dejar este para pistas conductoras y que ya se están usado como germanio, galio y su derivados.

D

#2 Se refiere a las pérdidas de corriente hacia el sustrato. Por eso se desarrollaron tecnologías de fabricación como SOI: https://es.wikipedia.org/wiki/Silicio_sobre_aislante

e.kit

El futuro de la computación está en el procesamiento en paralelo.
Tenemos que aprender mucho de la naturaleza. La información circula por un cerebro a una velocidad bajísima en comparación con nuestra informática actual. Si embargo el enorme paralelismo (y muchas otras cosas que seguro que desconocemos) nos permiten realizar tareas que ningún ordenador puede llevar a cabo actualmente, y además con un consumo de sólo unos 20 vatios.

La actual inteligencia artificial ya utiliza el procesamiento en paralelo, con miles de procesadores entrenando redes neuronales, pero ahí no está la solución. La verdadera inteligencia artificial surgirá de conocer los principios de funcionamiento de un cerebro. Poner nuestras esperanzas en el simple aumento de la potencia computacional es un callejón sin salida
https://m.xataka.com/componentes/nunca-hemos-llegado-a-tener-procesadores-terahercios-estas-razones

cocainomano

XATAKABASURA y sus articulos de mierda clickbait