369 meneos
9349 clics

Arquitectura x86, una historia imprescindible de la informática

Conocer la arquitectura x86 es conocer la base de los procesadores de la todavía breve historia de la informática. Se cuentan por millones los procesadores vendidos a lo largo de la historia que la implementan, y además ha sido una arquitectura que dio pié al éxito de compañías como Microsoft e Intel así como al concepto de ordenador personal. x86 es un hito tecnológico que merece la pena ser analizado y estudiado con gran profundidad.
etiquetas: intel, procesador, arquitectura, informática
usuarios: 181   anónimos: 188   negativos: 0  
75comentarios mnm karma: 442
#1   Un buen repaso inicial divulgativo.
votos: 4    karma: 54
 *   alt alt
#2   Para mí lo que es imprescindible e infravalorado en la historia d ela informática es la arquitectura ARM.

Impresoras, lavadoras, microondas, televisores, routers... Estamos rodeados de ellos
votos: 4    karma: 42
#23   #7 MMX sólo funcionaba con números enteros, 3DNow! permitió usar "float", que era lo que pedía entonces el mercado, aunque incluso AMD desaconseja ahora su uso (por obsoletas y poco eficientes). Entonces apareció SSE (MMX2), SSE2 y SSE3 de Intel, SSE4 de AMD... y ahora acaba de salir AVX y pronto lo hará AVX2.
Así que para nada están dejando de apostar por ellos, lo que pasa es que no se les da tanta publicidad.
votos: 2    karma: 25
#4   La inexplicable historia del triunfo del CISC.
votos: 8    karma: 84
#10   #4 el procesador de IBM, Cell, que lleva por ejemplo la Ps3 es RISC. Y ARM triunfa aunque lejos del escritorio.
votos: 3    karma: 40
#18   #4 Es que realmente hoy día, y desde al menos el Pentium Pro, se trata de un procesador internamente RISC, con una capa externa de traducción de CISC a RISC. De hecho, el Pentium Pro ha sido uno de los mejores procesadores de Intel. Toda la arquitectura Core está basada es él. Todas las instrucciones x86 se traducen a microinstrucciones internas, más pequeñas y sencillas. Es como un híbrido CISC/RISC. Está claro que toda esa capa de traducción podría estar dedicada a otra cosa si fuera…   » ver todo el comentario
votos: 10    karma: 89
#21   Veo algunas imprecisiones en el artículo.

Para empezar y como dice #18, los procesadores x86 actuales (en realidad x86_64) no son CISC puramente, sino que traducen internamente dichas instrucciones CISC en intrucciones RISC.

Y, en cuanto a las licencias, la empresa que diseñó el actual juego de instrucciones x86_64 no fue Intel, sino AMD (el primer procesador con ella fue el Athlon64).

Por lo demás, está interesante recordar la historia.
votos: 6    karma: 65
#22   #13 No estoy para nada de acuerdo. ¿Que x86 es una chapuza? Sí, y más desde el Pentium 4, que era el plan B en caso de que su flamante arquitectura EPIC (procesadores Itanium) no cuajara. El problema es que, por mucho que lo han intentado, nadie ha conseguido crear una arquitectura que en la práctica dé más potencia de cálculo que los actuales x86. El Itanium fue un desastre y el Itanium 2 casi nadie sabe que existe. Incluso creo que va a ser el último de su familia, por el escaso éxito en…   » ver todo el comentario
votos: 14    karma: 128
#27   Lo curioso de la situación es que las cronologías de los procesadores (me) llevan a comparar momentos distintos:

1) 8080 -> 8088 (PC) -> 8086 -> 80x86 -> x86-64
2) 8080 -> Z80 (Amstrad, Sinclair, ...)
3) 6800 -> 68000 (Atari, Commodore, Apple, ...) -> 68010 -> 68020 -> 68030 -> PowerPC
4) 6800 -> 6502 (Commodore, Apple, ...) -> ARM

Seguimos con las mismas arquitecturas, básicamente, que…   » ver todo el comentario
votos: 4    karma: 26
#29   #27 Bueno, no sé si Intel hizo precio especial a Apple o no, pero los PowerPC consumían y se calentaban más que los Core Duo de Intel y no veían cómo meterlos en un portátil sin que la batería durase un suspiro.

Por lo demás estoy de acuerdo contigo, y es lo que intentaba decir: Intel le ha dedicado tanta I+D (y espionaje, industrial, como comentas) a su arquitectura que ni ellos mismos son capaces de hacer una nueva "limpia" y que rinda mejor. Y el resto de competidores están a años…   » ver todo el comentario
votos: 3    karma: 34
#31   #29 No sé si lo sabes, pero los ARM salieron para sobremesa ;) Además, nada impide a ARM sacar un diseño más potente... y con más consumo. Lo que pasa es que está bastante cómoda sin tener que pelearse por un mercado que, según previsiones, será cada vez menos relevante cuando tiene a otro cada vez más relevante en el bolsillo (en los smartphone reinas de manera indiscutible). Como mucho, igual podrían intentar meter la nariz en las consolas de sobremesa, pero tampoco lo veo claro (desde el punto de vista empresarial).

Eso sí, me encantaría que entraran aunque fuera de puntillas en los de escritorio... pero va a ser que me quedaré con las ganas.
votos: 0    karma: 9
#34   #27 Supongo que acuerdo económico de Apple e Intel hubo, pero eso de que PowerPC sobre pasó a x86 en rendimiento no sé de dónde lo sacas. Apple dejó los PowerPC porque su rendimiento estaba estancado ya desde el G4 y el G5 era un calefactor que obligaba a meter cosas como refrigeración líquida en los sobremesa y que era impensable incorporar a un portátil. Por aquel entonces Apple estaba obligada a poner G4s en los portátiles, que si ya de por si iban cortos en rendimiento más aún por ser de una generación anterior.

#31 Donde están empezando a meterse es en el mercado de servidores. La relación consumo/potencia de los ARM es muy golosa para un CPD.
votos: 3    karma: 37
 *   Xtampa2 Xtampa2
#36   #34 Me refiero a que la queja, de cara a la galería, fue que Motorola no era capaz de sacar un PowerPC a 3GHz (creo recordar esa cifra) y resulta que salió antes el PowerPC a 3Ghz que el Pentium a 3GHz. No digo que no fuera una parrilla ideal para freír salchichas. De hecho, no había caído en lo que dices de los portátiles. Claro, que si lo piensas, Motorola podría haber sacado una versión de bajo consumo (-> menos calor) pero no tenía en aquel momento recursos suficientes para hacer por un lado una versión más potente y por otro una con menos consumo (supongo). Después de todo, en aquel momento casi que tenía sólo a Apple como cliente de los PowerPC.
votos: 0    karma: 9
#75   #36 Fue IBM el que hizo la promesa porque el G5 era cosa suya. Motorola ya se había apeado del consorcio a finales del ciclo del G4, que tampoco evolucionó todo lo bien que se esperaba, por eso Apple tuvo que empezar a meter máquinas con doble procesador. Y el G5 de 3 GHz yo creo que no salió, se anunció pero como Apple decidió cambiar a Intel, fue finalmente cancelado.
votos: 0    karma: 8
#30   #28 Hombre, según tengo entendido (corregidme si me equivoco), la forma de tratar la memoria de x86, por segmentos hasta alcanzar un megabyte, es horrenda. Pero a partir del 386 existe el modo protegido, o modo flat, que permite acceder linealmente a los 4 GB de memoria. Este modo era el que proporcionaba el famoso "cargador" DOS/4GW que llevaban muchos juegos de la época de MSDOS. (Sí, tengo mis añitos). Y por supuesto, también en x86_64.
Edit:
#27 Yo no me acuerdo, jeje. En cuanto al 68000, suscribo lo que dices. Era una arquitectura mucho mejor pensada que la x86.
votos: 2    karma: 26
 *   buloso
#32   #30 Sí, pero después de hacer cagadas en el diseño como olvidarse de poner una instrucción (o un procedimiento rápido) para pasar de modo protegido a modo real en el 286. Tenías que poner un valor concreto en un registro concreto y hacer un reset cada vez que querías ir en esa dirección. De modo real a protegido era mucho más fácil. Supongo que pensaban que nadie querría usar el modo real una vez probaran el protegido... sin tener en cuenta que existía el MS-DOS y era lo más usado. Imagino que esperaban que saliera algún nuevo MS-DOS que trabajara todo el rato en protegido o algo así, porque sino no lo entiendo.
votos: 1    karma: 19
#37   Interesante, desconocía toda esta trama del RISC/CISC, la arquitectura x86 y ARM. Veo que hay expertos por aquí (#13, #22, #27, #30,..).

Según entiendo, ARM es mucho más eficiente enérgeticamente que x86, de hecho en la actualidad muchas maquinas podrían utilizar esto y consumir menos energía (mas duración de la batería, uno de los grandes problemas). Quizás vale la pena perder un poco de potencia de cálculo ganar algo en batería? ¿Tanta es la diferencia?

¿Se prevé un futuro donde ARM tome…   » ver todo el comentario
votos: 1    karma: 19
#44   #38 Teniendo en cuenta que puedes hacer funcionar en un x86/x86-64 juegos que están creados para procesadores 6502, Z80, 68K, 65C816, ARM7, MIPS, PowerPC (Broadway), ... no veo el problema en que los juegos de x86/x86-64 se pudieran utilizar en otra arquitectura.
votos: 0    karma: 9
#48   #44 hombre el problema estaría en que si lo emulas es un bajón de rendimiento o sino tienes que simplemente volver a hacer los juegos
votos: 0    karma: 6
#52   #48 Claro que hay bajada de rendimiento. Hace falta una buena máquina para emular una Wii, pero eso no significa que no sea un equipo normal en poco tiempo. Los juegos actuales se podrían emular a su velocidad en no demasiado tiempo. Además, cualquiera que juega a un juego emulado sabe que no va a ser como el original a menos que sea un juego muy antiguo (10 años o más).

En cuanto a lo de volver a hacer los juegos, no sería algo raro. Eso mismo es lo que pasa con los multiplataforma y nadie se rompe las vestiduras... salvo cuando las versiones van en plan máximo común denominador (se hace para la menos potente y se copia a las demás).
votos: 0    karma: 9
#58   #52 evidentemente se puede hacer, pero es un problema, ellos prefieren dejar las cosas como están y creo que intel es arrastrada por el mercado en el tema de los x86. Por ellos hace tiempo que lo habrían dejado pero es el mercado el que no les deja.
A mi me parecería perfecto lo de borrón y cuenta nueva, total lo de la retrocompatibilidad hoy día vale para más bien poco y en el tema de los juegos no es indispensable, las consolas no han sido siempre retrocompatibles y ahí están. Las aplicaciones de escritorio se saca la ultima versión para la nueva arquitectura y punto. Si hoy dia son todo lenguajes de alto nivel y aplicaciones web que no serían ningún problema.
votos: 1    karma: 15
#47   #37 Bastaría con que dejara de tener tanta importancia Windows. Cualquier otro sistema no tendría demasiado problema en pasar a otra arquitectura. De hecho, quitando Windows y MacOS, casi todos los SSOO son multiplataforma.
votos: 0    karma: 9
#50   #46 Sí pero tiene la ventaja de que te permite usar una aplicación o un juego antiguo sin tener que bajar al trastero a desempolvar un dinosaurio mientras rezas por que siga funcionando. Tener un cacharro distinto para cada cosa además es mucho más desperdicio de potencia por que sólo usas uno a la vez.

De hecho una de las cosas que hace que Linux no triunfe más es el desprecio que hay en general por la compatibilidad. En equipos antiguos siempre pasa algo, actualizar y que por un problema de…   » ver todo el comentario
votos: 0    karma: 7
 *   --151124--
#54   #50 ¿Desprecio por la compatibilidad en Linux? ¿En qué? Funcionan cacharros que en Windows dejaron de funcionar hace una década. Y si te refieres a compatibilidad de los programas, mientras haya actualización de las librerías correspondientes no suele haber problemas.

Por cierto, uso Ubuntu, pero no lo pongas como ejemplo de Linux bien hecho, haz el favor. Sobre todo si te refieres a usarlo con Unity, que será muy bonito, pero de ligero no tiene nada. Otra cosa es si tiras de Lubuntu o Xubuntu, que entonces va más rápido que XP en el mismo equipo.
votos: 2    karma: 26
#65   #54 En linux, a base de muchas distros tienes de todo. Pero la compatibilidad no se respeta tanto como en Windows en una sola, donde además su mero peso en cuota hace a los fabricantes esforzarse más. Por ejemplo, llegó a Menéame una noticia en la que Linus se cabreó por que alguien quería introducir una característica que se cargaba la compatibilidad con algo y dijo que "no importaba".

Claro que en equipos viejos no hay muchas opciones a no ser que quieras usar un Windows…   » ver todo el comentario
votos: 1    karma: 17
 *   --151124--
#66   #65 Hay un punto en el que te contradices: te quejas de que no se respeta la compatibilidad hacia atrás y pones un ejemplo en el que Linus se pilló un cabreo (y muy lógico por su parte) porque un programador estaba emperrado en meter un código en el kernel que se cargaba programas existentes. Incluso llegó a decirle que si había un problema entre los programas existentes y el kernel, por defecto era problema del kernel ¿Dónde ves tú que no se respete la compatibilidad?
votos: 1    karma: 20
#68   #66 En que Linux por sí solo no sirve de mucho, y si bien el Kernel puede ser una maravilla, fuera cada cual hace lo que le da la gana, y en el producto final hay problemas, como en el mencionado Ubuntu.

De todas formas mi punto no era criticar a Linux y su entorno, sino mostrar cómo un sistema que no se reinventa, sino que evoluciona, puede a pesar de ello ser muy eficaz y eficiente gracias a la cantidad de gente que se preocupa de que así sea. La eficiencia energética de Windows 7 está ahí a pesar de ser un sistema pesado que soporta compatibilidad con varios SO anteriores y con características para aprovechar hardware más potente.
votos: 1    karma: 17
#72   #70 wintablet.info/2012/03/%C2%BFpor-que-hay-una-resolucion-minima-en-wind

#65 Instala Powertop, laptop-mode, sdparm, pmtools y jupiter y vuelve a comparar. Y normal que Windows 7 gaste menos, los fabricantes trucan sus portátiles con mierdas de tablas ACPI no compatibles con el standard al igual que hace Apple.

Así cualquiera.
votos: 0    karma: 11
 *   Ander_ Ander_
#73   #72 ¿Algo más tengo que instalar? ¿Si funciona por qué no viene integrado? ¿O es como esas aplicaciones de optimización para Windows que sólo sirven si eres un auténtico zote y tienes el PC a reventar de mierda y si no no hacen más que estorbar?

Ya intentaré probarlas, pero por el momento en portátiles Windows 7 se ha ganado el hueco preferente en el disco duro, sin hacer nada especial ahorra una barbaridad con respecto a XP y Ubuntu.

En cuanto a la resolución, en parte lo entiendo, por lo…   » ver todo el comentario
votos: 1    karma: 17
 *   --151124--
#74   #73 "¿Si funciona por qué no viene integrado? ¿O es como esas aplicaciones de optimización para Windows que sólo sirven si eres un auténtico zote y tienes el PC a reventar de mierda y si no no hacen más que estorbar?"

Se trata de unos ajustes ehchos para mejorar la batería de tu portatil sin levantar o meter mierda para portátiles como hacen en Windows.

Con Powertop y tales herramientas que te he dicho, ahorras más que Windows. Añade TMPFS y en cuanto abras Chrome con 12 pestañas, y…   » ver todo el comentario
votos: 0    karma: 11
 *   Ander_ Ander_
#64   #50 "y si la pantalla tiene poca resolución no hay forma de utilizar sus pantagruélicas e irredimensionables ventanas de configuración."

Eso pasa con Windows 8, imposible meter algo menos que 1024x768. En Linux si se pueden redimensionar, y mover con alt+click aunque no puedas hacer click en el titulo. En Windows, NO.

Si no sabes usar Linux, el problema no está en el PC si no entre el teclado y la silla.

Por cierto en Linux puedo usar hardware antiguo, como sintonizadoras de TV viejas conectadas al VHS o scanners viejos que me prestan. En Windows...

pffffffffffffft. Ni de coña.

Avísame cuando 8 arranque en un i686.
votos: 1    karma: 20
 *   Ander_ Ander_
#70   #64 ¿Menos de 1024 x 768? ¿En serio me estás diciendo que un problema real de Windows 8 es que necesita como mínimo 1024x768 de resolución para funcionar?
votos: 0    karma: 10
#59   Por cierto no podría terminar de opinar en esta noticia sin decir que los procesadores Alpha eran mis preferidos en cuanto a diseño, tan elegantes. No por cualquier cosa eran el ejemplo a seguir en modelos de otras marcas. También se ven al detalle en algunas universidades en las asignaturas de arquitectura de computadores para estudiar predictores de salto y demás historias. -> en.wikipedia.org/wiki/Alpha_21264

#37 Yo diría que los procesadores ARM no tienen mucho que hacer en el…   » ver todo el comentario
votos: 2    karma: 21
#67   Veo mucho aficionado a la arquitectura de ordenadores :-) #13 #14 #18 #22 #25 #27 #35 #37 #59

Tal vez os interese ver fotos de alta resolución de las entrañas de algunos micros en visual6502.org. La he descubierto hoy mismo y ya le estoy dando vueltas a la idea de hacerme algún póster ;)

Os dejo enlaces a varios ejemplos. ¡¡OJO!! Algunos llevan a archivos muy grandes.

MOS Technology’s 6502 CPU (1975) Apple I, II, Commodore PET, C64, Atari 2600 (6507), Atari 400, 800, Nintendo…   » ver todo el comentario
votos: 3    karma: 29
#69   #67 Viendo los mapas se me ha pasado por la cabeza calcular el tamaño que tendría con la tecnología de ahora el 6502... creo que hay granos de arena más grandes xD
votos: 1    karma: 15
#71   #37 La diferencia: www.phoronix.com/scan.php?page=article&item=samsung_exynos5_dual&a

Los procesadores ARM más potentes no tienen nada que hacer con un i7, pero en cambio están a la par de un Atom.
Lo que pasa es que el Atom no obliga a recompilar nada, con lo que parte con ventaja (Un Atom es muy barato y además ya consume poco, menos de 20W a toda potencia). Aún así, puede que ahora que Windows8 ha sido compilado para ARM aparezcan portátiles de gama baja con procesadores…   » ver todo el comentario
votos: 0    karma: 6
#39   #27 el problema es que los x86 siempre han sido 100% compatibles hacia atras y eso es un problema de cara a la evolución. Motorola no hacia eso por ejemplo entre el 68000 y el 68020 y demás desaparecián instruciones y aparecian otras nuevas. Por eso los motorola siempre han sido mucho mejores que los intel mientras se mantuvieron a las mismas velocidades de reloj aunque no 100% compatibles entre si.
No entiendo porque el autor del articulo marca la arquitectura x86 como hito tecnologico cuando…   » ver todo el comentario
votos: 1    karma: 15
#43   #39 Admitida la puntualización sobre los PowerPC y los ColdFire, gracias :-) La verdad es que no me he explicado del todo bien. Me refería a que partiendo de los 68K Motorola avanza hacia los PowerPC (ya sé que es un cruce con la tecnología POWER de IBM), lo mismo que ARM no es una evolución directa del 6502 sino que está muy inspirado en este.
votos: 1    karma: 15
#45   #43 bueno, aún así creo que en su momento aple presiono algo a motorola para que los 68000 fuesen fáciles de emular
en un powerpc y eso acabo influyendoles. De hecho eso solo le importaba a aple ya que comodore ya había dicho que pasaba del powerpc y atari estaba bien muerta en lo que a ordenadores se refiere.
votos: 1    karma: 15
#33   #22 Creo que el bus frontal de Alpha (¿EV6?) fue licenciado por AMD, no copiado. Creo que tenían su licencia y tal...
votos: 1    karma: 16
#28   #18 Exactamente, iba a comentar eso mismo, hablar de las ventajas de CISC es una quimera, porque por debajo todo es RISC. Las instrucciones complejas son muy tentadoras, pero no merecen la pena; claro ahora el coste de la traducción es bajo comparado con el cauce completo y no se nota, pero es rendimiento que se pierde. Y la forma de trabajar con la memoria en x86 tan absurda... En fin, es lo que hace el marketing.
votos: 4    karma: 43
#35   #4 El triunfo de la arquitectura CISC fue más que lógico. Los procesadores se inventaron en una época en que la memoria era muy cara, las desventajas de tener instrucciones de longitud diferente y tiempos de ejecución diferente no competían con la ventaja de tener el código comprimido y usar menos memoria.

Para cuando la memora fue suficientemente barata para que los diseños RISC fueran funcionales y disponibles en el mercado, el IBM-PC ya se había establecido como la norma, acostumbrando a…   » ver todo el comentario
votos: 8    karma: 78
#5   Donde estuvieran los 68000 de motorola... pedazo de procesadores y repertorio de instrucciones.
votos: 4    karma: 39
#49   #5 Sí, pero lentos como ellos solos...

#19 #20 El 80186 se uso muy poco en ordenadores personales, pero se convirtió prácticamente en un estándar para automatismos y sistemas de control.
votos: 0    karma: 11
#51   #49 ¿lentos? ¿a la misma velocidad de reloj? creo que el 68060 a 80 mhz rivaliza en enteros con el pentium a 200 mhz. hay test por ahi. En coma flotante ya eran mejores los pentium. ¿Un 486 a 25 mhz más rápido que un 68040 a la misma velocidad? No estaría yo muy seguro.
votos: 1    karma: 15
#53   #51 No. Yo trabaje con 68040 y 68060 en Amiga y cualquier PC de la misma época le pegaba ostias por todos los lados. Y te hablo de aplicaciones de uso intensivo de CPU: Renders y animaciones.

Por eso cambiamos los Amigas por PC: El tiempo de renderizado era muy inferior y el hardware mucho más barato.
votos: 0    karma: 11
 *   radioman radioman
#55   #53 #51 creo que el 68060 a 80 mhz rivaliza en enteros con el pentium a 200 mhz. hay test por ahi. En coma flotante ya eran mejores los pentium.

Renders y animaciones -> coma flotante a punta pala.
votos: 0    karma: 9
#56   #55 Que no que no, que se de lo que hablo: El software que utilizábamos no usaba coprocesador matemático, de hecho estaba diseñado para el 68EC020 del Amiga 1200. Hasta en enteros eran pateados por Intel. Otra cosa es que te creyeras las comparativas de Motorola que vamos, no podían estar más hinchadas.

Motorola nunca fue bueno haciendo microprocesadores. Hay que admitirlo. Buena arquitectura sobre el papel, pero pésima implementación.
votos: 0    karma: 11
#60   #56 y el sof que usabais para amiga estaba hecho para no usar el copro matematico del 060 y el pc si usaba coma flotante. no parece una comparación muy justa. y seguro que los pcs funcionaban a mas mhz. yo te hablo a igualdad de velocidad de reloj. y no te hablo de los benchs de motorola.Un ejemplo el quake de amiga funcionando en un 040 de 40 mhz. ¿que tal va el quake de pc en un 486 a 40 mhz?
votos: 1    karma: 15
#62   #60 El programa estaba hecho para usar en Amigas 1200, y no utilizaba coprocesador matemático, ya que el 68EC020 no lo tiene (de hecho, hasta el 68040 ningún procesador lo llevaba implementado). Las aceleradoras corrían el mismo software, por lo que tampoco se usaba el coprocesador. Todo era a base de enteros. Luego llegaron los 486, y recuerdo como si fuese ayer cuando probamos el mismo render en un 486SX (sin copro). No había color. ¿Que no iban a la misma velocidad de reloj? Probablemente, pero en un render, el tiempo es dinero y el PC de entonces era infinitamente más barato y rápido. Los Amigas literalmente salieron por la ventana. Bueno no, fueron vendidos a un grupo de "amigueros" por un buen "pico" :-D
votos: 0    karma: 11
#63   #62 ya habia copros para el 68020 externos como en el 386. En eso igual que intel que no lo tuvo interno hasta el 486. El problema fue que los 486 bajaron de precio y los 040 no por un simple tema de "econonomía de escala" no de diseño ni mala implementación. Los amigas salieron por la ventana por otros temas, de hecho el render 3d fue uno de los ultimos nichos de mercado que les quedaron gracias a la calidad de sus programas y a la video toaster. Por eso grandes productoras de cine y…   » ver todo el comentario
votos: 1    karma: 15
 *   --345206--
#61   #56 pero tienes razon en que en precio rendimiento los intel por aquel entonces ya eran mucho mejores. Los 040 erán carisimos
votos: 2    karma: 26
#8   Me acuerdo de esos debates sobre CISC vs RISC y su legión de fans por cada uno, la historia se repite con otras tecnologías. Dentro de unos veinte años en algún foro se hablará de las viejas batallas Windows vs Linux, Android vs iOS, Chrome vs FireFox vs IE vs Opera, y siempre saldrá la persona diciendo "oh, que viejo me siento"
votos: 7    karma: 70
#9   Yo me acuerdo mucho de los procesadores z80 de Amstrad y Sinclair, de los motorola 68000 y de los PowerPC
votos: 4    karma: 45
#12   #9 En un sentido estricto eran de Zilog, los Z80.
votos: 5    karma: 50
#11   El vídeo VHS de la informática.
votos: 7    karma: 70
#13   x86, o cómo conseguir potencia a base de fuerza bruta. Para mí la arquitectura x86 es decente como mucho hasta el 80386. A partir de ahí, está claramente forzada, empezando a conseguir el rendimiento a base de cachés y trucos diversos que no paran hasta los 64 bits, y siempre arrastrando toda la porquería de compatibilidad detrás.

Frente a ella, arquitecturas hermosas como PowerPC o ARM, o cualquier otro RISC. Pero claro, la economía de escala ha conseguido que una arquitectura obsoleta triunfe.
votos: 9    karma: 83
 *   pip pip
#25   #13 interesante, más info por favor.
votos: 1    karma: 18
#41   #13 decente hasta el 386 siendo buenos :-)
votos: 1    karma: 15
#42   #13 ¿"porquería de compatibilidad"?
votos: 0    karma: 7
#46   #42 Porquería porque se arrastran muchas rémoras de hace 30 años. Por poner un ejemplo, el último Core Duo sigue arrancando en modo real por la compatibilidad.
votos: 0    karma: 9
#14   Que tiempos en los que aprendíamos a programar el Z80 en la facultad.
votos: 0    karma: 8
 *   powernergia
#16   #14 y ahora una modificación de los Z80 se usan en reproductores MP3
votos: 1    karma: 17
#15   Y los Amstrad?! Es que ya nadie se acuerda de los Amstrad!!??
votos: 0    karma: 13
#17   Hola, es aquí donde cada uno cuenta cual fue su primer cacharro sin que a nadie le importe?
votos: 9    karma: 28
#40   #17 No, aquí es donde escriben malfollaos, enhorabuena, eres el ganador ;)
votos: 4    karma: 41
#19   ¿Alguien ha visto funcionar el 80186? Yo siempre había considerado que del 8088 pasó al 80286.
votos: 3    karma: 38
#20   #19 es una versión mejorada del 8086 y según la Wikipedia, muy pocos ordenadores llegaron a usarlo en.wikipedia.org/wiki/Intel_80186
votos: 2    karma: 26
pip pip
#24   Una curiosidad que no cita el artículo es que el sucesor del 80486 iba a ser llamado 80586, pero ante la imposibilidad de registrar comercialmente nombres consistentes únicamente por números, en Intel optaron por Pentium. De este modo se quitaron de encima todos los clónicos de AMD y Cyrix que no podrían llamarse ahora 586 y tendrían que esforzarse más en su marketing.
De este modo, los Pentium II se conocen coloquialmente como 686, Pentium 4 como 786... en.wikipedia.org/wiki/80786#Chronology
votos: 3    karma: 32
#26   Creo que se dejan detalles importantes en el tintero como por ejemplo que el 386 fue el primero de ellos en ser de 32bits (lo que ha llegado hasta nuestros tiempos), que el 387 fue el coprocesador matemático que se añadía opcionalmente si querías que las operaciones con coma flotante no fuesen por software y luego se integró en el procesador a partir de los 486DX (similar a lo que veremos con las GPU en breve), que el 286 fue el primero en introducir algo tan importante como el "modo…   » ver todo el comentario
votos: 3    karma: 37
#57   Juer, qué recuerdos trae este diagrama del "fetching" del 8086:img.xataka.com/2013/01/diag-bloques-intel-8086.jpg

A día de hoy me cuesta creer que yo programase en ensamblador usando esos registros (recuerdo sus nombres y todo).
votos: 1    karma: 20
comentarios cerrados

menéame