Hace 3 años | Por parrita710 a fudzilla.com
Publicado hace 3 años por parrita710 a fudzilla.com

"Con la CPU AMD EPYC hemos sido capaces de mostrar más de un Terabit por segundo de datos sostenidos que fluyen de los servidores durante días. Lograr esto en un solo servidor en lugar de requerir una superordenador, como fue el caso en el pasado, es un avance significativo", dijo Niko Neufeld, líder del proyecto del CERN. En español: https://www.profesionalreview.com/2020/06/25/amd-trabaja-cern-expansion-lhc/

Comentarios

johel

Hubiese sido interesante citar de que maquinas venian y que otrsa opciones habian valorado

johel

#5 Oh, genial. Tremenda paliza rendimiento/precio que aumenta segun modelos, incluso incluyen las vulnerabilidades a las que amd no esta expuestos.

box3d

#5 CERN. Manda huevos.

editado:
"First new high performance series of server CPUs offered by AMD since 2012"
Uff, eso tiene que doler, que te digan "no has sacado nada decente en 8 años" aunque se estén redimiendo por la puerta grande.

j

#36 Si cambia, es por la denominación de marketing, basicamente, los intel a 14 nm tienen un nodo estándar de 13 nm. Los Intel de 10 nm, tienen un nodo estandar de 9,5 nm y sus 7 nanómetros tendrán 5,9 nm de nodo.

Los 14 nanómetros de samsung o GFO tienen un nodo de 17 nm

Los 7 nm de TSMC tienen un nodo real de 9,2 nm, o sea, serían equivalentes a los 10 nm de intel. (https://www.geeknetic.es/Editorial/1406/La-realidad-sobre-los-nanometros-en-procesos-de-fabricacion-de-CPUs-y-GPUs.html)

Aún así, Intel está teniendo problemas para sacar procesadores de alto rendimiento a 10 nm (solo consiguen con foveros, en chips de 5 núcleos con cores combinados para bajo consumo), así que AMD les está comiendo la tostada y con mucho mérito la verdad (y menos mal, porque hacía falta algo de competencia)

En procesadores de portátiles, la diferencia es abismal ahora mismo, el Core i7-10750H es lo mismo que el 9750H y que el 8750H en rendimiento basicamente, llevan 3 generaciones vendiendo lo mismo con pequeñas variaciones de mhz. Los ryzen 4800H los superan por más del 50% y con menos consumo..., en rendimiento multi
-hilo y también en single-core.

m

#37 gracias por la info. Desde luego, dormirse en los laureles le va a salir muy caro a Intel, no sólo por perder a Apple, sino porque en servidores su oferta ni le tose a AMD.

meneandro

#25 #25 SÍ.

https://wiki.ubuntu.com/SecurityTeam/KnowledgeBase/SpectreAndMeltdown/MitigationControls

Los microcódigos son "pequeñas instrucciones que se ejecutan cuando se ejecuta una instrucción". Si no lo sabes, las arquitecturas modernas x86 (a partir del 486 en adelante, si no recuerdo mal) no son CISC sino RISC. Así, cada instrucción del juego de instrucciones de las CPUs de Intel o AMD se reduce a microinstrucciones, que son las que realmente se ejecutan. La parte interesante es que pueden actualizarse, no sólo vía flash sino durante la carga del sistema operativo. Muchas mitigaciones se han realizado en plan "cambiamos ligeramente cómo se ejecuta una instrucción"; el problema es que el hardware es hardware, puedes meter microinstrucciones por medio o cambiar algún paso en la ejecución de una instrucción, pero luego viene lo que está fijo y si hay fallo ahí, el fallo seguirá estando. Evidentemente, por eso se llaman mitigaciones (no arreglan nada, dificultan lo máximo posible el poder explotar el fallo que existe).

Una vez dicho todo esto ¿puedes cargar ficheros de microinstrucciones antiguos "para evitar las mitigaciones"? la respuesta sigue siendo sí. Otra cosa es dónde encontrarlos (hasta donde yo sé, hay repos con los últimos, pero no sé si tienen historial).

https://www.pcsuggest.com/update-cpu-microcode-in-linux/

https://downloadcenter.intel.com/product/873/Processors

Por otro lado, las mitigaciones de BIOS... ¿te refieres a microcódigo? porque a nivel de BIOS en placa y demás no entiendo que puedas mitigar nada (como mucho, desactivar por defecto el uso de hyper-threading). Igualmente, si tienes la BIOS correspondiente, puedes actualizarla (con el software para hacerlo que provea el fabricante de la placa).

m

EPYC win. lol

pawer13

#11 también hay que decir que eso es a causa de que Intel fabrica sus chips y AMD tiene externalizada la fabricación, apenas hay 3 empresas (fraguas, las llaman) que puedan crear chips de 7 o menos nanómetros. Intel solía ir a la cabeza en integración pero se atascó tanto en los 14nm que el resto los ha pasado y ahora están pensando seriamente en externalizar también

meneandro

#18 Si y no. Las mitigaciones afectan un buen montón (hasta un 20% o más dependiendo del modelo), pero con el tiempo se han ido optimizando mucho (y se han ido actualizando las microoperaciones del microprocesador para corregir ciertos comportamientos puntuales) y al final la pérdida de rendimiento no es tanta actualmente. El problema es que siguen apareciendo formas de explotar los problemas y las mitigaciones cada vez son más complejas y grandes, así que la pérdida de rendimiento seguirá estando ahí y quizá se acentúe con el tiempo.

Evidentemente, también depende mucho del modelo. Quizá el que tengas tú no pierda apenas nada con las mitigaciones.

r

#24 Una pregunta que me he estado haciendo...

Es posible desactivar mitigaciones en Linux con una linea en el GRUB, pero eso solo desactiva mitigaciones del kernel/SO, ¿no?
Las mitigaciones del microcodigo de Intel y las de la BIOS seguirían activas, ¿no?

sillycon

#24 Tanto malo es el asunto de los exploits que no cesan que Intel ya no es un candidato válido para sistemas de alta seguridad.

meneandro

#29 Y lo que es peor, Intel aún no ha tenido tiempo de encontrar y reparar los problemas de su arquitectura (en sus últimos procesadores dicen que han metido mitigaciones en el hardware... mitigaciones) y no parece que vayan a cambiarla a corto plazo (sólo presentar nuevos productos para poder hacer frente a AMD).

j

#39 Si, pero es eso, un 8%... lo que pasa es que subir de 1% a 8% es una subida muy alta, pero siguen teniendo muy poca cuota. Lo que está claro es que lo están haciendo muy bien (en servidores especialmente) y es de esperar que en los próximos años el porcentaje sea mucho mayor

D

#18 Afecta a la ejecucion paralela.

r

AMD se está comiendo el mercado de los servidores, pero Intel aun tiene muchisima influencia en sobremesas y portátiles. Con lo bien que se está portando AMD, espero que consiga una cuota importante permanentemente y haya una competencia sana en el mercado.

Por mi parte, pronto tendré que renovar mi portatil (se cae a pedazos, LITERALMENTE) y me gustaría coger uno con un Ryzen 7 4xxx potente, pero casi no hay ninguno... he visto Ryzen 3xxx, pero hay un salto importante de rendimiento y consumo (y nanometros) entre generaciones y prefiero la nueva)

meneandro

#19 El control que tiene Intel sobre los OEMs es lo que impide que AMD tenga más pujanza. Cosas del tipo: si me compras tantos millones de chips te hago ciertas rebajas o te doy preferencia para tales y cuales pedidos (si tú tienes un gran número de cpus intel de última generación y tu competencia no, tienes ventajas comerciales para ciertos productos), si me ayudas a sacar stock de tal o cual te rebajo en ciertas gamas de productos, etc) hace que sea muy complicado entrar en ciertos nichos de mercado (es complicado encontrar portátiles con AMD, y mucho más aún en gamas medias y altas; encontrar portátiles para trabajar con especificaciones buenas... sólo ahora algunos modelos muy concretos y siempre encuentras equivalentes con intel en más variedad de precios y gamas incluso dentro del mismo modelo).

j

#19 De hecho es al reves, AMD aun tiene una cuota muy baja en servidores, pero en Sobremesa está subiendo mucho, y en portátiles, vistos los resultados de los 4800H y demás, no debería tardar mucho (le dan por todos lados a los core-i7-10750h por ejemplo)

Ahora hay ya varios portátiles con ellos (el ASUS g14 con los HS que rinden muy parecido y con 10W menos), el tuf A15, MSI también tiene...

Mi proximo portátil tendrá uno de eso casi seguro.

D

Aquí un feliz usuario de Ryzen 3600X . Creo que tengo procesador para 10 años. Me sobra potencia por todas partes.

sillycon

#16 Y hay que añadir que también hay bastante márketing en el asunto. Por lo visto los 14nm de Intel son 12nm reales y los 7nm de AMD son 9nm reales, o algo así.

m

#30 en espacio tal vez sea equivalente a 12nm, pero en consumo no creo, si no recuerdo mal eso es porque los transistores de Intel están más juntos, pero entiendo que el consumo de los mismos será el de 14nm igualmente, porque el tamaño de los transitores no cambia.

arawaco

Muy bien, al parecer AMD viene saliendo del regazo de INTEL. Es reconocible el cambio de paradigma que hizo hace unos años.

arawaco

#2 Chévere lo de AMD, porque la competencia hace que la tecnología se mueva.

Cesc_

#7 Sí, si se tienen que poner mucho las pilas para alcanzar a AMD, y más con la catarata de vulnerabilidades que no hacen más que restar rendimiento en Intel.

r

#9 ¿Realmente los parches y mitigaciones de Intel han reducido tanto el rendimiento en juegos?

Pensaba que mayormente perjudicaba tareas de server, como bases de datos, y afectaban poco a juegos.

El unico ejemplo de juegos que se me ocurre es el de RPCS3, el emulador de PS3, pero al ser un emulador de una arquitectura rara es un caso especial.

R

#7 Ryzen 1700, sobrado.

r

#7 De hecho, esos i3 pueden darte problemas para jugar, desde hace un par de años ya hay algunos juegos que pueden pedir más de 4 hilos según que partes (por ejemplo, Assassin Creed Odissey) y luego están los DRM y anticheats cada vez más agresivos y traga-recursos como los de Denuvo...

Eso es la situación actual, y dentro de medio año, cuando salgan las consolas de nueva generación con 16 hilos, los requisitos mínimos se dispararán y los i3 de 10ª gen no podrán mover más que indies.

D

#2 Bueno, no hay que ver sólo maldad, si no también la incapacidad de intel de bajar de los 14nm, mientras AMD ya está en los 7nm y muy probablemente 5nm en los Ryzen 5000 (aunque hay rumores de que podrían emplearlos ya en los ryzen 4000 a finales de año).

m

#11 también hay que decir que los 7nm de AMD no son mérito de AMD, sino de TSMC, que son quienes fabrican las CPUs. Hace muchos años que AMD no tiene fábricas, y las que tenía, Globalfoundries, están totalmente desfasadas a día de hoy. Que Intel la ha cagado en ese aspecto también es bien cierto.

sillycon

#23 La nueva presidenta es un puto genio y AMD se está quedando con todo el mercado. Ni más ni menos.

meneandro

#31 No sé si lo es o no, creo que la coyuntura está siendo favorable a AMD (del mismo modo que anteriormente no lo fue) y que se han tomado decisiones acertadas. Date cuenta de que en otro momento, la salida de los ryzen hubiera sido una metedura de pata (¿recuerdas todos los problemas iniciales con las memorias y demás?) y quieras que no, que la arquitectura de AMD sea más coherente y haya sido menos afectada por spectres y demás también ha ayudado.

Pero creo que lo que realmente les ha ayudado es el ofrecerse a realizar arquitecturas "custom" a terceros (lo que ha propiciado que fueran los elegidos para las consolas de la actual y nueva generación más gamecube y wii, lo que ha propiciado contratos jugosos de colaboración con china (https://en.wikipedia.org/wiki/AMD%E2%80%93Chinese_joint_venture), esos ingresos son los que han ayudado a meter dinero para poder avanzar y poder cumplir plazos y previsiones y dar garantías sobre sus productos. Y todo esto se fraguó antes de Lisa Su (que esta haya sabido tomar las riendas y dirigir bien el negocio tiene su mérito también y no se lo quito, cualquier paso en falso, cuando AMD llevaba muchísimos años sin obtener beneficios y demás).

También te digo que el que Intel esté débil (en cierto sentido, sigue teniendo muchísimas más ganancias que AMD) y buscando mercados y salidas ayuda también a buscar alternativas. Y ahora mismo, la empresa de confianza es AMD.

D

#23 La jugada que le salió remadamente mal a AMD fue más bien el pensar que todos los cálculos en coma flotante los realizaría la GPU, mediante GPGPU (https://en.wikipedia.org/wiki/General-purpose_computing_on_graphics_processing_units), mientras que los de enteros quedarían relegados al procesador. En aquella época AMD apostó todo a esa carta.

Empezó a lanzar sus APUs pensando precisamente en esto. Estas APUs en realidad no eran más que CPUs con gráficos integrados bastante potentes. Al menos, lo eran en relación con los integrados de su competencia. Además de, lógicamente, tener gráficos mejores para juegos, la idea era disponer de una GPU que, aun siendo de gama baja, era MUY superior a cualquier procesador en cuanto a cálculos en coma flotante.

Por poner números redondos, una CPU puede rondar los 100 GFLOPS de capacidad de cálculo en coma flotante, en el mejor de los casos (cifras de hace unos años, pero no creo que haya cambiado mucho) mientras que una GPU puede irse a los 10 000 GFLOPS (no sobran ceros), especialmente las de la época.

En aquella época AMD trabajaba con arquitecturas VLIW , las HD 4xxx y HD 5xxx, que se hacían también pensando en dar esa capacidad de cálculo descomunal en coma flotante. De hecho uno de sus argumentos de venta era precisamente la capacidad en coma flotante, en concreto en doble precisión, MUY superior a las de las Fermi (GPUs NVIDIA) de la época (ejemplo: https://www.reddit.com/r/Amd/comments/9dsz5p/should_amd_bring_back_vliw_for_a_future_gpu_uarch/). Finalmente tras ver que esta carrera por los GFLOPS no iba a ninguna parte, abandonaron el plan y las GPUs posteriores ya daban cifras menores en TFLOPS (pero mejores en juegos).

La arquitectura Bulldozer también fue concebida con todo esto en mente: por cada 2 núcleos completos para enteros, una unidad FPU compartida. Prácticamente lo opuesto al Hyper-Threading de Intel, pero terminaron siendo denominados igual, 8/16, cuando hubiera sido más acertado al contrario, 16/8. Si comparas el rendimiento en enteros de un Bulldozer con un i7 de la época, el primero era sensiblemente superior en ese apartado, y esto se podía ver reflejado en resultados de pruebas que dependieran de este tipo de cálculos, pero cuando comparabas el rendimiento en coma flotante, la comparativa le hacía sonrojar.

Por aquel entonces se empezó a meter CUDA y el GPGPU de AMD en todas partes y parecía que finalmente AMD iba a tener razón, que era cuestión de tiempo que su idea de la CPU potente en enteros y débil en coma flotante fuera a triunfar... Pero finalmente quedó en nada. Al final los Bulldozer pasaron con más pena que gloria porque era un truño para un uso general, salvo en varios aspectos muy nicho donde brillaban frente a los i7 de la competencia.

meneandro

#40 Que OpenCL fuera desplazada por las APIs privativas de nvidia seguro que fue un golpe duro para AMD, pero no es que las apus sean CPUs con gráficos potentes.

La idea era: tenemos CPUs que hacen muchas tareas y tienen bloques dedicados a cálculo vectorial (instrucciones SIMD), tenemos GPUs que ya no son bloques estáticos de ejecución de operaciones con matrices sino completamente programables (básicamente CPUs con muchos bloques de instrucciones SIMD en paralelo para la rasterización), hagamos un bloque más generalista capaz de decodificar y ejecutar instrucciones x86 y (ponga aquí la ISA que usen las GPUs de AMD) de forma que podamos aprovechar y compartir todos los componentes posibles entre ambas (por ejemplo, todo el acceso a memoria es compartido, evitando copias de datos innecesarias, pero a su vez lastraba el rendimiento de la parte GPU dado que las gráficas suelen tener memorias mucho más rápidas que las CPUs y hacía a las APUs muy dependientes del ancho de banda para rendir adecuadamente, véase el caso de las consolas xbox one y playstation 4 como paradigmáticos de esto). El objetivo era: más eficiencia energética, ahorro de costes de producción y por lo tanto aumentar el margen de beneficios, aumento de eficacia y capacidad de computación. Como bien dices, el vender procesadores "simples" que podían acelerar tareas pesadas usando OpenCL era uno de los objetivos, pero no el único. De hecho, integrar CPU y GPU de manera monolítica fue una de las razones por las que se les fuera la mano en el precio de fabricación, al consumir más de la cuenta no les salían competitivas en el mercado de portátiles y entre unas cosas y otras no vendían y por lo tanto no sacaban margen de beneficios (ahora mismo han enfocado las APUs al sector móvil porque las vegas pequeñas consumen muy poco, fíjate que ya no hay tantas apus en escritorio).

Otra cosa es que no se pudiera o no fuera eficaz integrar tantas cosas como pensaran en un principio (por ejemplo, las precisiones de ejecución y/o la forma de calcular en punto flotante son distintas en las gpus y las cpus; los módulos de cálculo de números flotantes hasta donde yo sé están separados). Según Nvidia (que no tiene por qué coincidir con cómo ha implementado AMD, pero que da una idea de las diferencias entre CPU y GPU):

"NVIDIA GPUs differ from the x86 architecture in that rounding modes are encoded within each floating point instruction instead of dynamically using a floating pointcontrol word. Trap handlers for floating point exceptions are not supported. On theGPU there is no status flag to indicate when calculations have overflowed, underflowed,or have involved inexact arithmetic. Like SSE, the precision of each GPU operation isencoded in the instruction (for x87 the precision is controlled dynamically by the floatingpoint control word)."

"As we have shown in Chapter 3, the final values computed using IEEE 754 arithmeticcan depend on implementation choices such as whether to use fused multiply-addor whether additions are organized in series or parallel. These differences affectcomputation on the CPU and on the GPU.One way such differences can arise is from differences between the number ofconcurrent threads involved in a computation. On the GPU, a common design pattern Considerations for a Heterogeneous Worldwww.nvidia.comPrecision and Performance: Floating Point and IEEE 754Compliance for NVIDIA GPUsTB-06711-001_v11.0 | 16is to have all threads in a block coordinate to do a parallel reduction on data withinthe block, followed by a serial reduction of the results from each block. Changing thenumber of threads per block reorganizes the reduction; if the reduction is addition, thenthe change rearranges parentheses in the long string of additions.Even if the same general strategy such as parallel reduction is used on the CPU andGPU, it is common to have widely different numbers of threads on the GPU comparedto the CPU. For example, the GPU implementation might launch blocks with 128 threadsper block, while the CPU implementation might use 4 threads in total."

La diferencia entre GFlops es precisamente porque las CPUs tienen pocos bloques de ejecución de flotantes y las GPUs muchos, porque ambos mundos están enfocados a cosas diferentes, habría que ver el rendimiento en GFLOPS por pipeline individual para poder comparar de manera justa.

Los integrados de la competencia eran: tenemos una CPU y le pegamos al lado una GPU. Acceden a la memoria cada uno por su lado, hay copias de datos entre ambas, lo que lastra el rendimiento, pero la GPU suele tener su propia memoria dedicada lo cual lo compensa (pero con una caída drástica de rendimiento desde que usas más memoria de la que está dedicada para la tarjeta).

VLIW tiene una pega bastante gorda, optimizar es muy jodido y esto pesa mucho cuando empiezas a hacer código con dependencias y saltos. Pregúntaselo al itanium. Luego comparas con una arquitectura superscalar con ejecución especulativa como la que usa Nvidia (que en cierto modo se optimiza sola a ciertos niveles y/o no pierde comba salvo casos excepcionales cuando encuentra saltos en el código) y pierde mucho rendimiento en según que cargas de trabajo (la generación VLIW de AMD en cálculo era muy bruta, pero luego la llevabas al mundo normal y los juegos y la competitividad caía, porque los shaders cada día eran más dinámicos y por lo tanto cada vez usaban más saltos en su código y era mucho más fácil optimizar para nvidia y aparte nvidia tiene un gran soporte y suelta mucha pasta para dejar que sus empleados optimicen los engines más usados y los juegos más tochos, aparte de las trampas que todos conocemos de colar gameworks en todos lados).

En lo del bulldozer te doy razón a medias. La teoría valdría si ignoramos que bulldozer se vendía como CPUs y que las primeras APUS funcionaban sobre núcleos K10 (los del phenom). "The first generation desktop and laptop APU, codenamed Llano, was announced on 4 January 2011 at the 2011 CES show in Las Vegas and released shortly thereafter.[3][4] It featured K10 CPU cores and a Radeon HD 6000-series GPU "

Con bulldozer lo que querían conseguir era mejorar mucho los consumos y juntar muchos módulos. Les salió el tiro por la culata porque nunca fueron (lo suficientemente) eficientes. Si su plan hubiera salido tal y como esperaban, aunque cada módulo compartiera una unidad de flotantes, hubieran podido meter el doble de módulos y tener el mismo número de unidades de flotantes que intel. Esto es independientemente de las apus. Las apus metieron núcleos basados en bulldozer posteriormente porque no tenían recursos para hacer otra cosa (o sea, seguir desarrollando k10 era tontería, bastante tenían con intentar desarrollar bulldozer lo suficiente... de hecho, la primera apu estaba basada en piledriver, una mejora de bulldozer en varios frentes, pero sobre todo en consumo... con la primera generación tener apus no tenía sentido).

p

#2 Es cierto que últimamente la innovación se ha frenado.

En 1993 me compré un 386 a 40 Mhz, en 1998 lo cambié por un Pentiun II a 350 Mhz y otros 5 años más tarde compré un Athlon XP 2600+

El salto en 10 años de un 386 a 40 Mhz con 4 MB de RAM a un Athlon XP a 2600 Mhz con 512 MB de RAM es muy superior al que hay de los Core2Duo / Core2 Quad de hace 10 años a los procesadores actuales de 2 ó 4 núcleos, que aunque sean los más sencillos hoy día pueden seguir siendo útiles. En 2003 un 386 de 1993 ya no te valía para nada.

D

Da gusto ver que usen al máximo las líneas PCI-Express de estas CPU con las tarjetas de red Infiniband. La burrada de información que se transmitirá entre los distintos nodos...

K

Imagina una carrera de ultra-maraton, 100, 200 km etc donde resulta que todos los corredores siempre estan al mismo tiempo, ninguno se descuelga, todos en el mismo "peloton" ahora le toca avanzar un paso a uno y luego al otro ... pues es la historia de las "supuestas marcas de informatica y electronica" de hace 30 años para aca ... AMD, Intel ... y todas las demas siempre las mismas, haciendo el paripe como si "estuvieran participando en una disputada carrera" pero nunca se alejan dos metros uno de otro en cientos de km

meneandro

#21 Haber comprado Cyrix o Via y aún habría competencia. Quizá en cuanto a potencia no, pero en cuanto a consumo se comían a Intel y AMD... pero claro, en ese entonces el consumo no importaba una mierda.

D

#21 Sí, Motorola es un buen ejemplo