Hace 3 años | Por coderspirit a linuxadictos.com
Publicado hace 3 años por coderspirit a linuxadictos.com

Espoleada por el éxito del chip M1 de Apple, AMD ha recuperado sus antiguos planes de desarollar SoCs basados en ARM, y revivirá su proyecto K12.

Comentarios

dudo

#36 Muy pocos programas son multicore, es más casi todo el tiempo se usa un sólo core en concreto, y el M1 es el core más rápido sobre la faz de la tierra (es una frase de Apple).

En los últimos 5 años Intel ha logrado aumentar el rendimiento por hilo un 28%, en el mismo período Apple ha mejorado sus diseños un 198%, o lo que es lo mismo, lo ha multiplicado por 2,98 veces (llamémoslo 3 veces)

aqui el gráfico de Anandtech con la progresión:
.

Magankie

#38 Eso podría ser posible hace años, pero hoy en día el uso de los múltiples hilos es algo habitual, ya que un mismo programa tiene más de un proceso, y en los de músculo (edición de imágenes, videos, juegos, etc...) hace más de una década que se aprovechan muchos cores. Ya verás qué risas cuando intenten mover algo más pesado que un navegador o un juego móvil x'D

ttestt

#42 ya, y por eso las cpus que mejores pruebas de rendimiento tienen en juegos son los que mejor rendimiento por núcleo tienen.
Puedes comparar el que quieras, que siempre vas a conseguir mayor rendimiento en juegos cuanta más potencia por cpu tenga. Por eso amd hasta ahora se ha comido un mojón en juegos, porq un intel baratucho como el 10600k le daba mil patadas en juegos a casi todos los amds.
ahora con los zen3 la cosa cambia.

pawer13

#36 yo los benchmarks no los llamaría realidad, sobre todo si no sabemos cuán optimizados están. Apple siempre ha sabido hacer que sus máquinas vayan muy suaves con menos potencia y al final es la experiencia del usuario durante su uso lo que importa.

meneandro

#36 Eso es sólo un benchmark específico. Probablemente no esté optimizado para la arquitectura (una cosa es compilarlo para que ejecute nativamente y otra aprovechar las características del chip). Recordemos que el chip de apple se compone de un procesador flojito acompañado de muchos aceleradores para cosas específicas, tira sólo del procesador y estarás desaprovechando la potencia del chip (y aún así, logra unos resultados bastante buenos, no es un "los x86 arrasan al M1" le ganan con margen, pero sin echar cohetes).

Luego miras otros benchmarks (https://www.phoronix.com/scan.php?page=article&item=apple-mac-m1&num=7) y ves que hay sitios concretos donde pierde por mucho, otros donde pierde dignamente, otros donde empata y muchos donde gana o gana ampliamente. Con software sin optimizar en la mayoría de los casos y en muchas ocasiones, traduciendo directamente software hecho para x86.

Para el uso del día a día, es un procesador fenomenal (y más teniendo en cuenta que se trata de un portátil sin refrigeración activa). Para casos de uso específicos, pues lo de siempre, elige la mejor herramienta y la que más se adapte a tus necesidades...

m

#36 pueden los ryzen u correr sin ventilador? El M1 solo lleva 4 cores de alto rendimiento. Literalmente es la peor CPU ARM que va a sacar Apple. Qué crees que pasará con un M1X con 8 o 16 cores en un MacBook de 16 pulgadas?

box3d

A ver que sale.
Y a ver si Lisa Su consigue petarlo en CPUs por segunda vez.

BonJovi

#1 Lisa necesita aparato.

neo1999

#7 Seguro dental

elgansomagico

#8 Lisa necesita un aparato.

neo1999

Seguro dental!
#11

sillycon

Está claro.
La tecnología RISC siempre ha sido teóricamente mejor, por el hecho de que el 80-90% de las instrucciones de código máquina son instrucciones básicas. Pero no sé ha beneficiado de las investigación ni los avances tecnológicos que se han ido produciendo más que para dispositivos móviles por asuntos de rendimiento. Al contrario del CISC que ha sido promovido por Intel, y por todos los que han tenido que clonarlo, como AMD, como potencia sin compromisos.

Pero ahora que Apple le ha dado al RISC el cariño que se merece, con tecnologías actuales, los demás están viendo las orejas la lobo.
El M1 es lo mejor para equipos móviles sin demasiados requisitos de rendimiento. Cuando Apple saque el M2 con cores de verdad ( no bigLITTLE) se va a comer toda la tostada.
A menos que los demás ser pongan las pilas en RISC, que es lo que están haciendo.
Al final, el Ryzen 3 ser va a quedar viejo en un año. Intel ahora mismo está perdido y no se va a enganchar al carro en tres o cuatro años.

D

#20 cierto, aunque los haters no te lo reconocerán

m

#35 no es por llamarte mentiroso , pero yo tengo una Asus tuf y la batería dura mucho , pero mucho más de 40 minutos y en alto rendimiento

Dasold

#35 Esta claro que en un portátil gaming con gráfica dedicada la batería no va a durar 20 horas (ni 10, ni 5) pero como te comenta #50 dura bastante más de 40 minutos. Si estabas instalando Windows en un portátil recién comprado, como dices que es el caso, deberías saber que nunca llevan la batería llena porque es malo almacenarlas así, te vendría con alrededor del 40-50% de carga y como, obviamente ya que dices que se apagó, no le pusisteis el cargador para la instalación inicial pues si es posible que te durase menos de 40’.

i

#20 Que bien que Apple sea la primera en incluir un procesador ARM en un ordenador y SO ARM, etc... O no, que yo sepa ya habían salido portátiles con procesador ARM y Microsoft ya tenía un Windows para ARM, Apple lo habrá hecho mejor, pero para nada es una idea innovadora, simplemente ha hecho lo que ya estaban haciendo otros

D

#40 El tema es hacerlo bien. Windows CE bajo ARM no cuenta, y el Windows 10 para ARM era bastante cutre comparado con el dynarec de Apple lanzando juegos nativos a 80% de rendimiento traduciendo.

dudo

#40 recuerdo cuando nokia sacó un smartphone que podias instalar juegos, fracasó y pensaron que los smarphones no interesaban

Antes del iPhone dominaba blackberry, el iPhone no fué una copia de lo que había, fué mejor. Y ahora nokia, motorola o blackberry están muertos.

No se trata de ser el primero se trata de ser el mejor o al menos saber por donde vienen los tiros. Si tienes éxito y no sabes porqué, estás en problemas.

d

#20 AMD lleva desarrollando su procesador ARM desde 2016. No está siguiendo ningún camino marcado por nadie

Dovlado

#20 Para nada. El primer smartphone fue un HTC.

dudo

#58 si, hay una compañía que es la primera, y luego salen muchas mas, pero ninguna triunfa, hasta que llega una que lo peta, en smartphones lo petó blackberry, todo el mundo llevaba uno en EEUU, porque internet era mas avanzado que la red movil, y mientras aqui enviabamos SMS, allí necesitan enviar e-mails

Y como apple lo petaba con los iPods, parecía buena idea sacar un aparato que juntase iPod+SmartPhone, y ni si quiera fué Apple la primera, lo sacó Motorola, que estaba perdiendo suelo y le pidió a Apple que les dejase meter un iPod en sus teléfonos, y a pesar de la gran campaña publicitaria con Madonna de protagonista el Rokr fué un fracaso, porque era una mierda. En la presentación Jobs lo dejó bien claro.

Y siguieron saliendo teléfonos de muchas compañías importantes, incluso google estaba a punto de sacar uno. Cuando se presentó el iPhone. Y Google tiró el teléfono que iba a sacar a la basura, y compró Android, y empezó a diseñar el teléfono desde cero para acercarse a lo que había hecho Apple, y Sansumg que era socio de Apple, también se subió al carro, porque fabricaba las pantallas las memorias y las CPUs del iPhone, tenía todos los ingredientes, así que empezó a sacar sus teléfonos con mejores piezas que Apple, y Apple se busco nuevos socios.

Y ahora dónde está HTC, dónde está Blackberry, dónde Nokia, dónde Motorola. No importa ser el primero, importa hacerlo bien y continuar haciéndolo bien. Por eso hay un antes y un después del iPhone. Por eso el iPhone definió los smartphones tal y como los conocemos hoy.

Quizá venga otro que revolucione el cotarro, ojalá, cuantas más revoluciones mejor para los usuarios, no me importa quien copia a quien, ojalá estuviese permitido copiar todo ¿dónde habría llegado la tecnología si se pudiese perfeccionar los inventos libremente?.

Apple revolucionó los ordenadores, los sistemas operativos, las impresoras, los reproductores de música, los smartphones, los tablets, ahora los chips…
Seguramente no fueron los primeros en casi nada, pero saben hacer las cosas bien. Por eso toda la industria se fija en lo que hace Apple desde hace muchos años.

Aunque el meneante medio sólo vota las noticias de Apple negativas (muchas bastante sensacionalistas)

D

#16 Les ha dado la vuelta. Ahora no encuentras un bicho como el portatil con M1 a ese precio ni borracho.

meneandro

#4 Sólo por recordar algo. Desde el pentium pro, todos los x86 que han salido al mercado han sido RISC...

Tanto las instrucciones x86 como las ARM se traducen a microinstrucciones RISC (la diferencia es que las instrucciones x86 son de tamaño variable y por lo tanto más complicadas de traducir), así que aunque ahí M1 tiene una ventaja pero por otras razones (decodifica muchas más instrucciones a la vez que cualquier ARM o x86 existente) realmente no es algo tan determinante como comparar RISC y CISC.

sombra2eternity

#47 venía a explicar lo mismo que tu, ya me voy lol

sillycon

#47 la diferencia es que lo que en los x86 llamas 'microinstrucciones', en RISC se llaman 'instrucciones'. Te ahorras todo el trabajo de traducción, y una lectura es una instrucción.

meneandro

#63 No me has entendido bien. En cualquier ARM, hay instrucciones que, igual que las del x86, se traducen en microinstrucciones porque acutalmente ambas arquitecturas son RISC y funcionan igual.

"From a high-level perspective, microcode is an interpreter between the user-visible Complex Instruction Set Computer (CISC) Instruction Set Architecture (ISA) and internal hardware based on Reduced Instruction Set Computer (RISC) paradigms"

Y aquí, una perspectiva de cómo se decodifican las instrucciones del ARM M1 de apple (podía haber puesto cualquier arm de al menos un par de décadas hacia ahora, pero esto me salió en búsquedas y me pareció interesante) en microinstrucciones RISC.
http://www.righto.com/2016/02/reverse-engineering-arm1-processors.html

De hecho, se podría decir que actualmente los ARM a alto nivel son CISC también, porque sus instrucciones son "complejas" (en el caso del M1, se ejecutan de 1 a 4 microinstrucciones por cada instrucción). No son comparables a la complejidad de las x86, pero no son púramente RISC.

Quizá la única arquitectura puramente RISC que haya actualmente es la RISC-V, pero porque está desarrollada con otro enfoque; su cpu sigue siendo minimalista (sólo microinstrucciones) y en lugar de añadir más instrucciones, añade coprocesadores o extensiones o aceleradores que pueden existir o no en cada chip (extensión para procesado vectorial, extensiones multimedia, extensiones de cálculo con matrices, extensiones...). Eso lo hace una arquitectura más estándar, compatible, fácil de soportar, simple y barata.

sillycon

#67 "Reverse engineering the ARM1 processor's microinstructions
This article looks at how the ARM1 processor executes instructions. Unexpectedly, the ARM1 uses microcode, executing multiple microinstructions for each instruction. This microcode is stored in the instruction decode PLA, shown below. RISC processors generally don't use microcode, so I was surprised to find microcode at the heart of the ARM1. Unlike most microcoded processors, the microcode in the ARM1 is only a small part of the control circuitry."

Los ARM en realidad no son RISC, sino "CISC ligeros". No lo sabía. Ahora ya lo tengo claro, gracias.

Aquí un auténtico RISC. Una palabra, una instrucción, sin tablas ni traducciones.
https://www.microchip.com/wwwproducts/en/PIC16F877A

meneandro

#68 Igualmente, hay quienes consideran que para nada son CISC ligeros sino completamente RISC porque...

"While ARM processors use similar concepts to micro-coded CPUs (e.g. there is a hardware block that decodes instructions into one or more micro-operations), they are not microcoded in the traditional sense that uses a ROM to store each micro-instruction, nor can these micro-instructions/operations be modified after produced in actual hardware. Indeed, ARM processors use hardwired control in the instruction decoder to generate micro-operations."

Ya es cuestión de opiniones.

noexisto

20 días después no se sabe nada más concreto? (Está en otros sitios con la misma fecha, pero después....)

eltoloco

#2 son simples rumores, es errónea hasta que se confirme.

ColaKO

Si hasta Linus Tech Tips, que no son nada fans de Apple se han tenido que quitar el sombrero de la jugada que ha hecho Apple con los M1. Ha destrozado a la competencia con un MacBook Air que rinde como un Core i7 o i9 ¡Sin ni siquiera usar ventilador! Una barbaridad. Se ha pasado a Intel por el forro, los ha humillado. Yo no soy fanboy, si acaso de Microsoft más que de Apple, pero quitando el marketing mierder de Apple con sus gráficos de "3 veces mejor que nunca" y todas esas patochadas que dicen el cambio a ARM es el fin de x86 como arquitectura en la informática de consumo.

Dasold

#39 Eeeeh, Linus Tech Tips dijo literalmente que la gente se flipó con el M1 creyéndose la basura de marketing que hace Apple y que los que le exigieron rectificar cuando él dijo que no se lo creía hasta verlo pueden esperar sentados.



Que el M1 es un procesador muy bien hecho y que el rendimiento / vatio es espectacular pero que ni de coña es “el procesador más rápido de portátil” como dijo Apple en su presentación de diapositivas para fanboys en las que nunca da datos técnicos.

Veremos en el futuro y a donde evoluciona todo porque es verdad que el M1 pinta maneras y abre un camino muy interesante donde se va a intentar meter AMD y el resto (y genial, más competencia = más evolución) porque recordemos que Apple “sólo” diseña el procesador, luego se lo fabrican terceros y ya sabemos lo que suele pasar cuando dependes de que una empresa ajena china fabrique tus productos, también partían la pana con cuando empezaron a diseñar los procesadores A* para iPhone y con los años el resto de fabricantes licenciados de ARM se pusieron las pilas y, hoy por hoy, el flagship de Snapdragon es más potente que el Bionic de Apple en términos brutos.

Lo que si es un hecho es que Apple mintió en la presentación y que, a día de hoy, no es el “procesador más rápido en portátiles” y mucho menos en sobremesa. En el futuro ya veremos que pasa con Apple, AMD, Intel, Microsoft, Qualcomm y demás, se vienen tiempos interesantes

ColaKO

#48 Sí, a Linus noble gustó nada el marketing de Apple pero luego en los test el procesador le dio una paliza a todo y lo tuvo que reconocer.

Estoy de acuerdo con lo demás que dices salvo que el fabricante creo que es de Taiwán.

sillycon

Este artículo es interesante discute en asunto desde otros ángulos.

https://www.google.com/amp/hardzone.es/tutoriales/rendimiento/dominio-arm-cpu-apple-intel-amd/amp/

Mi conclusión es, al contrario que la del artículo, que en un año Apple va a estar en posición de comerse el terreno de Intel y AMD.

Uno_Mas

Si estuvo Keller metido seguro q es canela fina.
A ver si pronto sacan algo!

torkato

Venga AMD, ¡queremos competencia! a ver que podéis hacer

D

Antigua y errónea. Ni siquiera se dignan a mencionar el SoC Ryzen C7.
https://www.muycomputer.com/2020/06/01/soc-amd-ryzen-c7-smartphones/

b

#17 Hay que investigar y revisar sus fuentes antes de aseverar antigua y errónea.

Para empezar, la c7 fue un bulo de junio 2020. Es decir, fake.
Y este nuevo procesador nunca se había anunciado (ya que no se trata del imaginario c7). Así que tampoco es antigua

D

#22
De la arquitectura K12 se habló hace millones de años en lo que AMD llamó «ambidextrous strategy».
Por otra parte yo no he aseverado que lo del C7 fuera cierto. No me he posicionado al respecto.

Así que sí, es antigua y es errónea. Hay que revisar las fuentes, tú no lo has hecho y sueltas la trolleada de turno para hacerme perder el tiempo.

cosmonauta

#18 Los proveedores de servers Los ofrecen desde hace tiempo porque suponen un cierto ahorro en gasto de energía. Los clientes no los valoran tanto, poca gente hace cosas con un uso intensivo de CPU. Un servidor web en php, por decir algo, suele necesitar mucha memoria,disco y red pero no suele usar todavía CPU.

Quizás para poner un balanceador de carga, una caché, si que son buenas opciones

Pero al final, tiras de x86 para usar el estándar, no sea que acabes con un software que no compila o un error de arquitectura que nadie ha descubierto aún.

Kleshk

Hace semanas la gente riéndose del tema de que Apple se pasara a ARM y ahora AMD poniéndose las pilas con el tema... como ahora salga Intel y en un par de años hagan la conversión... reiremos

cosmonauta

#10 No creo que nadie que sepa algo de CPUs se tomase a cachondeo lo de Apple.

Lo que si dijimos muchos es que era un timo más, vendiendo una CPU de móvil a precio de laptop de alto rendimiento.

dudo

#13 Comparemos el A14 del iPhone 12 con un Intel i9 10900K de 10º generación o con un Ryzen 9 5950X Zen3:

Potencia (segun SPEC2006):
AMD R9: 96,04
Apple A14: 83,37
Intel i9: 58,76

Consumo:
Apple A14: 4,86w
AMD R9: 105w
Intel i9: 125w

Precio:
iPhone 12 mini: $699 (todo el teléfono)
Intel i9: $499 (sólo el chip)
AMD R9: $799 (sólo el chip)

Ahora piensa que pasaría si Apple sube el consumo de 5w a volvámonos locos 20w, pues que tienes el M1
y te lo venden con un ordenador alrededor desde $699 el Mac mini en formato torre, o desde $999 el MacBook Air en formato portatil

¿Te está timando Apple vendiendo ordenadores con chips para movil o aquí está pasando algo muy gordo?

DangiAll

#32 Si, te esta timando Apple, que su procesador saque mejor rendimiento en un test, no significa que sea mejor que un Intel o un AMD, se deberían de realizar todo tipo de test, no coger uno en el que quedas bien y darle bombo y platillo.

Desde hace años para las CPU se usa PassMark, CineBench, HandBrake, 3D Mark, 7-zip, Codificacion AES, cuando se hace una review, en cualquier pagina seria lo pasan por un monton de test, y sinceramente hasta ahora no habia visto en ninguna pagina seria el uso del SPEC2006.

D

#41 Apple tiene chips externos para eso. Sobre HandBrake, directamente usando el chip de aceleración de codificación de vídeo se come al resto.

dudo

#41 primero los test tienen que estar disponibles para mac y compilados para el m1, he visto comparativas usando programas que ni están compilados para el m1 y funcionan con emulación

Spec mide el rendimiento puro del procesador, para compararlo con otros, una utilidad como handbrake mide el rendimiento del ordenador (ram, velocidad de disco) haciendo una tarea específica que usa varios hilos a la vez, por lo que el rendimiento es proporcional a la cantidad de hilos que soporte el procesador.

Cinebech mide mas operaciones con punto flotante en un hilo o en varios. Según lo que quieras medir tendrás un dato.


En 5 años Apple ha sacado una CPU nueva cada año, aumentado el rendimiento de su core un 300%, Intel en el mismo tiempo sólo un 30%. Y eso con un consumo de 5w con lo que tiene mucho margen de mejora hasta llegar al consumo de Intel/AMD. Y la GPU también está con un consumo mínimo rindiendo como una GPU de gama media. Y esto no ha hecho más que empezar.

dudo

#10 Se pueden reir lo que quieran, pero en este gráfico se comparan chips de móviles y de ordenador,
A la izquierda el consumo (más bajo es mejor) a la derecha la potencia (mas grande es mejor) arriba el rendimiento con nº enteros, abajo el rendimiento con decimales,

El rendimiento del chip de un iPhone 12 supera a intel, al resto de ARMs, está cerca del zen3 y el consumo de Intel y AMD no cabe ni en el gráfico

las barras gris punteadas representan los cores de bajo consumo, las grises solidas los cores de alto rendimiento

al ser un movil han limitado el consumo entre un 0,44w y 4,42w, pero con un consumo de un Skylake o un zen3 el rendimiento puede ser extratosférico

D

#10 Intel ya sacó CPU's con ARM, mi Zipit Z2 lo atestigua.

m

#30 y vendió la división hace años... menuda visión de futuro...

llorencs

¿Por qué hasta ahora no se había considerado usar ARM para ordenadores? Las máquinas SPARC de Sun eran RISC como ARM?

Por cierto, en Amazon AWS tienes la opción de montar una máquina virtual sobre ARM. Esas máquinas funcionan igual que las x86?

cosmonauta

#12 El principal problema es el software. Como todo es Intel, todo se compila para x86 y al final se crea una escuela de pensamiento.

Pero hace tiempo que ARM pege muy fuerte en máquinas de propósito específico, una pequeña parte del mercado de servidores, casi todo el hardware iot y obviamente casi todos los dispositivos Android.

Es decir, ARM estaba ahí y Apple no ha inventado nada. Simplemente ha sido el primero que se lo ha metido a un portátil de gama alta. Porque en la gama baja ya había un montón de dispositivos chinos baratos con arm.

llorencs

#15 Y en servidores? Porque es lo que he dicho con máquinas Ubuntu en Amazon podía elegir entre x86 y ARM. La qué probé fue x86 por el tema de software. No estaba seguro que estuviera disponible en ARM.

D

#15 En servicios libres ARM está desde siempre.

regexpman

#12 Por el software. Pero eso empieza a dejar de ser un problema.

Para empezar, tienes hasta un Windows para ARM. Y hay mucho software que tiene versión o alternativa mobile. Por lo tanto, aunque aun no tuvieras una aplicación de "spotify" para tu windows en pc arm, siempre tendrías el móvil o incluso el navegador web.

Y el software de pago/"profesional" acabará migrando para no morir. Y más si apple ayuda a empujar.

Yo creo que la duda no es si x86 acabará muriendo o no, si no cuándo.

meneandro

#12 Las SPARC se adelantaron a su tiempo. Crearon y metieron servidores con decenas y cientos de cores (flojitos) que eran la leche para servir web o bbdd (pero eran muy malos con flotantes, así que no tuvieron impacto en el mundo científico) consumiendo muy poco, muy adaptados a sus solaris, con su flamantes zonas (los precursores de los contenedores de hoy en día), su sistema de ficheros ZFS, etc. pero fue justo cuando colapsó sun y la compró oracle (que tiró todo eso a la basura). La arquitectura era abierta ya en su día, pero salvo algunas compañías japonesas, no se ha seguido con ella (probablemente algún problema legal con oracle, que habrá dejado algún resquicio para poder hacer algo si le interesa). También el auge de ARM y que Power se abriera también (y la llegada de RISC-V), demasiada competencia y poco que aportar actualmente.

Sobre las gravitón y demás de AWS, define funcionar igual. Para los casos de uso típicos de un server, si, tiran bastante y son muy competitivas en precio, rendimiento y un consumo muy bajo. Desde luego, a amazon le vienen genial y apura precios con ellas, con lo que a los clientes también les vienen genial. El software es el mismo (una distro linux, con el mismo software que tienes para x86 pero compilado para ARM), así que no hay problema.

T

Que el M1 es una gran evolución en eficiencia para equipos portátiles es una realidad, y que Apple es la reina de la optimización (yo me lo guiso yo me lo como) es otra realidad.
Pero ojo con el marketing que veo a gente comparando el chip de Apple con un ryzen 3 y realmente no están al mismo nivel, lo primero sería no comparar socs con CPUs con test sintéticos pero bueno.

En Youtube tenéis el canal de processingraw que hace una series de pruebas basándose en su flujo de trabajo, comparando un pc con un threadripper, un portátil MSI de 1700, un par de MacBook pro de generación pasadas, un ultrabook LG de generación anterior y un pc de unos 800€ que no me acuerdo que montaba.
Pues lo que mostraba es que el M1 está ni más ni menos en el rango de su precio, el portátil de MSI era más rápido.
También contaba que aún no está del todo optimizado y había tenido cierres de aplicaciones.

Ahora lo que quiero contar con esto es que estos socs ARM van a ser los reyes de la eficiencia, pero dudo que veamos una potencia bruta en corto plazo, que Apple sacará su M2 con aceleración por hardware para lo que interesa que venderá sus equipos como siempre no tengo ninguna duda.
Que llegue al mundo compatible que hay juegos y todo tipo de programas que piden músculo bruto, si llega será a largo plazo.

regexpman

Coño, justo con las noticias del apple m1 me acordé del K12 de AMD y ahora veo esta noticia lol

Creo que AMD hizo bien dejando de lado el proyecto para centrarse en ganar terreno a intel. Todos lo agradecemos. Pero viendo como tira el apple M1, creo que hace bien en explorar la vía ARM. A las malas siempre podrían ser procesadores para consolas, móviles, tablets,...

De todas formas, la "noticia" no deja de ser un rumor/filtración.

m

Yo después de ver el MacBook Air ya no valoro comprar un portátil que lleve ventilador y me queme las piernas.

b

Si hubieras leído aunque sea mínimamente la noticia, verías que no se niega que no se hubiese hablado antes del K12. De lo que habla es que AMD confirma el seguimiento de su desarrollo (ya que estuvo en un limbo), anunciando por primera en arranque oficial de su desarrollo (puesto que antes, lo habian paralizado) y no de la C7 que fue una fantasía musculosa y desmentida por AMD.

Así que repito: ni es antigua (puesto que se anuncia que AMD sigue adelante) y no es errónea puesto que no nombra un procesador fake.

Muestra más respeto y menos orgullo hacia los envíos ajenos poniéndole más empeño en contrastar tu información antes de aseverar votos negativos.

ZardoZ89

¿Y la fuente de esta información ? Por que no la encuentro, y no veo noticias similares en otros medios. Hasta donde yo se, que AMD recupere su K12 o saque una nueva CPU ARM es solo rumores.

i

Use las ultimas cpus aquitectura Arm de AMD y eran lentas, creo que eran cortex-a57.
Ahora hay mucha competencia, si van en serio tendran que espavilar y dedicarle tantos recursos como en sus Zen si quieren crear su propia cpu.
Tambien pueden usar las cpus de Arm (Cortex-X, neoverse, etc) como hace Qualcom, Amazon, Samsung, etc. y sacar algo bueno en un año, aunque lejos del M1 supongo.