Hace 5 años | Por JanSmite a amp.tomshardware.com
Publicado hace 5 años por JanSmite a amp.tomshardware.com

Funcionarios de Intel y desarrolladores han informado a Axios que Apple se está preparando para lanzar Macbooks basados en ARM el próximo año. El informe es la continuación de una noticia del miércoles de Bloomberg que dice que Apple planea combinar aplicaciones iOS y macOS para 2021.

Comentarios

Am_Shaegar

¿Funcionarios de Intel?

¿Qué hay que hacer para una comisión de servicio a una plaza de ellos?

D

#22 menuda cagada fue, solo doblaron las ventas. Tenéis unas cosas

Conde_Lito

#26 #24 Fue una cagada ya que eran mucho mejor procesadores los PPC que los X86/64, los G4 les dieron ya no mil vueltas, sino 7 millones de vueltas a los ordenadores x86 de la época, con los G5 no se notó tanto el tema.
Si doblaron las ventas fue porque el cambio más o menos coincidió con la salida de iPhone y se puso de moda Apple, tuvo otro tiron mucho más fuerte que cuando salió el iPod.


Hace unos meses me dio por trastear con un PowerMac G4 del año 2000, 533Mhz, 1Gb de ram (una burrada en aquella época), originalmente traía una gráfica nvidia TNT2, pero me las ingenié para poner una Geforce fx 5200 con 256Mb Vram.

Pues el G4 del año 2000 movía sin mucho problema un OS X 10.5.8 (Leopard) del año 2009, a ver quien es el guapo que mete un Windows 7 en un Pentium III 500Mhz, practicamente lo mismo que si lo intentas en uno a 933Mhz, arrancar arrancará lo que no sabemos es en que año. lol
Lo mismo que mueve con más o menos soltura el Photoshop/Ilustrator/InDesing CS4, el Reason, Blender 2.6 Final Cut Pro 7.0, Logic Pro 9, este ultimo se atragantaba totalmente supuestamente por la pobre aceleración gráfica además del poco procesador, minimo necesitabas 2 procesadores.
A estos últimos programas les tuve que engañar un poco ya que se negaban a correr en un ordenador con procesador inferior a un G5 a 2000 Mhz si no recuerdo mal.
Navegando por internet no iba tan bien sobre todo por la aceleración gráfica, además que las páginas actuales son demasiado pesadas, navegar navegabas pero a su ritmo, el explorador tampoco ayudaba ya que utilicé un fork de firefox 53 optimizado para procesadores PPC 7400 y se come casi 600Mb solo con abrirlo.

Luego me dio por instalar Linux, en concreto una distro Debian del 2016, la última para procesadores PPC de 32 bits, iba más o menos bien incluso con el escritorio KDE Plasma con todos sus efectos visuales y tal, y eso que no tuve forma de que los drivers de la gráfica acelerara mediante OpenGL.
Con Linux iba igual que con OS X o incluso mejor haciendo determinadas tareas.

sorrillo

#34 Eso es como afirmar que fue una cagada que Sony sacase reproductores VHS por que el formato Betamax era mejor y que deberían haber seguido fabricando solo Betamax.

La calidad o la potencia no son los únicos aspectos determinantes para decidir si se va hacia un tipo de producto u otro, hay muchísimos otros aspectos a valorar. Y a Apple no le ha ido mal desde un punto de vista económico y comercial tras haber hecho ese cambio.

D

#34 Con perdón pero menuda tontería. Apple tenía serios problemas con las CPU. Los G4 ya no daban más de sí y la única razón por la que los usaban en los portátiles era por que no había cojones de meter un G5 sin convertirlos en sandwicheras. Y los G5 tampoco iban tan bien como deberían. IBM pasando de ellos y Jobs tragándose sus palabras diciendo que tendrían procesadores a 3GHz y tirando de refrigeración líquida por que la vaca no daba para más.

Apple se pasó a Intel por que no le quedaba otra. Por muchas gafas rosas que te pongas para mirar el pasado.

Conde_Lito

#42 Ya he dicho que con los G5 la diferencia no fue tan notoria como con los G4, estaban sobre la media,. Si querías igualarte a los x86/64 de alta gama necesitabas montar un par de G5, es más al final de la producción ya sacaron procesadores G5 con doble núcleo al igual que los Intel C2D, con un rendimiento parecido.

El problema, de lo que no me he dado cuenta ha sido de las temperaturas y los consumos, en un sobremesa ya tal y entre comillas, pero en un portatil es ridículo meter un procesador que te funda el ordenador y que se beba la batería en 15 minutos en reposo, de hecho creo que no hay ningún portatil que lleve un G5 o una versión reducida de este.

sorrillo

#15 Desconozco los detalles técnicos, pero muy posiblemente haya suficientes capas de abstracción como para que algunas las haga Apple sin que eso suponga un riesgo significativo para la opacidad del código fuente.

Por que venimos de donde venimos, pero si el modelo cliente/servidor hubiera sido implantado desde sus inicios muchos se pondrían las manos a la cabeza que alguien permitiera que el código se ejecutase en el equipo de cliente, con la inseguridad que eso supone. La seguridad en el fondo es algo que nunca se debe medir en términos absolutos si no que hay que ponderar la usabilidad con la seguridad.

Y en este caso que una migración de arquitectura se pueda hacer desde una ubicación centralizada y para todo el código es un factor de usabilidad muy relevante, ya que las aplicaciones estarían disponibles para el usuario final sin requerir de que un desarrollador decidiera o no hacer la compilación.

Conde_Lito

#30 Que yo sepa los últimos procesadores que ha utilizado Apple en sus ordenadores son los Intel Core de 8ª generación, Intel Coffe Lake.
Apple que yo sepa nunca ha fabricado procesadores para sus ordenadores, los primeros, los 68xxxxx, eran de Motorola, los PowerPc (PPC) eran de IBM y de Motorola y los actuales de Intel.

https://en.wikipedia.org/wiki/List_of_Macintosh_models_grouped_by_CPU_type

u_1cualquiera

#35 https://en.m.wikipedia.org/wiki/Apple_A12
Esa familia de cores, que ya tiene un rendimiento cercano a ls x86 de intel para desktop son los que pondrá en sus macs

Conde_Lito

#39 Para un portatil o un ordenador de escritorio de gama baja pueden valer, el nuevo ARM Cortex que saldrá este año se podría equiparar a los x64 de gama media tirando a baja.
Para internet, ofimática y ver películas te sobra si no intentas hacer todo a la vez, pero no intentes hacer otras cosas que no sean de este tipo y que normalmente se suelen hacer en etornos profesionales o semi-profesionales.

Los procesadores ARM y sus GPUs son muy buenos en temas de aceleración 2D, todo lo que tenga que ver con el tema multimedia, aceleración y descompresión de vídeo y demás, en cuanto les exiges otras cosas se empiezan a ahogar, me recuerdan a los Intel Celeron, en cuanto les metías un poco de caña adios muy buenas, y con caña me refiero a abrir un par de programas o tres a la vez.

u_1cualquiera

#41 sigues confundido.
Apple fabrica sus propios cores con arquitectura Arm
Arm Cortex son los coresque fabrica Arm , que son diferentes a los que fabrica Apple.
Samsung también fabrica sus cores Arm que llevan los Galaxy con Exynos
Y te digo que Apple es capaz de fabricar una evolución de sus procesadores Arm que no envidie a los de Intel en Desktops

D

#45 Tampoco es que sea el primero, Huawei tiene un ARM de 64 núcleos, Qualcomm uno de 48 núcleos y Fujitsu uno de 64 núcleos, también así como otras pequeñas como Applied Micro y Cavium. Aunque pasan de ser escritorios a servidores y estaciones de trabajo.

Conde_Lito

#45 Ya pero la noticia dice que cambiará de Intel a ARM en los ordenadores, no estamos hablando de dispositivos móviles y de si Apple fabrica o no procesadores bajo licencia de ARM.
Además que los fabrique Apple no tiene nada que ver para que estos sean potentes o no lo sean para un ordenador de escritorio o un portatil que se iguale a los actuales Intel i5 - i7 - Xeon
Actualmente los procesadores ARM que Apple mete en los móviles y tablets a duras penas pueden competir con un i3, como les metas caña justo justo andan a nivel del Celeron.

u_1cualquiera

#49 exacto, y Apple fabrica sus propios cores con arquitectura Arm. Es lo que te he dicho desde tu primer comentario cuando hablaste de Cortex.
Y diría yo que si quieren pondrán procesadores tan potentes como el i5, porque saben hacerlos. Mira los benchmarks del A12.
Por cierto releyendo comentarios te di un negativo sin querer. he compensado con 3 positivos en otros del mismo hilo, discúlpame

Conde_Lito

#52 No te preocupes por el negativo, hombre.

A ver Apple no puede modificar un micro de ARM, Apple al igual que otras empresas lo que hacen es fabricarlos bajo licencia de ARM, si quieren modificar algún micro primero tiene que ser aprobado por la empresa que ha creado esos micros, o sea tendrá que valorarlo ARM.
Lo que hace Apple y otras empresas en trabajar en conjunto para diseñar un microprocesador o decirle a ARM que tipo de microprocesador quiere para que estos se lo diseñen independientemente de quien sea luego el encargado de fabricarlo.
Una cosa es el diseño de un microprocesador u otra clase de circuito integrado y otra muy diferente el proceso de fabricación de este.

D

#41 Ten en cuenta que en un móvil no puedes meter ventiladores, luego tienes una gran limitación en el procesador. Prueba a pillar el x86-64 menos potente y que funcione sin ventilador, a ver lo que tarda en freírse.

Conde_Lito

#50 Sí esa es otra, pero si disipa más calor es por un consumo más elevado.
De todas formas los micros de ARM son bastánte fresquitos para el rendimiento que dan y eso que estamos hablando de un Soc, por lo que tiene mérito ya que integra todo en un mismo encapsulado.
Aún así que se ahogue tanto con todo lo que no sea aceleración 2D me da es que porqu están bastánte más optimizados para estas tareas, comportandose peor con el resto.

Claro está, si metemos en un micro de estos un montón de núcleos, como por ejemplo esos micros de ARM con 64 núcleos que se utilizan para servidores pues vamos a tener potencia de sobra, ahora bien hay que hacer un SO y unos programas que aprovechen esos 64 núcleos, sino estamos casi en las mismas.

D

#51 Ten en cuenta que las gráficas integradas suelen tener un rendimiento bastante más bajo que las dedicadas, así que igual si se saca la GPU de la CPU se mejora el rendimiento en 3D. Además, nada impide que un ARM use una gráfica AMD o Nvidia, por ejemplo. Y que no tire tan bien con 3D igual tiene que ver con la resolución de pantalla de los smartphones ¿cuántos hay con pantalla 4K? ¿Y cuántos hay con 720p?

Conde_Lito

#57 Nada impide que un procesador ARM use una gráfica AMD, Nvidia o incluso Intel si hacen el hardware para esta arquitectura, con los PPC tampoco podías poner una gráfica que era para arquitectura x86, a menos que la hicieran exprofeso o compatible con ambos procesadores, por ejemplo la mayoría de gráficas TNT2 funcionaban indistintamente en equipos PPC y x86, del resto de gráficas mejor nos olvidamos.
Con algunas gráficas ni modificando el firmware conseguías arrancar el ordenador, bueno arrancar si que arrancaba pero sin que se inicializara la gráfica, como si no estuviera instalada en el equipo.

Por decirlo de forma sencilla, las gráficas x86 no se van a entender con arquitecturas diferentes ya que hablan idiomas diferentes, las instrucciones que suministra tanto la gráfica como el microprocesador ARM no van a tener nada que ver, y más teniendo en cuenta que la arquitectura x86 es CISC y la de los micros ARM es RISC

Luego está el tema que el propio procesador le cuesta más hacer tareas que no tengan que ver con el tema multimedia, descompresión de vídeo y demás. Los ARM actualmente están totalmente dirigidos al tema multimedia, quizás este micro que quieren meter en los nuevos ordenadores de Apple no sea así.
Me recuerdan a los Pentium MMX pero alrevés, había una diferencia enorme entre el mismo Pentium con o sin MMX a la hora de hacer cualquier cosa multimedia y juegos, en uno la CPU se ponía a tope y en el otro iba más deahogada permitiendote hacer otras cosas, claro está si tenías una tarjeta de sonido de las buenas la carga de trabajo se la dejabas a esta, pero a ver quien era el guapo que se gastaba un dineral en una tarjeta de sonido de estas.

D

#61 Estoooooo.... Gamecube (PPC), Wii (PPC), Wii U (PPC), PS3 (PPC), y Xbox 360 (PPC) tienen algo que decir sobre lo de que las gráficas AMD o Nvidia se tengan que usar con x86.

Las gráficas pueden hablar el idioma que les de la gana mientras haya un driver adecuado para que se comuniquen con el resto del equipo. De hecho, la mayoría hablan OpenGL, DirectX y/o Vulkan.

Conde_Lito

#64 A nivel de hardware no. Date cuenta que estoy hablando del arranque del ordenador, si para el ordenador la gráfica no existe da igual el directx, el OpenGl, vulkan, Glide y el driver que utilicen junto al sistema operativo.

Esto es a nivel electrónico y de la programación de esa electrónica, cada procesador o familia de procesadores tienen sus propias instrucciones que son incompatibles con las de otros micros, incuso siendo estos de la misma marca. De ahí la emulación y compatibilidad entre algunos procesadores.
Por ejemplo a un Z80 lo puedes programar con las instrucciones de de un i8080, pero no le metas a este último una instrucción específica del Z80 porque lo más seguro es que se acabe bloqueando el micro.
Un programa programado para un Z80 puede valer y correr sin problemas en un 8080 y viceversa, no hay problemas a menos que utilices en ese programa una instrucción que solo pueda "entederla" el Z80.


Date cuenta que el ordenador manda una determinada instrucción a la gráfica y si esta no está preparada para leerla lo único que vas a conseguir es que no haga nada o incluso que bloqueé el procesador de esta y viceversa.

Un ejemplo sencillo, si el ordenador manda la instrucción 0011.1011.0000.1110010101010101 (32bits) para "inicializar" la gráfica (BIOS) y esta lo que espera es 0101.0110.1000.1110010101010101 se va bloquear el procesador de la gráfica o va ignorar la instrucción porque a saber que instrucción le ha dado la BIOS y si realmente era una instrucción válida para el procesador de la gráfica.
Date cuenta que a nivel de hardware esta instrucción, estos unos y ceros es lo que le está llegando en ese momento a las patillas de entrada y salida (I/O) del procesador, incluso la instrucción se la podrías meter tú directamente mediante conmutadores y un latch, como se hacía antiguamente, bajando y subiendo conmutadores y luego apretando un botón.

Es más intenta poner cualquier tarjeta gráfica x86 en un ordenador que no sea x86, por ejemplo en un PowerMac G4 (PPC 74xx) y ya me dirás si te sale algo por el monitor, y viceversa, intenta poner una gráfica de un Macintosh en un ordenador x86 normal.
Incluso intenta hacer funcionar una tarjeta x86 que dependa de un firmware para que haga determinada tarea, como por ejemplo una tarjeta SCSI, SAS o SATA con capacidad de detección de discos duros y arranque.
La parte de la tarjeta que su funcionamiento no dependa del firmware funcionará gracias al standard PCI o PCIx donde está pinchada y el driver para el sistema operativo, pero no esperes que te funcione la parte en la que se comunica directamente con el procesador, como por ejemplo a la hora de arrancar desde el disco duro que está conectado a la controladora, ya que el firmware de la controladora le tiene que decir a la BIOS en un determinado momento que está ahí y que se va a comunicar directamente a nivel de harware.


https://en.wikipedia.org/wiki/List_of_programming_languages_by_type#Machine_languages
https://en.wikipedia.org/wiki/Instruction_cycle
https://en.wikipedia.org/wiki/Microarchitecture
https://en.wikipedia.org/wiki/Instruction_set_architecture
https://en.wikipedia.org/wiki/Microcode

D

#66 ¿Y qué impide que un equipo con CPU ARM mande los códigos correctos a la GPU? Además, normalmente los protocolos de comunicación básicos se especifican en la definición del bus (VLB, AGP, PCI, PCIe, ...), incluso para otros subsistemas (USB, SCSI, ...).

Lo que dices de que el disco duro no va a arrancar si la BIOS no le da la instrucción correcta no es tan así. Si no, no se podría arrancar con UEFI en un Mac, por ejemplo, ni habría discos duros IDE/SATA/SCSI en distintas arquitecturas.

Por decirlo de otra manera: el sistema de arranque (se llame BIOS, UEFI o como sea) es quien tiene que conocer el idioma de los distintos subsistemas para poder arrancarlos.

Nota: personalmente encuentro que todos los subsistemas tendrían que ser cajas negras y que se comunicaran estrictamente por lenguajes bien definidos (OpenGL, OpenAL, DirectX, Vulkan, ...), incluso el almacenamiento, que al sistema central le fuera indiferente si le envían los datos de un DVD, de un HDD, de un SDD, de una microSD, por bluetooth o por señales de humo.

Conde_Lito

#68 Intenta a hacer la prueba si puedes, instala una gráfica u otra tarjeta de otro tipo x86 en un PPC u otro ordenador con un AGP o PCIx, o una PCIe que estas últimas me imagino que funcionen igual ya que el firmware de la tarjeta estará programado para la arqutectura x86.
Luego me dices si te funcionan o no.

En su día hice montones de pruebas y la única gráfica que iba en arquitectura x86 y PPC eran las gráficas TNT2 ya que el firm de la mayoría de estar gráficas al parecer venía programado para ambas arquitecturas.
Por ejemplo para poder pinchar una gráfica geforce 5200 x86 en un PPC tuve que hacer de todo, desde cortar unas cuantas pistas del bus AGP de la gráfica, uno de estos cortes era para convertirla en AGP 2.0, despues de cortar pistas tuve que flashear el firmware con una versión ligeramente adaptada del firmware de la misma tarjeta programada para aquitectura PPC, y aún así la BIOS (EFI) aún no sabe bien que tiene entre manos y no la reconoce del todo, pero al menos tengo aceleración gráfica y 256Mb VRam en un ordenador del año 2000 para poder ejecutar desde el photoshop y el illustrator CS4 hasta el Blender 2.6 o el Google Earth.
Lo curioso es que en aceleración 2D flaquea algo en comparación con la 3D, el mundo alrevés.

Los programas que hay en los firmwares de las tarjetas tienen que estar programados para que la BIOS y el procesador entiendan lo que ese programa les dice. Es como ejecutar un programa de x86 directamente en otra arquitectura, el ordenador no va a saber que le estás contando, por suerte los sistemas operativos suelen tener varios tipos de protección, e incluso los microsprocesadores, para que el ordenador no se bloqueé si le llegan instrucciones erróneas.

D

#69 Y seguro que tampoco funcionan en un Spectrum roll

Si el BIOS, UEFI o como se llame "conoce el idioma", puede arrancar la tarjeta que sea. Si "no lo conoce" ya puede ser compatible con la arquitectura que quiera que no va a arrancar.

Dicho de otra manera: si para arrancar, la gráfica necesita una serie de instrucciones y las recibe, le va a dar igual quién esté al otro lado lanzándolas. Lo contrario sería decir que un fichero de texto es ilegible porque lo has escrito con el notepad.exe en lugar de con el emacs. Y si el sistema de arranque del equipo sabe las instrucciones que tiene que lanzar, asunto resuelto.

Lo que tú hiciste viene a ser como si alguien sabe sólo italiano, se quiere comunicar con alguien que sólo sabe portugués brasileño y agarra un diccionario de gallego como intermediario. Más o menos se van a entender, pero del todo... como que no.

D

#50 Los macbook ( a secas, sin apellido ) no llevan ventilador

D

#71 Y si me guío por esta lista, puedes freír un huevo encima del procesador (80º). Aunque reconozco que algunos están un poco más frescos (>40º) si no voy mal.

D

#54 emular CPUs lo hace bastante bien los Oracle T8 y son más arquetipos de RISC que ARM.

DangiAll

#56 Hombre si el plan de ir a ARM es para abaratar costes, cualquier cosa que sea Oracle va a costar un cojon

D

#58 los procesadores de Oracle son SPARC, no ARM, y en SPARC hay procesadores muy limitados para aplicaciones en tiempo real, lo mismo también que el M8 que pasa del teraflop.
Me refiero a que por ser ARM o RISC no se le puede presuponer que va a ser limitado en potencia. ARM va desde chips de tarjeta inteligente, a teléfonos inteligentes a procesadores para calculo intensivo con 128 núcleos.
Esto es ARM https://e.huawei.com/en/products/cloud-computing-dc/servers/arm-based/taishan-5280

Conde_Lito

#56 La verdad, no veo yo a los micros de ARM normalitos y corrientes, de los que montan en cualquier móvil o tablet corriendo con soltura una máquina virtual.

D

#62 no tienen que usar los micros que montan cualquier móvil, ARM tienen diseños muy grandes.

Tampoco hay que irse muy arriba, el posible procesador para el Macbook si son dos A12 Bionic dentro del mismo SoC son 20.000 millones de transistores, no van a llegar a ser un AMD Epyc de los más grandes, número similar de transistores, ya que la arquitectura y la frecuencia no lo son y se resta los transistores de la gpu integrada, pero vamos, aunque sea equivalente a un x86 de 6.000 millones de transistores corto no se va a quedar.

Conde_Lito

#65 Ya me imagino que no meterán los mismos que meten en los móviles, sería como pegarse un tiro, el suicidio de Apple por lo menos en lo que se refiere a informática.

sorrillo

#23 El valor de las acciones de Apple no parece que confirme tu hipótesis.

DangiAll

#20 La queja de muchos usuarios de Apple de toda la vida viene por ahi, se han centrado tanto en iPhone y iPad que han abandonado los iMacs, iMac Pro y demas.

D

#32 no entiendo a que viene a lo de diferenciar ARM y x86.
Migrar a ARM es fácil, de hecho el Stratix es un ARM, con una FPGA a mayores. Migrar a 7 nanómetros ya no es, sobre todo cuando se te atraganta los 10 nanómetros. https://www.barrons.com/articles/intel-stock-chip-delay-1537909750

D

Cavando su propia tumba

Cidwel

#1 por curiosidad, ¿sabes las implicaciones que tendría y por qué de verdad sería su muerte?
A priori se me ocurre que las aplicaciones ya no sean compatibles, lo cual supongo que hará crecer las ventas de macbooks de la generación anterior a una puta burrada

A nivel de potencia, considerais que ARM no estará a la altura?

D

#9. Yo si creo que le va a salir bien. Como dices cambiaron de micro ellos que tanto alardeaban de ser 'distintos' y sus clientes tragaron sin problema, y pagaron por un S.O. exclusivisimo con una interfaz gráfica 'que te mueres'. Pagarán ARM como una 'mejora de hardware'. Es más, el día que 'mejoren' a Z80 lo petan.

Por Snoopy.

D

#11 lol lol lol

D

#9 No es el cambio de arquitectura lo que creo que les queda grande, sino el unificar su SO.

Conde_Lito

#9 Pues menuda cagada fue el cambio a x86/64

D

#9 Lo han hecho ya tres veces: Motorola y arquitectura CISC, PowerPC y arquitectura RISC, y otra vez vuelta a la arquitectura CISC con Intel.

Es una tradición que hacen cada 20 años.

DangiAll

#12 Ostia eso de publicar la app a medio compilar y que la terminen ellos no lo veo la verdad.

Te imaginas a Adobe entregandole el codigo fuente de su suite a Apple ? Para que esta termine de compilarlo en lo que sea ?

D

#12 Esa es la ventaja de Apple pero dudo que en esa categoría entren cosas como Photoshop.

Conde_Lito

#12 Y bien que la cagaron con el cambio, y no precisamente a nivel de software.

JanSmite

#12 El paso de PPC a Intel fue de todo menos plácido, mírate los grupos de entonces. Pero Apple fue precavido e incluyo un emulador transparente de PPC en Tiger, Rosetta, que permitía ejecutar programas PPC en un equipo Intel, así que la transición no fue tan dura como de haber cambiado a palo seco.

DangiAll

#4 Pero esos 3.000€ los iSheeps lo pagaron con gusto con tal te tener su portatil con manzana mordida.

EspañoI

#4 Yo diría que la línea entre CISC y RISC se ha vuelto borrosa, e incluso irrelevante. Hace tiempo que Intel adoptó una filosofía híbrida y hoy día los procesadores Intel siguen el paradigma de la máquina Harvard, y se puede decir que son RISC complementados con una extensión CISC.

D

#29 o se mete una FPGA dentro del chip, o fuera, cuando necesites manejar operaciones complejas modificas el FPGA para eso., continuando la respuesta a #4 el Intel Stratix es un ARM que ya él solo cuesta eso por poner un ARM caro que puede ser de muy bajo consumo.

EspañoI

#31 a día de hoy, la única diferencia entre ARM y x86/64 a nivel arquitectura es la data/instruction cache. Ambas son hoy en día RISC, en el caso de Intel, els set CISC sólo es azúcar sintáctico.

Lo único que define el precio de un procesador es la escalabilidad de su producción. Si Intel algún día ve amenazada su posición por la arquitectura ARM, hace tiempo que tienen los recursos para migrar y ser competitivos.

En ese escenario, Apple sería la auténtica perjudicada.

D

#29 Yo me refiero a que con el fin de la ley de Moore, el aumento de potencia va a ir en el aumento de módulos, más y más módulos, con chips más grandes.

D

#2 en mi caso, dejar de usar macOS después de 9 años como mi herramienta principal de trabajo.

D

#10 En esto último, estoy de acuerdo. Llevo más de 20 años trabajando con productos de la manzana (reparando, configurando, instalando) y se ve claramente que las pruebas de calidad en los MacBooks Pro ha descendido muchísimo en el último modelo. La de equipos que he tenido que tramitar en garantía por problemas en los teclados.

DangiAll

#2 ARM no esta diseñado para ser potente, esta diseñado para ser eficiente, tenerlo en moviles y tablets tiene sentido, en portatiles podria tener sentido, en sobremesas no.

De entrada tienen que recompilar el kernel de OSX para ARM, probar que no hay errores, eso implica una burrada de trabajo.

Y la peor parte, cualquier software anterior no funcionara, hay que rehacerlos todo, eso o se montan un emulador de x86 que meta cada aplicacion en un sandbox, una especie de docker pensado en la virtualizacion, que por muy bueno que sea la caida de rendimiento sera brutal.

Yo de entrada no lo veo, pero Apple hace años ya hizo el cambio de PowerPC a x86, deberia saber donde se esta metiendo.

Gry

#14 También pueden hacerlo sobre iOS y tirar OSX a la basura:

Para el 90% de los usuarios enchufando un iPhone a un monitor, teclado y ratón les llegaría para trabajar.

Conde_Lito

#14 Lo de la virtualización ya lo hicieron con OS X 10 virtualizando OS X 9 para así poder correr los programas de este último en la versión 10.
La ventaja era que ambos procesadores eran PPC, no había cambio de arquitectura.
Además tenemos que que los procesadores x86/64 son CISC mientras que los de ARM son RISC, al igual que los PowerPC.

Los actuales ARM Cortex tienen la misma potencia que un ordenador de sobremesa/portatil de gama media tirando a baja, el nuevo que está por salir idem, de idem.
Como no estén haciendo un micro exprofeso para Apple que sea igual de potente que cualquier ordenador de gama alta..., en entornos profesionales o semi-profesionales no va a tener mucha cabida.
Estos micros y sus GPUs tienen un alto rendimiento en todo lo relacionado con el 2D y la imagen, páginas web, aceleración de vídeo, por ejemplo el Nuevo micro que está por salir va a ser capaz de reproducir video en 8K a 60fps sin despeinarse, comprimido en h.264, del h.265 los de ARM ni saben ni contestan.
En todo lo que no sea aplicaciones multimedia y similares estos micros se suelen atragantar bastánte por muy potentes que sean, me recuerdan a los Celeron. roll

Al Pentium MMX recuerdo que le pasaba lo mismo pero alrevés, un Pentium normalito se atragantaba de mala forma con todo lo multimedia, el mismo procesador con MMX implementado y veias como este iba mucho más suelto.

u_1cualquiera

#25 sabías que hace unos cuantos años ya que Apple se hace sus propios procesadores?

DangiAll

#25 Emular una CPU CISC usando procesadores RISC tiene que ser un parto y una caida de rendimiento tremendo.
Para un SAN si que veo un procesador ARM, para mover el sistema de ficheros no necesitas mucha potencia, si montas un ZFS seguramente con procesadores ARM que tienen una velocidad de reloj superior funcione bien.

Para las aplicaciones normales que no sean de video no espero mucho de ellos.

La RPI cuando salio, recuerda que la parte de CPU era como un Pentium 2, pero la grafica era como una MX440.

En el trabajo usamos RPI2 como clientes VDI sobre una imagen Debian personalizada, y cada vez que tengo que actualizar la imagen son horas pasarle un apt-get update & upgrade, y como lo hago cada muchisimo tiempo, paso de montar una VM para hacer una compilación cruzada de la nueva imagen.

EspañoI

#2 Bueno, creo que Apple va camino de unificar definitivamente los ordenadores con los iOS. Si el usuario acepta ese cambio (y suele) Apple no tendrá ningún problema.

D

#6 La gente ya programaba para Apple cuando usaban procesadores PPC. Hay gente y empresas que programan para Apple usen la CPU que usen. Después de todo Apple sí proporciona estaciones de trabajo con esas CPU.

D

#1 Si, sobre todo porque el “asombroso” beneficio que dan los Macs a Apple es un sobrecojedor 12% anual.

Oestrimnio

Mayor autonomía para el postureo y hacer el moñas. Van a arrasar.

Cehona
porculizador

Vaya! Se me acabó el hackintosh....

D

#17 Ahora que me acabo de montar uno cry.

D

No sé si les saldrá bien la jugada. Es un cambio muy arriesgado y costosísimo a nivel económico. Eso por no hablar de las compatibilidades de los programas y demás. Y además les pilla en un momento en el que por primera vez en más de una década sus ventas están cayendo bastante.

Penrose

#46 A mí me parece que juegan con fuego, pero ellos verán...