Hace 3 años | Por darsena a xataka.com
Publicado hace 3 años por darsena a xataka.com

El salto tecnológico que Apple ha dado en sus equipos portátiles y de sobremesa es tan sorprendente que hemos querido analizarlo de forma profunda: he aquí nuestra anatomía de una revolución. Ni Intel ni AMD parecen poder competir a corto plazo, y si lo hacen es con procesadores con un consumo energético mucho mayor. Lo peor de Apple es mejor que (casi todo) lo mejor de sus competidores. Es alucinante. Todo lo que venga a partir de ahora será aún mejor. El salto que ha dado Apple con sus nuevos chips plantea una verdadera disrupción.

Comentarios

memmaker650

#3 Intel tiene mucho músculo. Ahora hay que esperar su reacción, que tardará pero debería llegar.
Aunque AMD también le está dando lo suyo por el otro costado.
En un par de años debería sacar algo potable para poder competir, sino como comentas lo tiene muy crudo.

p

#3 piensa en si eres capaz de poner en la raspberry el Stadia con Cyberpunk 2077 ahora mismo y piensa que necesidad de evolución tiene el mercado doméstico.
El punto de inflexión es cuando internet tenga que usar protocolos de seguridad post‑cuánticos, si la red se resiente para necesitar potencia in-situ o no.

pingON

#6 ahora mismo yo tengo un CRM (odoo, con postgresql) en una raspberry, en la misma máquina tengo una cartelera online con mysql + php + apache, http://cineando.plus

mi pc de escritorio no ha visto un windows desde hace 12 años, (debian y ubuntu).

Así que creo que como apunta el artículo arm+linux puede ser la opción en 10 años

p

#8 ya lo es ahora, así como tienes una línea para ese servicio, si te hace potencia para compilar, contratas un servicio, para jugar, contratas un servicio, diseño, contratas un servicio.
Si realmente en un lugar con linea necesitas potencia ya que por consumos vas a ahorrar en servicios, compras un armario y cuando no tengas necesidad de él das servicio a un cliente cercano de cualquier otro servicio.

p

#50 la respuesta en #9

dudo

#8 M1+ MacOS (que es un unix BSD) es la opción hoy, por si no quieres esperar 10 años, que visto el 2020 igual no llegamos

D

#3
Un artículo muy extenso que no dice más que mentiras basadas en publicidad.

Aquí tienes benchmarks de verdad: https://www.notebookcheck.net/Apple-M1-Processor-Benchmarks-and-Specs.503613.0.html
En multihilo es basura y el rendimiento monohilo hace tiempo que está más que superado por lo que un procesador de 5W puede igualar a uno de 100W.
Nadie a día de hoy ejecuta programas de un sólo hilo, ni un sólo proceso en el SO.

D

#38
I'm not crying, I understand benchmarks, you don't. That link is not the one I provided. Liars gonna lie.

You are comparing MacBook against old MacBook. If Apple makes shitty computers is not my fault.

Take a look at the Dell XPS 13 9310 or Lenovo Yoga Slim 7-14ARE which are still old gen products not using Zen3 nor Tiger Lake. On top of that those computers run shitty Windows OS.

They are all within the margin of error in single thread and beat M1 in multicore. Not bad for yesteryear processors.

And finally, 4800U and 4700U have the same number of cores as the M1: 8.

Good luck.

beltzak

#49 Yo no, los del enlace que has puesto tú, los de Notebookcheck.net.

La misma gente a la que tu enlazas porque los demás son unos mentirosos basados en publicidad son los mismos que contradicen tu argumento. Es posible que ellos mismos no entiendan los benchmarks que hacen y solo los entiendas tú. Pero no puede ser que me presentes las pruebas de un equipo de laboratorio diciendo que el M1 es una mierda y que cuando ellos dicen que es la ostia los demás no sepamos interpretar los benchmarks. Es decir, vas a negar todas las pruebas empíricas solamente porque odias o no te gusta Apple y el M1 es una mierda publicitaria y ya esta.

Primero obviamente comparan con su antecesor, claro, comparan un Macbook Pro 13" del 2019 con el M1 del 2020.

Pero después ya no comparan con los anteriores Macbook Pro Intel.
"In the single-core test, including the most powerful new Tiger Lake CPUs from Intel, the recent Ryzen mobile processors and even the current 45W CPUs from Intel do not stand a chance. Only the two brand-new desktop CPUs from AMD have a small lead."

SINGLE-CORE
Vale, en single core, pero estos son los mismo que hacen los benchmarks que tú dices que yo no entiendo, pero al parecer ellos tampoco lo deben de entender, solo tú: Textualmente dicen que los Ryzen mobile recientes e incluso los nuevos Intel de 45W no tienen ninguna opción.

Solo los realmente nuevos CPU de "Escritorio" de AMD tienen una ligera ventaja.

MULTI-CORE
Apple's M1 processor is only beaten by CPUs with much more cores
Solo los que tienen mas CPUs machacan o ganan al M1.

Among the mobile processors, only the AMD Ryzen 7 4800U has an advantage
Entre los procesadores móviles, "solo" el AMD Ryzen 7 4800U tiene ventaja.

Y repito, no lo digo yo, yo no he hecho los benchmarks, tampoco los interpreto, tampoco he mirado otras paginas web ni te presento otros benchmarks de otro sitio de "MENTIRAS BASADAS EN PUBLICIDAD".

D

#53
Ok, I'm stupid. I'm sorry. I don't know nothing about architecture. You are my hero, because you admit you are only vomiting quotes and my reasonings are just mumbo jumbo for you. It's like speaking chinese. TDP relevancy in single thread, single core, multi core, number of cores.

https://www.phoronix.com/scan.php?page=article&item=apple-mac-m1&num=7
For those wondering what this Mac Mini M1 performance looks like in relation to Intel Tiger Lake and AMD Renoir on Linux, I ran some quick comparison data points via this OpenBenchmarking.org result file. Depending upon the workload, the M1 on macOS Big Sur can generally compete -- and in some cases outperform -- Tiger Lake and Renoir on Ubuntu Linux.
https://openbenchmarking.org/result/2011202-PTS-MERGE68890&sor
Apple m1, Ryzen 5 4500U, Core i7 1165G7.

Now check perf per core, perf per thread, perf per clock... and see how results vary. It's particularly hilarious how SciMark shows a win for Apple in this pseudo-article https://tech.ssut.me/apple-m1-chip-benchmarks-focused-on-the-real-world-programming/ (apple-m1-pruebas-rendimiento-mundo-real-eng) which puts the M1 against 12 core beasts while Phoronix shows a win for a Ryzen 5 4600U or the Core i7 1165G7 which only have 6 and 4 cores, respectively and a TDP of 15W... I would explain why is it so, but I'm passing because you can't accept the fact that Apple has not produced anything special and that all benchmarks putting in so good light the Apple M1 are biased towards Apple.

If you don't understand it, at least you should acknowledge you can't have a debate on this topic.

But don't worry if you don't. Meneame has people with poor understanding and a lot of fanboyism.

Good luck.

D

#63
I don't know nothing -> I know nothing
Meneame has people -> Meneame is full of people.

Again, I'm sorry.

beltzak

#63 Kaixo:

Pixkat tontua badirudi zarela. Orain beste benchmarks eta best webguneak ari zara sartzen eta gainera biktima bezala agiretzen ari zara.
Nik ez dot txinoa ulertzen baina euskera ondo ulertzen dot, igual euskeraz idazten badozu obeto ulertuko nizuke.

Zorionak eta urte berri ona paza desazula espero dot.
Ondo ibili.
Agur!

D

#73
It's now clear that you are not in a position to discuss anything, and that your only objective is to troll. Now you also admit that you can't understand articles written in English, yet you keep quoting them erronously, out of context, as proof of rebuttal of the actual results I was commenting on. In addition you keep insulting me. This is not crying nor acting like a victim. It's the thruth made numbers what is speaking. Don't come here with a Chewbacca defense.

Have a nice day.

juancarlosonetti

#14 ¿Cuántos normies conoces que hayan abierto su portátil para aumentar la RAM? Pues eso. Lo de tirar un equipo perfectamente funcional para comprar uno más potente es el pan de cada día en el año 2020.

Puede que el 10% de los usuarios no quiera comprar un ordenador diseñado como un teléfono móvil gigante, pero al comprador medio le da lo mismo lo que lleve dentro.

parrita710

#24 Puede que no lo hagan ellos pero si tienen un pringao informático a mano o en el peor de los casos una tienda de informática al que poder llevarlo para actualizar lo harán antes que gastarse otros 2.000€ en portátil.

dudo

#14 ¿16Gb de ram se te van a quedar obsoletos en un año? aún veo gente comprando ordenadores con 4Gb de ram

El que la ram esté enchufada directamente le da mayor rendimiento, prefieres mayor rendimiento todo el tiempo o la posibilidad de ampliar la ram cada x años, para exprimir un poco mas un ordenador viejo

No creo que Apple sean visionarios, porque la respuesta es clara, lo que hay es mucho tozudo que cree que los ordenadores deben ser como los muebles de ikea, para armar por piezas

Llevo 4 iMacs consecutivos y nunca les he ampliado nada, pueden durar mas de 7 años perfectamente funcionales y fluidos, y con el salta a los procesadores M seguramente aguanten más.

parrita710

#54 Claro hombre, todo se resume a aumentar la ram. Que un tecnolerdo no sepa la importancia de tener componentes estandarizados que permitan cambiar piezas del sistema según necesites es bastante irrelevante.
¿Que necesitas mas RAM? No pasa nada te compras otro ordenador total, el SoC solo cuesta miles de Euros.
¿Que necesitas un procesador con mas núcleos? No pasa nada son 5000€ mas.
¿Que después de 2 años un bloque de ram ha petado? No pasa nada tira todo lo demás y pasa por caja.

Gracias a los tozudos como yo en vez de tener que gastarme miles de euros para aumentar el almacenamiento en mi servidor puedo pasar de 4TiB a casi 22TiB por menos 500€ gracias a poder cambiar los LEGOS que componen mi sistema.
Con los visionarios de Apple tendría que tirar todo lo que tengo, comprar un servidor nuevo y discos que solo sirven con ellos.

La revolución de las Manzanas.

dudo

#55 no hay discos que solo sirven para Apple, desde los 90s vienen empujando fuerte y peleando por cosas estandard, aunque en el mundo PC suelen tratar de reinventar la rueda e ignorar estandards mejores para sacar otros inferiores pero que son más baratos.

Apple apostó por SCSI, que permitía conectar 5 dispositivos y alcanzaba velocidades muy superiores a IDE, que sólo permitía conectar 2 dispositivos (el maestro y el esclavo)

Apostó por USB (ya hay macs con USB 4) y Firewire (mucho mas velóz)

Por ethernet, desde los 90 todos los Macs lo llevan, en PC hubo una época de modens por USB, que horror.

Ha promovido que se hiciese un estandard ofreciendo su cable lightning (2012) como base, han hecho el USB C (2014) que es más grande que el lightning.

Ha promovido que se haga un estandard en API de GPU, ofreciendo Metal (2014) como base, porque OpenGL 4 (2010) se quedó obsoleto hace años, y Direct X sólo es para windows, han hecho Vulkan (2016) que veremos a ver si se impone. Aunque no se le ve con mucha fuerza.

parrita710

#65 ¿Que Apple apuesta por los estándares? Qué te fumas que quiero la misma mierda.
Todo lo que has mencionado es precisamente mierda que metieron a sus clientes yendo al revés que el resto de la industria haciendo que los itrastos que venden no funcionaran con ningún estándar abierto.
Avísame cuando puedas cargar tu iPhone con un USB C por cierto.

Intentar forzar a toda la industria a usar sus mierdas propietarias, pasando por caja por supuesto, no es apostar por estándares es codicia.
Había visto revisionistas de historia pero de informática es una novedad eso os lo tengo que conceder a los iVangelistas.

dudo

#67 todos los productos apple se cargan con USB C

parrita710

#68 Por el lado del cargador lol lol lol lol lol lol iPhone no hay ninguno con USB en el chasis.

torkato

#20 Correcto. En CPU para tareas cotidianas se ven muy buenos resultados, sobretodo en edición.

Pero en GPU, a ver como corre Cyberpunk 2077... A ver quien se cree que puede de momento competir con las dedicadas. Otra cosa es que juegues a juegos de móvil...

p

#27 el móvil te puede dar la salida de vídeo que soporte tirando de Stadia para una televisión o monitor.
Como estés en una zona con buenas comunicaciones la potencia in situ no merece la pena el coste que tiene.

torkato

#31 Ya claro, como que es lo mismo jugar en Stadia que localmente.

p

#34 al ciberpunk si, a un juego de red aún no, por lo menos en la mayoría de zonas, pero acabará siéndolo, la potencia no va estar en el servidor de Google en el caso de Stadia, estará en el nodo o muy cerca, se balancea mediante computación distribuida para quede la respuesta lo más cercana al cliente.
De hecho puede ser el ordenador de otro jugador que no esté jugando en ese momento el que de potencia, o el servidor y juego sepan manejar penalizaciones en retardo.

torkato

#35 Lo siento, pero no lo comparto, llámame purista, pero no me gustan los juegos en Stadia, sigo prefiriendo mi PC local.

p

#37 no me parece mal.
A modo de curiosidad, si tuvieras una rebaja del precio en juegos o acceso a red para jugar por dejar la aplicación abierta cuando no juegas para que el programa esté trabajando(no se como se podría controlar la temperatura) ¿te atraería?, no es una propuesta para piratear por el steam link.

torkato

#39 Ni de palo, no pienso dejar que nadie entre en mi ordenador, P2P para el torrent/emule e ya, nada mas. Por eso mismo también desinstalé la extensión 'hola' de chrome cuando vi como funcionaba. Tampoco he instalado programas como Folding Home por lo mismo.

Or3

#35 La calidad de imagen no es ni parecida. En Digital Foundry y otros medios hicieron comparativas y Stadia daba bastante pena. Ni Netflix y otras plataformas pueden igualar la calidad de un Blu-ray como para hacerlo Stadia con vídeo low-latency.

p

#40 dependera del sitio donde se juega y a comparación de pagar 70 € de juego sin comparar el coste del equipo lo de dar pena o no es muy relativo.
Pena es lo de Sony, lo de los juegos triple AAA de un jugador con Stadia para jugar con un móvil es para quitar el gusanillo de manera muy digna, aparte que para el tema que salió es casi lo más extremo de uso y cumple, y cuanto se vaya mejorando lo de la IA para gráficos va a pegar un salto muy importante.
Salvo cambio de seguridad en internet.

dudo

#40 no se stadia, pero el nvidia geforce now que puede probarse gratis funciona bastante bien, al menos en Mac

p

#57 stadium más cuenta de stadia, no se si geforce now ya tira en ios o como pueda ser identificado el SO del M1 como mac.
#58 ¿geforce now ya es para ios o solo para mac?

dudo

#27 Cyberpunk 2077 no está disponible para Mac, así que la respuesta es obvia. Hay muy pocos juegos AAA para Mac, porque no es un mercado orientado al juego.

Y eso que hay juegos hechos en Unity o Unreal que sería muy fácil sacar para Mac, como FallGuys o Among Us, pero tampoco los han sacado.

Aunque el Among Us como está en iPad, pues se puede jugar en los Mac con procesador M1

beltzak

#20 Compiten con una Nvidia GTX 1650 que con un consumo de 10W y para navegar en Facebook y ver youtube esta muy bien ;P

¿O no?

Porque date cuenta que ninguna de las maquinas actuales con M1 a las que reemplazan, repito, ninguna de ellas tenían una gráfica dedicada.

dudo

#20 los macs nunca han llevado GPUs potentes,

muchos modelos de sobremesa llevaban GPUs ATI o NVIDIA de portatil

modélos básicos portátiles venían con la GPU integrada de Intel,
evidentemente nadie se compra un Mac para jugar, la mayoría de juegos no están disponibles para Mac, aunque ahora podrán estar disponibles todos los juegos de iPad

la GPU de Apple dobla en rendimiento a la integrada de Intel que sustituye

los modelos que han salido con M1 son los más básicos de la gama

para 2021 saldrán modelos algo más potentes (iMac, tal vez un iMac Pro y podría salir incluso un MacPro) y veremos que les meten

dudo

#26 tranquilo próximamente en sus mejores pc’s, o x86 se pone las pilas o ARM se lo come con patatas en menos de 10 años

T

#60 Si me tengo que comer un ARM pues me lo comeré pero no será Apple.

aavvaallooss

Gran artículo

D

Quizás no sea un fanboy sino un fanpay.

D

Apple ha inventado ARM.

D

#18 Es lo que tiene que el resto de empresas esten dispuestas a comerles la polla a apple, que hagan lo que hagan van a ponerselo fácil.

No vi todas las empresas de software sacando versiones para ARM cuando Windows lo intentaba.

Lo mismo paso con Flash. Y no será la última vez que pase.

Vamos, que es porque es Apple, y no porque hayan hecho algo mejor.

mecha

#25 Con tu comentario parece que quieres quitarle la razón a #18 pero en realidad se la estás dando...
Vamos, que es porque es Apple, y no porque hayan hecho algo mejor.
Pues eso, que Apple, y no otras, lo ha conseguido. No defiendo a esta empresa, ni me gusta MacOS ni iOS. No inventan nada que no existiera ya antes, pero la realidad es que marcan tendencia. Microsoft lleva años intentandolo con ARM y no ha conseguido nada, Apple si lo va a conseguir.

Ah, y no creo que las empresas hayan portado nada a ARM porque Apple sea la empresa guay, probablemente Apple ha pagado a algunas empresas importantes para que porten sus productos porque económicamente les interesa este movimiento. El resto de empresas más pequeñas se ven obligadas a seguirlas si quieren seguir vivas en este ecosistema.

Attanar

#25 Ya, que Apple haya sacado el primer ordenador ARM que supera en rendimiento a los procesadores de portátil de Intel y AMD no tiene nada que ver.

dudo

#25 no es comerle la polla, si Microsoft, dijese que en 2 años no va a sacar más windows para x86 pues todo el mundo se pasaría a ARM o se quedan fuera.

Y eso es lo que ha hecho Apple, y lo ha hecho varias veces, sin titubeos:

Cambió de procesadores 5 veces: 68k -> PPC -> x86 -> x64 -> ARM
Cambió de sistema operativo 1 vez: MacOS classic -> al MacOS X Cambió el lenguaje de programación 3 veces: Pascal -> Objective-C -> Swift

Pero todo esto lo hace de manera transparente para los usuarios, el 90% de todo el software x64 actual funciona sin hacer nada bajo emulación sin notar menor rendimiento. Cuando te descargas un programa no tienes que elegir entre dos versiones, sólo hay una que contiene codigo para todos los procesadores.

No, Windows no lo ha intentado, pero aún está a tiempo.

Microsoft, en su Windows para ARM, no soportaba emulación de x64 hasta que han empezado a programarla rápido y corriendo en octubre, por lo que obligaba a los usuarios a bajarse la version x86 de la aplicación, ¿cuantos usuarios conoces que saben cual versión deben descargar para su ordenador x86 o x64?
Incluso muchas aplicaciones que tratan de instalar la versión más correcta se lian e instalan la que no es, a mi me ha pasado con el Office que se empeñaba en instalar la 32bits.

ARM en windows no tenía ninguna ventaja y si muchas desventajas.

Flash tenía millones de fallos de seguridad, y HTML5 lo podía suplir. De todas formas en su día Adobe pasó un poco de Apple, y Apple porqué no iba a pasar de Flash.

S

#12 Pero sin embargo ha sido Nvidia la nueva dueña de ARM

beltzak

#22 Apple no opto ni valoro la compra a Softbank porque le acusarían de monopolio. Dijo claramente que no le interesaba.

dudo

#12 Apple tenía a Intel como proveedor de CPUs, y cuando empezó a diseñar el iPad/iPhone le pidió a Intel que desarrollase un procesador para dispositivos móviles

Intel no vió futuro en el mercado de CPUs para dispositivos móviles y aún se están dando cabezazos.

Apple evaluó sus opciones y encontró que ARM era lo que más le encajaba.

Había una empresa que mejoraban los diseños de ARM para que rindieran más y consumieran menos y Apple la compró

Google cuando se presentó el iPhone, decidió tirar el prototipo de teléfono que iba a sacar a la basura y decide seguir el ejemplo de Apple y hacer un smart phone, compró Android y también eligienron ARM

Apple desde entonces lleva haciendo los procesadores ARM más potentes y de menor consumo, cada año (cuando salga el snapdragon 888 del año que viene será equivalente al de apple de hace dos años)

Y ahora empieza a sacar CPUs para dispositivos no móviles con rendimientos muy superiores/consumos muy bajos respecto a los de Intel y con mucho margen de mejora para el futuro

Por cierto que Microsoft se ha puesto como google cuando el iPhone y se ha puesto a desarrollar su propia CPU ARM, y a optimizar el Windows 10 para ARM, y NVIDIA ha comprado ARM, por lo que en unos años puede que todos los ordenadores sean como los móviles todos basados en ARM

¿Cuanto les llevará a Nvidia, Intel, Qualcomm, Microsoft o AMD tener un ARM para ordenador competitivo? ¿darán todos el paso, o se quedarán esperando a ver por donde tira la cosa?

Bernard

Tendré que pillarme un día libre en el curro para leerlo entero

D

#15 Sé un buen meneante y léelo en el curro.

S

¡Buah tio! Hoy el becario de Xataka se ha ganado los 5€ que le van a pagar, tiene que haber sido duro copypastear tanta imagen

D

Dame una S

Mr_tstcl

Muy buen artículo... aunque no he entendido el 90% de lo que hablar

LadyEvelyn

Apple no es mejor que otras marcas, es cierto que se rodean de un halo de "me diferencio del resto" y eso les da fama, prestigio y hace que la gente crea erroneamente que tienen que pagar 2400 o 2500 euros (no sé con exactitud el precio) por un ordenador que con otro sistema operativo te funciona igual y si me pongo incluso mejor. No merece la pena

krollian

#33 Para un mac mini Apple Silicon (M1) hay que soltar 799 euros IVA incluido:

Especificaciones

Chip M1 de Apple
CPU de ocho núcleos con cuatro núcleos de rendimiento y cuatro de eficiencia
GPU de ocho núcleos
Neural Engine de 16 núcleos

Memoria (no actualizable)
8 GB ó 16 GB)
Almacenamiento (no actualizable)
256 GB o hasta 2 TB

Compatibilidad de vídeo
Se pueden conectar simultáneamente hasta dos monitores:
Un monitor con una resolución de hasta 6K a 60 Hz conectado por Thunderbolt y otro con una resolución de hasta 4K a 60 Hz conectado por HDMI 2.0
Salidas de vídeo digital Thunderbolt 3 compatibles
Salida DisplayPort nativa a través de USB‑C
Salidas Thunderbolt 2, DVI y VGA mediante adaptadores (se venden por separado)
Salida de vídeo HDMI 2.0
Admite un monitor con una resolución de hasta 4K a 60 Hz
Salida DVI mediante un adaptador de HDMI a DVI (se vende por separado)

Audio
Altavoz integrado
Toma para auriculares de 3,5 mm
Puerto HDMI 2.0 compatible con salida de audio multicanal

Dos puertos Thunderbolt/USB 4 compatibles con:
DisplayPort
Thunderbolt 3 (hasta 40 Gb/s)
USB 3.1 Gen 2 (hasta 10 Gb/s)
Thunderbolt 2, HDMI, DVI y VGA mediante adaptadores (se venden por separado)
Dos puertos USB‑A (hasta 5 Gb/s)
Puerto HDMI 2.0
Puerto Gigabit Ethernet
Toma para auriculares de 3,5 mm

Redes
Wifi
Conexión inalámbrica wifi 802.11ax (6.ª gen.)
Compatible con las normas 802.11a/b/g/n/ac del IEEE
Bluetooth
Tecnología inalámbrica Bluetooth 5.0
Ethernet
Gigabit Ethernet 10/100/1000BASE‑T (conector RJ‑45)

D

Como pasó con Intel triunfar es cuestión de costes ya sabemos que existen máquinas muy potentes y caras.

Lo bueno del M1 es su bajo consumo pero cualquiera puede fabricar ARM incluido Intel y AMD.

u_1cualquiera

#10 han de pagar la licencia a Arm primero... y que Arm lo acepte. De hecho intel ya la tenía para hacer Xscale, no creo que sea válida ahora

D

#29 el negocio de ARM es vender licencias y claro por ser intel no lo va a aceptar.......roll

beltzak

#10 Hay un gran problema con todo esto.
La "maldita" manzana controla todo el hilo Tiene el SOC (cpu+gpu+memoria+procesadores neuronales, de imagen, video encoder etc). Tiene el SO, tiene las apps y tiene las api. Si necesitamos edición de video puede invertir en toda la cadena, procesador, video encoder, software via Final Cut, renderizado via gpu api via Metal.

La alternativa seria que Dell o HP (Asus/MSI)+ Intel/AMD+ Nvidia+Cuda/AMD-RadeonPro+Adobe Premiere+Microsoft todos se pongan de acuerdo en el desarrollo "unificado" para poder competir con todo el proceso que controla Apple. No digo que AMD e Intel no comiencen (deberían) a desarrollar CPU (mejor SOC) especializados pero claro tienen una desventaja. Cada uno quiere vender lo que mas le interesa y si es posible invertir menos y ganar más mejor.

Lo veo complicado a corto y medio plazo. Veremos cuándo saquen el Apple Silicon de escritorio, las vergüenzas van a ser más patentes.

inventandonos

Osea que ahora además de todo el status social que te vende Apple, además tienes un buen procesador... esto va a ser imparable. Los casposos estamos acabados.

u_1cualquiera

Recuerdo a ceporros diciendo en menéame que los procesadores de Apple eran los de Arm, y que Apple sólo integraba (me refiero a teléfonos recientes) espero que al leer este artículo entiendan que estaban equivocados y que encima presumían de su ignorancia

D

#30
No sé cómo se iba a entender nada de un artículo que sólo dice mentiras: https://www.notebookcheck.net/Apple-M1-Processor-Benchmarks-and-Specs.503613.0.html

LeDYoM

Han cambiado el color?

dudo

hombre, “benchmarks de verdad” cuando muchas de esas aplicaciones son x86 y funcionan emuladas, pues tampoco sirven para medir el rendimiento del procesador

aunque el emulador en si mismo consigue rendimientos parecidos o superiores a intel en muchos casos

y recuerda que intel/amd llevan sus procesadores al máximo de potencia posible, más potencia y se fundirían

el M1 puede funcionar sin refrigeración, (como funcionan la mayoría de móviles) por lo que ni se acerca a lo máximo que puede dar

¿cuanto hace que no vemos un x86 sin refrigeración?

krollian

#52 De los 3 equipos presentados por Apple con Apple silicon, el único que no tiene ventilador es el MacBook Air. El MacBook de 13 pulgadas y el mac mini sí lo lleva.

Respecto a aplicaciones nativas, algunas muy populares están desde el día de la presentación como la suite completa de Affinity, Pixelmator Pro o Nova de Panic.
Tienes DaVinci Resolve, Telegram, WoW, Handbrake, Nisus Writer Express, BBEdit, Carbon Copy Clones, etc. y por supuesto Final Cut y todas las aplicaciones de Apple.
Hasta los dinosaurios de Adobe tienen Lightroom y una beta de Photoshop disponible.

Para saber más sobre disponibilidad:

https://roaringapps.com

beltzak

Vamos a ver.

1) Hablas en plan víctima porque te sientes atacado por tus propios enlaces. Dices que eres estúpido, que lo sientes que no sabes nada sobre arquitectura. Que soy tu héroe, que vomito frases y que tu razonamiento es solo mumbo jombo.

Ahora me llamas troll. En ningún momento te he insultado, ni he menospreciado tus conocimientos, ni si sabes ingles ni si sabes euskera ni si tu comprensión lectora es deficiente. Te he expuesto un articulo de la misma web que tu has enlazado una serie de argumentos que contradicen tu version y punto. No hay más. Si no te gusta lo que lees pues dilo y punto. No hace falta que te metas con nadie.

2) Sigues faltando al respeto que no puedo entender artículos escritos en ingles sin saber si es verdad o no, sin saber nada de mí. Ni cuántos años tengo, ni dónde vivo, si se programar o si llevo 36 años con un ordenador debajo del brazo. Ni a qué me dedico ni nada.

3) Las frases que cito, están ahí (de un articulo diferente al que tu enlazas pero que entiendo es del mismo grupo que realizan esos mismos benchmarks que tu enlazas), si me he equivocado, perfecto, te invito a que me corrijas y me digas en que y donde he traducido o mal o en que me equivocado.

Por si te sirve de algo, pero creo que no va a servir de nada.
Tengo más de 40 años. Con 8 años ya usaba msdos. Llevo 20 con linux, 15 con macos, 7 con hackintosh.

beltzak

Vamos a ver.

1) Hablas en plan víctima porque te sientes atacado por tus propios enlaces. Dices que eres estúpido, que lo sientes que no sabes nada sobre arquitectura. Que soy tu héroe, que vomito frases y que entiendo tu razonamiento como solo mumbo jombo.

Ahora me llamas troll.

En ningún momento te he insultado, ni he menospreciado tus conocimientos, ni si sabes ingles ni si sabes euskera ni si tu comprensión lectora es deficiente. Te he expuesto un articulo de la misma web que tu has enlazado una serie de argumentos que contradicen tu version y punto. No hay más. Si no te gusta lo que lees pues dilo y punto. No hace falta que te metas con nadie.

2) Que admito que no entiendo ingles ¿Dónde? jaja Sigues faltando al respeto que no puedo entender artículos escritos en ingles sin saber si es verdad o no, sin saber nada de mí. Ni cuántos años tengo, ni dónde vivo, si se programar o si llevo 36 años con un ordenador debajo del brazo. Ni a qué me dedico ni nada.

3) Que cito erróneamente ¿Dónde? jaja Fuera de contexto ¿Dónde? Las frases que cito, están ahí (de un articulo diferente al que tu enlazas pero que entiendo es del mismo grupo que realizan esos mismos benchmarks que tu enlazas), si me he equivocado, perfecto, te invito a que me corrijas y me digas en que y donde he traducido o mal o en que me equivocado.

Por si te sirve de algo, pero creo que no va a servir de nada.
Tengo más de 40 años. Con 8 años ya usaba msdos. Llevo 20 con linux, 15 con macos, 7 con hackintosh.

Lo único que has hecho es meterte con tu interlocutor y no has argumentado ni una sola cita.

Tienes un gran problema de superioridad con los demás. Torres más altas han caído.

D

PatatasTraigo, cuídate esa bilis.