Publicado hace 3 años por pinaveta a elchapuzasinformatico.com

ARM está obligando a Intel y a AMD a realizar cambios drásticos en su arquitectura, y ambas compañías realizará el mismo movimiento, imitar el diseño big.LITTLE (dar el salto a la computación híbrida) de los procesadores de ARM, o dicho de una forma mucho más simple y rápida de entender: combinar en un mismo silicio núcleos de alto rendimiento con núcleos de bajo consumo energético.

Comentarios

babuino

#3 y con Nokia.

silencer

#25 pero la compraron cuando ya estaba hundida.

D

#34
Si, iPhone pegaba fuerte y Android comenzaba a despuntar, Nokia tenía que mover ficha y reposicionarse, todavía tenía un 30% o un 40% de cuota de mercado (de memoria), estaban con Sailfish y Meego (de memoria), llegó Microsoft y la desmantelaron para no hacer nada, Windows Phone ya era una castaña antes de Nokia y después castaña y media, creo que en 3 o 4 años no quedaba nada, una operación brillante, se cargaron todo el mercado de Feature Phone de un plumazo.

udepardo

#37 symbian, no sailfish

D

#52
No me refería a Symbian, eso es lo que tenían antes del iPhone, cuando salió iPhone se pusieron a hacer algo parecido, puede ser que fuera Meego y creo recordar que cuando echaron a todo el mundo los desarrolladores crearon Sailfish.
Meego lo llegó a utilizar HP sin mucho éxito, apareció en el mundo de las tablets sin las aplicaciones de Google y claro... ko.
Te hablo de memoria.

editado:

Mira lo he encontrado: https://en.wikipedia.org/wiki/Nokia_N9
Y también lo de Sailfish: https://en.wikipedia.org/wiki/Sailfish_OS

l

#37 #60 #54 Recuerdo que contrataron al primer directo no Finlandes, sino USAno y la empresas casi quebró se devaluo y la compró MS mucho mas barata. El Directivo fue contratado por MS.
No sé como en los contratos no ponen penalizaciones si no da resultados o los da malos. Es que encima quiebran empresas y les tienen que indenizar.
Quienes hacen los contratos?
O son muy tonto o son sobornados?

D

#80
Yo lo recuerdo como algo turbio, fuera de la lógica. Lo del directivo lo recuerdo, siempre me pareció un hombre de paja.
Estaban mal pero todavía tenían una cuota de mercado importante, en descenso si, pero estaban desarrollando Meego, ni siquiera sacaron un móvil Android, que podían hacerlo perfectamente, ya había teléfonos chinos con Android, pero no lo hicieron.
La indemnización compra el silencio.

s

#34 Y cuando ya la habían hundido y supongo que la compraron para ocultar vergüenzas y evitar juicios.

babuino

#35 #25 sí. Me refería a la cuota del mercado de móviles. En los 90 Nokia era el rey. Todo el mundo tenía un Nokia o quería un Nokia. En pocos años pasó a ser nada en el mercado de móviles.
Más o menos como IBM en el mundo de los PC x86. IBM era el PC compatible estándar, llegaron los clónicos y lo barrieron del mercado de PC doméstico. IBM sigue siendo un gigante, claro, en otros mil asuntos en los que está metido.

diazjc

#9 Nokia vendió la división de móviles, pero sigue muy viva en telco haciendo electrónica para operadores, de hecho adquirió Alcatel-Lucent.

ElVitorManuel

#35 Exacto, Nokia Corporation y Ericksson continúan vivas en el sector de las telecomunicaciones, aunque ya no vendan directamente móviles...

e

#57
Y tampoco es que vendan muchos equipos de core telco ahoramismo.
Yo estuve trabajando en Ericsson para una operadora multinacional, y los chinos de Huawei te daban un equipo cien veces mas rapido y lo bueno es que para abrir mercado, te lo regalaban.
Y lo mejor, hasta para migrar era de chiste, les pedias que su sequipos tuviesen las misma APi/interface que los equipos de Ericsson o Nokia y te lo arreglaban en un santiamen.
El mercado sudamericano se lo comieron. Hasta regalaban campos de futbol por poner antenas donde no se podia.

D

#3 BoEing

D

#3 ¿ Boing?

MiTH

#15 Pues no se dónde lo habrán metido porque lo que ofrecen para IoT es basura comparado con ARM. Hace un año nos estuvieron enseñando sus soluciones para un proyecto que empezabamos y su MPU fue la primera en descartarse porque parece que te venden un micro PC y no una solución para pequeños proyectos embebidos.

EmuAGR

#68 Pues estaba Galileo y Edison pero los descatalogaron.

meneandro

#1 #68 Intel ha tenido principalmente tres problemas:

- Ha invertido un montón, pero o en cosas incorrectas, o en momentos incorrectos (llegando tarde) o ha dejado de lado sus productos cuando con un gasto superlativo ya los tenía encaminados. Recordemos que Intel tenía procesadores de bajo consumo y buen rendimiento y que pudo haber sido quien "motorizara" los iPhone originales. Intel invirtió un montón den chips para móviles, abandonó y luego intentó retomar cuando ya era demasiado tarde y la competencia era brutal. Recordemos también que Intel en su día compró Real3D para sus gráficas discretas. Abandonaron su familia i74X que no tuvo mala recepción en el mercado, y la reconvirtieron en sus integradas. Posteriormente intentaron sin éxito recuperar la idea de tarjetas gráficas con experimentos como Larrabee (que no eran gráficas de verdad, eran muchas CPUs de cómputo general juntitas, algo parecido a lo que son ahora mismo las gráficas, pero desde un acercamiento diferente), que luego intentaron derivar a un producto de cómputo más generalista y que tampoco tuvo mucho éxito. Ahora vuelven a atacar la parte de las gráficas después de una inversión gordísima cuando habiendo seguido apoyando proyectos que ya tenían en marcha igual las cosas hubieran ido de otro modo (quitándole ingenieros del más alto nivel a la competencia, empezando un producto desde cero y no se sabe si llegando tarde de nuevo al pastel; en unas semanas lo presentan... y en un mes nvidia saca su nueva generación y en dos lo hace amd y algo me dice que suerte va a tener intel si llega a ser competitiva con la generación actual).

- Pasó de tener la tecnología de fabricación más avanzada a quedarse estancados (una de las razones por las que AMD les ha sobrepasado, AMD fabrica con los mismos fabricantes y en los mismos nodos que los ARM actualmente); y siguen llegando tarde porque se esperan nuevos retrasos (su apuesta nunca llegó a ser todo lo fiable que era necesaria y los costes de ponerla en marcha han sido brutales; la competencia por su parte, dio en la diana y ha avanzado muchísimo en poco tiempo, gracias a todos los encargos que tienen del sector de los móviles, que está dando pingües beneficios a los fabricantes de chips. En su momento, se decía que los procesadores x86 (los Intel, los de AMD ni se les esperaban, rindiendo mucho menos, fabricándose con tecnologías más antiguas y consumiendo mucho más) eran más potentes que los arm pero sólo porque se fabricaban a mayor densidad y con procesos más avanzados, que si se fabricaban los arm a esas densidades no solo en rendimiento por watio sino en rendimiento puro ya podían ser competitivos. Ha pasado mucho tiempo desde entonces, los arm se fabrican a mayores densidades que los x86 y aún (apple mediante) no son igualmente competitivos (se siguen diseñando con el consumo en mente antes que con el rendimiento), pero si se han ido cerrando brechas (tanto los x86, cada día consumiendo menos, como los arm, cada día rindiendo más). Quizá el centrarse en el consumo ha hecho que hayan perdido de vista el rendimiento (y ahora para poder estar a la altura de AMD están teniendo que forzar frecuencias y están perdiendo la batalla del rendimiento/consumo con AMD al menos en sus gamas media y alta, además de la del rendimiento/precio).

- La microarquitectura de Intel, por cuales sea razones, es más vulnerable (las malas lenguas dicen que por haber diseñado adrede mal para conseguir ventajas en rendimiento) y les ha dado muchísimos quebraderos de cabeza, teniendo que desviar una cantidad de fondos muy importante para taparlos (y/o "mitigarlos"). Esto, que con todas las ventajas de ser las CPUs más potentes, que podían haberlo cuidado, detectado y corregido en su día, se ha convertido en una carrera por tapar todas las vías de agua, en sacar los desarrollos que tenían guardados retocándolos un poco para intentar tapar los huecos más gordos y quién sabe si empezar a desarrollar una microarquitectura nueva (que no veremos hasta dentro de unos años) y en intentar sacar nuevas instrucciones chulas pero innecesarias para intentar mostrar algo de innovación y liderazgo de cara al mercado y venderlo como lo más sólo por las puntuaciones de las comparaciones de rendimiento (https://www.linuxadictos.com/linus-torvalds-desea-muerte-dolorosa-avx-512-intel.html).

MiTH

#73 La clave de nuestra decisión la estás dando en el segundo parrafo. Su principal problema es el consumo. Muchos dispositivos IoT no necesitan grandes capacidades de procesamiento pero lo que si necesitan es un consumo muy bajo. Nuestro ingeniero electrónico en cuando vio la potencia de consumo de lo que ofrecía Intel ya no tuvo que mirar nada más. Y estoy hablando de dispositivos embebidos para IoT, no tablets o micro computadores que es para lo que nos ofrecían soluciones y que probablemente tengan más margen de maniobra.

Creo que Galileo o Edison eran productos para "makers" pero nunca se ofrecieron como soluciones finales para la industria que necesita mucha más seguridad y soporte en el producto. Aunque yo no estoy muy puesto en temas de hardware.

meneandro

#74 El problema es que se han gastado un pastón enorme en desarrollarlos y fabricarlos, y tienen que darle una salida. Y luego las ventas pobres, y luego los ejecutivos cortoplacistas cerrando el grifo (cuando poniendo pasta y siendo perseverantes en esa meta podrían desarrollar técnicas y tecnologías y formas de fabricación que les podrían permitir ser competivivos y que además podrían beneficiar a todos sus productos en general). Y luego otros ejecutivos viendo el pastel jugoso que se están ventilando todos los de la competencia deciden que tienen que volver si o si a pelear y así...

meneandro

#74 Por no nombrar que Intel tuvo/tiene una licencia ARM, podrían estar fabricando chips ARM y forrándose, ni siquiera se harían pupa a si mismos porque estarían peleando en mercados distintos...

M

#1 Uy no conoces una empresa que se llamaba 3DFX .

paLitroke

#28 ni hacer Vudú les salvó

sifou

#1 Hombre, hace unos años compró Altera... yo creo que tendrán cosillas bajo la manga

Ehorus

#1 .. creo que sony ha tenido varios froilans
- Sistema Beta (video): lo mejorcito de su epoca... pero se negó a abrirse al mercado, salvo excepciones. Resultado VHS wins!
- Sistema de memory stick: no lo quiero ni recordar.. contemporaneo a la familiar de las usb
- Blue-ray: Grabamos todos en hipercalidad, menos porno.... ay! amigo, el sexo es lo otro que mueve al mundo... por no decir la pelea (ganada a base de pasta) contra el DVD y otros soporte muertos antes de nacer... y casualidades, nacimiento del streaming...

gonas

#1 Intel lleva tiempo trabajando en algo similar.

r

#1 Después de Nokia.

g

#1 De hecho ya hay Foveros en el mercado y la propia nota lo señala. Es más, en uno de sus últimos eventos mostraron una mainboard de computadora contenida en un circuito del tamaño de una unidad M.2

https://ark.intel.com/content/www/us/en/ark/products/series/202779/intel-core-processors-with-intel-hybrid-technology.html

WcPC

#2 El problema es programar con varios núcleos distintos...
No quiero ni imaginarme...
Puede que apuesten porque en unos años el trabajo de picar código sea más cosa de IAs que de personas reales...

meneandro

#11 El problema siempre es la sincronía. En su momento, los procesadores x86 no tenían unidad de cálculo de números en punto flotante (no era necesaria salvo para los científicos y demás), que venía como un chip de expansión (el x87). Tenía una ventaja: los cálculos que usaban números reales iban muchísimo más rápidos, pero también tenía una gran desventaja: el x86 se desconectaba y quedaba esperando los resultados, sólo retomaba su labor cuando el x87 le respondía.

A la ps3 le pasaba algo similar: la cpu estaba algo capada porque para lo demás ya estaban las unidades de cálculo, que eran potentes (quizá más por el número, por poder ejecutar X cosas a la vez y muy rápido, eran muy útiles para ser usadas como DSPs, ejecutando cálculos concretos y continuos sobre algo concreto), pero tenían un costo: activarlas era esperar a que te dieran el resultado. Así que prácticamente se tenían que usar controlando muy bien los tiempos y sólo para tareas muy pesadas y paralelas, porque si no, hacían de cuello de botella muy tremendo y perdías toda la ventaja que te pudieran dar. Muchos ni las usaban, otros las usaban con cautela (los más pros llegaron a exprimirlas muy bien; los últimos juegos de ps3 si demostraban la verdadera potencia que se podía exprimir).

La CPU de la xbox360 por contrario, era un procesador similar al de la ps3, pero tenía varios núcleos y cada uno con su capacidad de cómputo (y al ser procesadores generalistas, podían saltar sin perder rendimiento; las SPEs de la ps3 estaban hechas para cálculo, no tenían predicción de saltos, todo lo que fuera código no lineal era arrisgarse a tener que vaciar completamente el pipeline y tener una SPE ociosa). No tenía tanta potencia bruta para el cálculo como usar las unidades de la ps3, pero en general podías sacarle más rendimiento y no te hacían cuello de botella, con lo que eran más versátiles, más fáciles de programar y además para las cosas normales iba mejor porque además tenía más MHz, lo que hizo que muchos multis, con menos esfuerzo y dedicándole menos tiempo, corrieran mejor en una máquina que era más cara, salió más tarde y prometía mucho más; también influye la excelente arquitectura de su GPU y sus shaders unificados, que peleaba muy bien contra la nvidia de la ps3).

EmuAGR

#13 El problema es el juego de instrucciones. Si un programa está ejecutando AVX en el núcleo grande no lo puedes mover al pequeño que sólo soporta SSE. Los móviles van con Java, así que más fácil adaptarse a lss capacidades del procesador del móvil.

meneandro

#5 Híbrido significa algo que no es homogeneo, sino una mezcla de cosas. Realmente puede significar cualquier cosa (aunque opino que no es el término adecuado para definir el uso de núcleos de distinta generación/tecnología de fabricación/consumo energético en el mismo encapsulado).

#12 #16 #67 En este caso, entiendo que lo que harán será tener dos chiplets unidos en modo primario/secundario, uno de bajo consumo y de fabricación barata y uno de alto rendimiento y más caro pero con las mismas características (todo sería migrable de un chiplet a otro, quizá compartiendo caché para facilitar las cosas), de modo que tengan el mismo número de núcleos a mejor precio, mejorando además el consumo general del sistema y a costa de rendimiento en escenarios muy selectos.

Para el que quiera edición de video, render 3D, quizá juegos, etc. serán una putada porque siendo 4 y 4 no funcionarán como una cpu de 8 núcleos (me inclino a pensar que quizá desactiven un chiplet completo y se use uno u otro) sino como una de 4 más rápida o una de 4 más lenta. Para el uso normal, portátiles y demás será un soplo de aire fresco y un ahorro energético importante (y de precio).

Sobre que ambos chiplets funcionen a la vez y la migración de tareas y demás, lo veo muchísimo más complejo y poco rentable (no tiene el pastón de I+D+i que tiene Intel).

En su día estuvieron trabajando en el santo grial de la ejecución en procesadores (tener muchos núcleos y poder unirlos al vuelo para tener mucha potencia en un solo hilo o usarlos por separado para poder tener muchos hilos a la vez a demanda de las cargas de trabajo). Si pudieran hacer lo de coger un hilo de alto consumo y pasarlo a uno de bajo, pero sólo si ciertas instrucciones van, etc. de modo eficiente y demás, ya estarían presentando lo del santo grial y llevándose el mercado de paseo y dudo que sea el caso...

andres.dev

#13 El problema es que Windows es una desgracia manejando varios hilos. Cuando lanzaron el Threadripper, los benchmarks daban más puntuación en Linux que en Windows 10 Enterprise (el cual supuestamente está diseñado para varios núcleos) debido a que sencillamente el kernel NT no sabe redirigir los procesos eficientemente.

gonas

#23 Pues ahora va de la ostia. Eso de que Windows no sabe manejar varios hilos no se de donde lo has sacado. Pero bueno, siempre tendrás tu publico que te aplauda tu comentario de cuñado.

parrita710

#42 Es un bug conocido el único cuñado eres tu que vas insultado a los demás sin saber de que habla.

gonas

#50 Otro cuñado. El video se basa en que no le salen las cuentas cuando mide el rendimiento por hilo. El problema es que, para medir el rendimiento, lo que hacen estos programas es insertar pequeños porciones de codigo, y miran cuando los devuelve el procesador. Pero los procesadores modernos, cambian el orden en que ejecutan el código. Con lo que las cifras a veces salen incoherentes. Y las cifras no son concluyentes.

Lo que hace es tangente, es miran en que puntos Linux da mejor rendimiento, y obvian donde Windows da mejor rendimiento.

El control de los hilos en Windows es muy distinto que en Linux. Windows está optimizado para que la esperiencia de usuario sea optima, mientras que Linux trata a todos los procesos de forma similar.

s

#53 Te han dado una licencia gratis de Windows?

D

#42 Es cierto. Windows maneja mejor los hilos que Unix, siendo peor en manejar procesos.

WcPC

#13 #22 Hombre, se supone que es un método para poder programar más eficientemente, no para hacer programas más cutres...
La programación en móviles es de traca, quitando alguna aplicación concreta la mayoría tiene una eficiencia que ningún servidor o máquina que necesite cierta eficiencia podría aguantar...

D

#10 cuandl tengan que lidiar las IA con los clientes el día del juicio final estará cerca

cosmonauta

#10 La palabra es Go.

o

#10 lo normal es que tu no decidas

snowdenknows

#10 usaran emuladores supngo

D

#10 No van por ahí los tiros. Imagínate que, en el mismo encapsulado, meten un Core i7 de última generación y un Celeron, y el sistema operativo enciende y apaga ambos de manera dinámica. Así, tareas sencillas como navegar las ejecuta en el Celeron, que consume muy poco a costa de ir más lento y no soportar, por ejemplo, SSE4. Si una tarea, de pronto, empieza a usar demasiado procesador, o bien intenta utilizar una instrucción SSE4, el sistema operativo lo que hará será encender el Core i7 y moverla a él. Y al revés: después de un rato sin consumir demasiado, la moverá de nuevo al Celeron. Pero ambos soportan el juego de instrucciones x86.

WcPC

#33 Suponía que no ambos procesadores soportaran el mismo tipo de instrucciones, más como procesadores dedicados, pero lo que dices tiene un cierto sentido... Lo veo poco eficiente, pero tiene sentido.
Edito:
De hecho y al releer el artículo, no son compatibles con X86... Son procesadores ARM

D

#56 No, no... lo que dice el artículo es que es algo que ya se lleva haciendo desde hace tiempo en el mundo ARM (recibe el nombre de BIG.little), y ahora AMD e Intel quieren hacer lo mismo con x86.

D

#10 ya estoy viendo al project manager y demás explicando a una IA que es lo que el cliente cree que quiere. El día que eso sea posible me temo que los humanos seremos totalmente prescindibles amigo lol

p

#38 hay otra rama del comercio que se trata de educar a los clientes, que pasó de poder entrar al almacén a recoger lo que quiere comprar, echar su propio combustible y demás. El project management va ser un cliente más que le va interesar explicar las cosas bien a la IA, y distintas empresas van a hacer IA que puedan entenderse mejor con esos clientes.

D

#2 Es lo que hacen las cpu de los smartphones desde hace bastantes años.

johel

Tal como esta redactado no se si votarla erronea. AMD lleva bastante tiempo probando con multiples cores de diversos tipos, vendiendo procesadores con cores apagados, combinando cpu/gpu y el actual control del rendimiento/temperatura hace que lo de tener cores menos potentes sea casi una realidad de facto.
Por parte de intel he visto pruebas de los nuevos procesadores de portatiles ultima generacion y no pueden mantener el rendimiento maximo anunciado constante, su eficiencia maxima es reducida en picado segun aumenta el tiempo de uso asi que lo de que todos los cores sean iguales vuelve a ser casi una realidad...

Puede que si nos ceñimos a la literalidad de encapsular varios cores de distintos rendimientos, el titular sea cierto, pero en vision de conjunto estoy seguro de que lo llevan planteando y probando desde hace mucho, al menos amd.
Aquella lucha de a ver quien tenia mas mhz descartando todo los demas la perdio intel, amd demostro que aquel no era el camino correcto.

Quizas el paso logico al que realmente se este apuntando sea a bifurcar nuevamente las tareas de los procesadores, igual que ocurrio con la cpu-gpu aunque en este caso integrandolo todo en el mismo encapsulado;
un core diseñado para el sistema operativo, otro para multimierdas, otro para campos generalistas, otro para bajo consumo, etc.... un diseño donde todos los cores puedan hacer todas las tareas, pero el rendimiento suba cuando se usan en la tarea para la que fueron optimizados.

D

#12 El problema es la fuente, elchapuzasinformatico es una basura auténtica que solamente trata los temas que le interesan al redactor y siempre de forma sensacionalista, antes la visitaba (inocente que era) y nunca leerás hablar bien de USA, steam, intel, gráficas amd, tesla... y un medio sesgado es información de mierda para acomodar a los que siguen.

M

#27 Te ha faltado Microsoft...

Panfleto tendencioso.

D

#36 Como digo hace tiempo que no visito ese estercolero aunque no me extraña lo de Microsoft porque ya se veía el cariño a Sony, a ver en realidad pienso que solo da lo que esperan sus usuarios, como si fuera un partido de fútbol en todos los temas se posiciona y burla del otro, cosa que nunca verías en cualquier otro medio. Como anécdota yo recuerdo cuando las vega de amd eran motivo de burla por el consumo y como al salir las rtx que consumen aún más nunca salió el tema lol

#47 Sí es justo lo que dije, hace años que llevan esa tendencia, de hecho desde que intel era claramente superior hasta ahora que no lo es.

Me da igual lo que hagan en su web pero me resulta curioso que se publique en menéame una noticia con esa fuente.

Ritxis_1

#27 pues últimamente hablan muy bien de AMD y rajan de Intel tanto como pueden

Shotokax

¿Seguro que a tener núcleos de distinta potencia se le llama "computación híbrida"?

https://es.wikipedia.org/wiki/Computadora_h%C3%ADbrida

Aokromes

#5 del chapuzas creete la mitad.

s

#5 https://en.wikipedia.org/wiki/Hybrid_computing -> https://en.wikipedia.org/wiki/Heterogeneous_computing

Mas o menos, yo creo que es una definición nueva en un contexto nuevo que usa el mismo nombre que otra cosa del pasado, no es tan raro y no es la primera vez que pasa.

cc #43

Shotokax

#62 si ya existe un término veo confuso utilizar otro que tiene un significado distinto.

s

#63 Ya, eso sin duda, lo que digo que tampoco le saltaría al cuello al chapuza, no vino el con la idea.

Jakeukalane

Como cuñado que no tiene mucha idea de esto voy a comentar sin leer la noticia con mi pensamiento:
No me extraña que incorporen cosas de bajo rendimiento, tienen que ir reseteando hacia abajo la potencia porque si no no pueden "innovar". Pasó con los portátiles, luego ultrabooks, luego móviles, y ahora esto (que a lo mejor tiene que ver con los IoT). No pueden seguir a nivel de consumo con procesadores cada vez más potentes, en algun momento tienen que volver a empezar de nuevo.
Los calificativos destrozando mi cuñadez aquí debajo (a ser posible con argumentos) ↓

kmon

sería más bien computación heterogénea https://es.m.wikipedia.org/wiki/Computaci%C3%B3n_heterog%C3%A9nea

dudo

Desde el iPhone 7 (2016) en adelante Apple usa big.LITTLE en todos sus procesadores y en octubre-diciembre saldrá el primer procesador para ordendor.

sillycon

AMD que no se distraiga y que libere ya los Ryzen 4000 de sobremesa que estamos aquí esperando.

campi

#19 Están siguiendo el calendario previsto, paciencia.

sillycon

#45 pues ya lo han retrasado de septiembre a enero

T

Por no comprar a la competencia cuando pudo.

D

#4 No pudo, de hecho financió a AMD para que no les acusaran de monopolio

Ritxis_1

#6 si no mal recuerdo, además tienen un sistema de patentes cruzadas para evitar ese monopolio.

D

Imagina si en lugar de 2 empresas hubiera 50, la innovación que esto produciría.
Es lo que tienen los monopolios.

Abeel

#7 en el coche eléctrico hay 50 empresas reinventando la rueda de baterías, coche autónomo y demás, que bonito sería que todas las empresas compartiesen ese conocimiento para avanzar más rápido.

K

#17 Tesla compartio todas sus patentes.

EmuAGR

#7 Ya había 50 en los 90, lo que pasa es que cada una con su arquitectura de CPU: Sparc, PowerPC, x86... O se compran entre empresas pequeñas para aumentar el tamaño y poder tener más know-how.

Que fabricantes x86 estaban Intel, AMD, VIA, Cyrix...

andres.dev

#7 Ahora existen los fabricantes que usan arquitectura ARM (Qualcomm, Samsung, Nvidia, Apple, ...) y parece que le van a dar el repaso del siglo a Intel.

m

Eso de que windows trata de dar mejor experiencia al usuario no lo tengo claro. Veo que dará prioridad a ciertas tareas, pero eso de que conseguirá mejor experiencia de usuario, es subjetivo.
Para una programación multihilo correcta, cada tarea tendrá la misma prioridad, salvo que se indique una jerarquía. En tal caso se sigue el orden.

D

La parte del SO que de encargue de asignar las hebras de los programas en ejecución a los distintos núcleos debe ser bien interesante, más aún si éstos van a poder ser núcleos de CPU, GPU, o DSP.

Más aún a sabiendas de que de necesita mantener cierta coherencia en el orden de la ejecución de las instrucciones y que las actualizaciones que de den en la caché de un grupo de tenga que pasar a la del otro al cambiar de grupo.