edición general
100 meneos
2699 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear

Demostrar el rendimiento real de DirectX 12 desvelaría el timo de las CPUs Multi-Núcleo

La API DX12 en PC, deja entre ver el miedo de Microsoft y fabricantes a la hora de que DirectX 12 influya de forma muy positiva en el rendimiento del equipo, en ello tiene que ver DirectX 11 y reconocer que solo un núcleo de la CPU estaba conectado a la gráfica, por lo que que las CPUs de varios núcleos eran inútiles para los juegos, obviamente se vendían prometiendo lo contrario, y no interesa que ahora se conozca.

| etiquetas: directx , amd , intel , nvidia , procesadores , nucleos
Articulo sensacionalista, escrito por alguien que no tiene ni una ligera idea de como se programa en entonos multitarea y menos en entornos gráficos. Desde antes que salieran los procesadores multinucleo ya se hablaba de la problemática de adaptar las aplicaciones a este tipo de procesadores. Y se empezó a desarrollar librerías que faciliten esta labor. El problema no es que la tarjeta grafica solo hable con un núcleo, el problema es que solo un hilo de ejecución puede escribir en un momento dado. Pero en cualquier programa con una complicación media alta, no es todo pintar.

Así que no es problema de Microsoft ni de DirectX 11, es problema de quien no se ha leído las especificaciones.
#6 #22 Por no hablar de que cuanto mas aprovecha un código el multinúcleo, mas depencia hay entre el software y esa arquitectura, y luego eso son problemas a la hora de funcionar en otras plataformas PS4, XBOX, AMD, etc. El problema de aprovechar el multiproceso es algo que viene de lejos.
#6 El caso es que no se equivoca, porque pese a la problemática de pasar de algoritmos pensados para un único procesador a algoritmos para más de un procesador o hilo, lo que pasaba era que pese a que internamente los gráficos se procesaban de manera masivamente paralela y las cpus ejecutaban algoritmos que aprovechaban los distintos núcleos disponibles, al final la comunicación cpu-gpu era de uno a uno, con lo que siempre se sobrecargaba más un núcleo que los demás. OpenGL tiene extensiones…   » ver todo el comentario
#44 No es exacto lo que dices, y mucho menos lo que cuenta la noticia. Las CPU no renderizan, más que nada porque para eso están las GPU que lo hacen mucho mejor. Lo que se ha hecho es habilitar un área de memoria a la que pueden acceder tanto CPU como GPU, y así todas escriben y leen a la vez. Lo que es una optimización de lo que había con muy buenos resultados prácticos. Pero la noticia lo que intenta vender es que nos han estado timando porque los microprocesadores multicores son una castaña.
#47 Nunca he dicho que rendericen nada las cpu (que si quisieran podrían, ahí están los buffers de memoria de la gráfica, solo tienen que mandar los comandos adecuados para escribir en ellos o como se hacía el postprocesado en la época de las gráficas no programables: descargar los buffers en la memoria de la cpu, hacer los cambios y luego subirlos de nuevo a su sitio para mandarlos a dibujar). He dicho que parte del tiempo de mostrar una imagen renderizada reside en lo que tarda la cpu en…   » ver todo el comentario
#48 Estas mezclando hilos con núcleos. En este otro articulo del mismo autor está todo mucho mejor explicado.

elchapuzasinformatico.com/2015/03/directx-12-todo-lo-que-debes-saber-i
#53 ¿Qué son hilos sino núcleos parciales? (en el caso del hard, en el caso del soft, hilos son procesos "ligeros" con ciertas limitaciones, lo cual viene a ser extrapolable a lo anterior). Ahora dime por qué estoy mezclando cosas y qué cosas estoy mezclando.
#55 No es lo mismo un hilo que un núcleo. Ni siquiera un hilo se ejecuta siempre en el mismo núcleo,el sistema operativo lo va balanceando la carga buscando el mejor rendimiento.

Además decir que solo un núcleo puede comunicarse con la grafica es una afirmación muy confusa para el profano.
#59 Niño, ya he separado hilos y nucleos en hardware e hilos y procesos en software. Un mismo núcleo hard puede ejecutar más de un hilo hard siempre y cuando los recursos necesarios estén duplicados (el hyperthreading funciona para hilos o procesos simples, para cosas más complicadas los recursos ya son compartidos y no pueden ejecutarse a la vez; por eso las máquinas de muchos hilos como es.wikipedia.org/wiki/UltraSPARC_T2 son muy buenas como servidores web, pero suelen tener poca…   » ver todo el comentario
#48 qué paréntesis más largos usas!
#56 Gracias, nunca me habían dicho algo tan bello
De cualquier manera, lo considero una buena noticia para los que tenemos procesadores de varios núcleos, ya que éstos vivirán una nueva juventud. Me pregunto cómo hubiera sido si desde el principio hubiésemos tenido una mejora de rendimiento palpable; dudo que hubiesen estado tan baratas desde un principio, como los Fx de AMD que venden 8 núcles a unos 100€, seguro que hubiese habido más gamas bajas e intermedias con menos cantidad de núcleos
Cuando quien se encarga de evaluar las tecnologias y las vende como avances a precio mas caro teniendo un rendimiento parecido y no hay repercusion de sus fallos esto seguira pasando.
Si engañar compensa lo seguiran haciendo, la pregunta es si no hay herramientas de control y si alguien cobra por esos controles.

Pero coincido con #1 que es una buena noticia , ahora solo necesito 8 procesadores tegra x1 en un pc sin ventilacion y sere casi feliz temporalmente.
#1

Yo hace tiempo que sospechaba que mi ordenador solo tira con un núcleo en muchos juegos, aunque lo achacaba a un problema de mi pc y no de toda la tecnología (menudos caraduras :-( ). Era totalmente desesperante que al entrar en algunos juegos se quedara el ordenador colgado y al ver los recursos del sistema solo estaba ocupado el 13% de la CPU

Así que me alegro muchísimo que ahora vayan a hacer algo para arreglarlo.
#11 #1 leed bien la noticia, los juegos usan más de un núcleo, el problema es que solo uno habla con la GPU, el resto es usado por la IA y algunos cálculos físicos.

En el caso de DX12 lo que harán es que más de un nucleo pueda hablar con la GPU
#7 Pues por lo visto, todos los programadores que han trabajado en DX12 y Mantle hablan de un gran salto adelante gracias a el aprovechamiento de todos los núcleos para el renderizado, los datos de las pruebas de lo que son capaces estas APIs también indican una gran mejoría Algo tendrá que ver ¿no?
#8 Puede ser porque DX12 use características de las nuevas GPU que hasta ahora no se usaban.
#2 Cuando en un juego preparas un fotograma para la gráfica, se hacen paquetes de comandos que se le pasan a la gráfica. Es lo que se llama "draw calls".

El problema de DX <12 es, como en otras API, que las draw calls se ejecutan siempre sobre un sólo hilo, de modo que la capacidad monohilo del procesador te está limitando el número de objetos que puedes pintar a nivel efectivo.

Conseguir hacer multihilo esta operación permitirá pintar más objetos por fotograma o, en los casos donde el límite de rendimiento estaba ahí, mejorar los fotogramas por segundo

cc #4 #7 #8 #9 #5
#20 Al final todo se reduce en poder pintar una escena lo más rápidamente posible. Si tardas 20ms en dibujar y resulta que 7ms se gastan en comunicación entre cpu y gpu y que puedes distribuír ese trabajo y tardar 2ms, estarías reduciendo el tiempo de dibujo a 15ms. Que si, que parece una nadería, pero es la diferencia entre 50 fps y 66 fps (si estamos buscando un sistema de render estable que no baje de 60fps, estas naderías son muy importantes, sobre todo si esa cpu además se encarga de más cosas como la IA).
Como se puede publicar tanta mierda en tan poco espacio. Es alucinante.
#15 yo estoy bastante puesto en el mundo del hardware por hobby y salvo alguna excepcion en los foros en que ando nos tomos las noticias del chapuzas informático casi tan en serio como las de chile hardware.
#46 Y? Yo soy programador de CUDA, sí ese lenguaje que aprovecha las GPUs como un accelerador para computaciones de propósito general. Y te puedo decir claramente que esta notícia es una basura por el hecho de ser sensacionalista. Acusar a las CPUs de TIMO porque una API esta mal hecha (vease el supuesto problema de las comunicaciones Host-GPU single threaded) tiene delito.
#50 He dicho que le damos la misma credibilidad, básicamente ninguna. Son webs donde leen comunicados de prensa de los fabricantes los mira alguien que visto lo visto parece no tener ni idea de lo que tiene ante sus ojos y despues lo aliñan con lo que creen que han entendido traducción mediante. Ese articulo es un claro ejemplo.

Como digo, salvo honrosas excepciones que haberlas ailas mejor buscar la fuente e intentar sacar algo en claro.
Un pc no es un sistema monotarea. Un nucleo estará gestionando solo la gráfica, pero el resto podrán estár haciendo más cosas en el juego. Eso sin contar que un pc esta haciendo multitud de otras cosas además de ejecutar un juego.

Es totalmente irrelevante que solo un núcleo se comunique con la gráfica. No tiene carga de trabajo para que sean más.
#2, exactamente. Esto solo se notará en juegos mediocres, ports rapidos desde consola... yo si he visto bastantes juegos donde solo hay un core en uso, y otros cuantos con actividad constante de mis 4 cores.
#5 #4 Perdonad ambos pero cambié de opinión. La tarea de ese núcleo es la de dar ordenes para que se transfieran de ram a vram los modelos y cambiar su posición a lo largo del juego. No me parece mucho estress para la cpu. Es trabajo del GPU.
#7 Todas las apis de programación gráfica modernas tienden a minimizar el tráfico que se forma por ese "diálogo entre gpu y cpu". Por algo será...
#2 Exacto, en los comentarios de la noticia, hablan de que esto afectaría al renderizado del apartado gráfico. El resto de núcleos ya se dedican a otras tareas como la IA. Lo que ocurre es que esto es lo que más repercute en el apartado gráfico
No esta mal tener una CPU multi-núcleo, lo que esta mal, es lo mal que se aprovecha esos cores.

El PC necesita actualmente mucha potencia por los juegos que existen, pero no aprovechan toda la potencia de la máquina que hay hoy en día, puesto que es muy dificil optimizar juegos para distintas configuraciones en PC, cosa que en las consolas NO, ya que tienen el mismo hardware.

También es un negocio para las empresas de Hardware, si no, no venden.
#22 Los tiempos de la Play Station con el procesador Cell de IBM, que había que romperse los cuernos para programar un juego, han pasado a la historia. Hoy se utilizan los mismos motores gráficos genéricos tanto para las consolas como para los PCs e incluso para los móviles.

Los problemas de portabilidad vienen cuando quieres adaptar un juego diseñado para ser controlado con un mando de consola a ser controlado con el teclado y el ratón.
#38 No hombre, ¿Como puedes decir eso? En muchas ocasiones necesitas ampliar el hardware de PCs porque requieren mayor requisitos y no es precisamente por la portabilidad de joystick a un teclado y mouse.
El tame sq han estado años vendiendo "nucleos" por puro marketing sin software q los apreveracha realmente y no precisamente por la genialidad q es seguir solo una via de desarrollo aka monopolio. Cuando la gente habla bien de DX por sacar cosas "nuevas" se estan insultado a si mismos :troll:
¿Pero entonces el DirectX es la clave o no?
Erronea. El artículo es una chorrada desde la primera letras hasta la última.
Intel Tongo Inside :professor:

Disfruten :troll:
#10 JAJAJAJAJAJA hay un emoji de @professor? que genialidad xD
#30 A 70 euros el juego y con una calidad gráfica bastante inferior. Me quedo con el pc.
#36 Sisi, tengo familia en Escocia y cada vez que iba volvía cargadito. Allí, antes de que empezaran a cerrar tiendas de videojuegos de forma masiva en Princess Street, me encontraba siempre 2x1 en juegos que acababan de salir en España. Por 40 libras dos juegos de Xbox360, y al llegar aqui verlos en la Fnac por 70 cada uno. De todas formas hay que hacer filigranas. En pc sin ser maniroto tienes uno nuevo por 40 a 50 euros. Y si te esperas... pues Steam y a disfrutar.
Lo siento chico, pero en ésta generación habeis perdido la guerra.

PC MASTER RACE.
#54 En dos años y medio, despues de gastarme 800 en la torre, y con 16 gigas de ram y un buen procesador, me gasté hace un mes 360 euros en una gtx970 de msi. Me sale mas a cuenta que la consola.
#62 Ati vade retro. Mi anterior es una hd radeon nosequé series (la tengo montada en un pentium 4 ahora), y menuda pesadilla. Fué instalarme el windows 8 y darme por saco ad infinitum hasta que actualicé a windows 8.1 . No tengo claro del todo si es por la tarjeta o porque windows 8 a secas da por saco con el opengl, pero por dios que mala leche con esa tarjeta y el java. De calle, la mejor inversión en pc es una buena CPU. Tio, the witcher 3. NADA MAS QUE DECIR.

PD: Por que tú lo vales. puu.sh/gMzrb/d35852237e.png
#64 Estoy llorando, creo haber entendido un tercio de lo que has dicho.
#66 Grácias xD
Tienes una buena máquina. No sé lo que te gastaste pero lo has rentabilizado ¿ Si o no? La consola te hace olvidarte de todo ésto, pero es sangrante a nivel de originales. Y ojo, que yo no tengo nada "pirata". A menos que tengas algún RAID, ¿para qué necesitas tanto disco duro?
#68 Oye, si me estás retando dilo que saco todo de las cajas y te mando el dinero por paypal para los dodotis.

Megadrive 1 y 2, Snes, Turbografx, tengo como 4 o 5 gameboys diferentes, psp 3000 final fantasy edition, Nes, Xbox 360 ( casi todo, menos las gameboys en caja) La cantidad de originales de pc desde los 90 hasta ahora te haría cambiarte de Dios. ¿ Es esto un reto?
Y las playstations huehuehue
te adoro
#70 Eso me supera plenamente, si esperas mi opinión. :-(
No son precisamente baratos, pero han bajado mucho. En Amazón estoy viendo gangas, wow. Yo normalmente miro foros y opiniones y si estoy algo convencido tiro para adelante. Creo que vale la pena si quieres velocidad, pero por almacenamiento es una locura por mas que bajen los precios.
Te veo apurado por puertos.

Tengo el Command and conquer primero, el redalert 1 y al renegade lo jugué pirata. Pelín tostón. El FFVII olé, no lo tengo no.
Me gustó el tiberian wars e incluso el generals, hasta que lo probé en multiplayer contra un viciao y dejé de creer en mi mismo xD

Un placer comrade!

PD:El speccy tiene un formato super atractivo para compartirlo :-)
#60 pues con esos números no se. Yo me compré la Play 3 hace ¿4? (no lo recuerdo exactamente) años por 300€. Debo tener unos 25 juegos por los que no he pagado mas de 30€. Algunos los he conseguido por 10€. Así que 300 + (25*30) = 1050€ gastados. En tu ordenador ya llevas 1160 sin contar lo que has gastado en juegos. No, el ordenador no sale mas barato a no ser que quieras jugar con gráficos de consola. Yo, personalmente, para jugar en ordenador con gráficos de consola prefiero la consola…   » ver todo el comentario
Lo llaman la Ley de Amdahl que viene a decir que si tienes un proceso en el que el 90% corre en paralelo, pero un 10% en serie, la aceleración máxima es 10, sin importar el número de procesadores.

En el caso de las tarjetas gráficas, el cuello de botella está en la interfaz PCI y los accesos a la memoria. Dicho en otras palabras, no puedes hacer que vayan más rápido de lo que eres capaz de leer los datos de la memoria, por muchos procesadores que tengas.

Por esta misma razón Intel no saca procesadores de más de 4 núcleos, porque han visto que ese es más o menos el optimo y que incorporar más nucleos no supone ninguna mejora.
significa reconocer que en los últimos años sólo uno de sus núcleos estaba hablando con la GPU, y ninguno quiere oír ‘¿Por cierto, sabes que es una CPU multi-núcleo?’ Era inútil para sus juegos.

Aja ... Entonces un juego es solo su acceso a la gráfica, no hay que computar el mapa del juego, ni mover a los personajes, ni acceder al disco, solo la gráfica.
#12 Te sorprendería lo lerdos por dentro que son algunos juegos de ahora. :-D
Yo no hablaría de timo, hablaría de una lentísima evolución e incluso desinterés por parte de la industria del PC por mejorar la experiencia gráfica en los juegos.
Tengo un i7 y en Virtualización es una maravilla.
#17 que interesante.
#18 por favor, continua.
#17 Y mi abuelo tiene un cerezo
#25 Fotos o nunca pasó.
#17 Moarrrrr
Sería interesante que comentarán como va a funcionar con los sistemas multi GPU.
#13 Pues igual que hay sistemas de procesadores homogeneos, se tendrá en cuenta que puede haber sistemas con gpus homogeneas y se intentará hacer uso de los recursos que haya de la mejor manera que se pueda (lo cual puede ser contraproducente, en caso de tener una gráfica discreta y una integrada, o puede ser un pasote, en caso de tener dos gráficas discretas, aunque sean de compañías diferentes, sin necesidad de puentes o buses externos; habría que ver los rendimientos en cada caso, eso si, pero siempre se podría dedicar una gráfica a opencl, cálculos de físicas, etc y la otra solo pa gráficos)
#45 Perdón, ¡homogeneos no, heterogeneos!
No os dejeis engañar. Este artículo es un truño que no hay por donde coger, probablemente escrito por alguien que no sabe de lo que habla.
Es difícil de explicar para alguien que no sabe del tema, pero lo intentaré hacer sin entrar en detalles.
Con DX12 y Vulkan se va a poder aprovechar mejor la CPU puesto que será la aplicación la encargada de gestionar la forma en la que se le mandan instrucciones a la GPU. Esto quiere decir que una aplicación bien programada puede usar más eficientemente la CPU consiguiendo al mismo tiempo un aumento del uso de la GPU.
Se puede ver este efecto en el siguiente vídeo: www.youtube.com/watch?v=GzcTUG8RT-M
Vaya basuraza de noticia. Ahora resultará que el tema de que se pete a drawcalls es culpa de Intel o de AMD HAHAHA
JUAS, ejemplo práctico de "escribo la primera chorrada que se me ocurre y lo pongo como noticia ,que alguno picará"... y joder si han picado..
Yo voy a lo bueno bonito y BARATO.

El precio de la tecnología es inversamente proporcional al tiempo que ha pasado desde su lanzamiento.


Somos relativistas sin criterios objetivos... Y LO SABEN!!!!

Dudo que vulva a montar un PC, ahora me lo gasto en dispositivos Samsung, y la semana pasada estrene la Samsung Galaxy Tab 4 de 10.1" por 216€. Hace 5 meses fue la Tab Pro 8.4" por 225€ y puede que pronto caiga el S3 por 178€.

Ya ven, por 200€ Samsung siempre me ofrece…   » ver todo el comentario
comentarios cerrados

menéame