Hace 3 años | Por pert0 a geeknetic.es
Publicado hace 3 años por pert0 a geeknetic.es

¿Cómo ha hecho NVIDIA para duplicar el rendimiento de la pasada generación de golpe? La respuesta la encontramos precisamente en la implementación específica de la arquitectura Ampere en su gama GeForce RTX 30 con, entre otras novedades, la implementación de la segunda generación de RT Cores con soporte para concurrencia y la tercera generación de los Tensor Cores para funciones basadas en IA como AI. A lo largo de gran parte de esta editorial desgranaremos todos los secretos de la arquitectura Ampere en esta nueva gama de tarjetas gráficas.

Comentarios

elLuissitzky

#27 A ver, igual te has pasao... Actualmente entre los centros de datos y el gaming está ahí ahí la cosa (adjunto grafico). Igual en un par de años tu comentario se hace realidad, pero hoy por hoy Nvidia tiene dos principales mercados y son esos dos.

https://g.foolcdn.com/image/?url=https%3A//g.foolcdn.com/editorial/images/575635/052220-nvidia-division.png&w=2000&op=resize

ccguy

#52 No me funciona ese link

dfneo

#41 déjalo. Intel-boy detected.
Hay que estar poco informado para ir a por Intel y sus 14-12 Nm ahora mismo.
He renovado tras 11 años portátil. Un 4300u 4/4 que es un cañón, que no pasa de los 45 grados en uso normal y que ni enciende ventilador. A precio de i3 y rendimiento casi de i7 10a gen

D

#15 Yo las uso para Deep Learning y el rendimiento es idéntico a Windows.

elchacas

#21 Desconozco como estará actualmente la cosa, llevo algunos años sin usarlas (salvo el portátil que no me queda otra y llevo una 2070):

https://www.phoronix.com/scan.php?page=article&item=rtx2080ti-windows10-ubuntu&num=2

Según los test de Phoronix el rendimiento siempre es peor. Si me aseguras lo contrario me retracto; aún así me sorprende con sinceridad teniendo en cuenta que a Nvidia siempre le ha traído sin cuidado el soporte Linux de sus tarjetas gráficas. Han hecho lo mínimo y poco más históricamente.

s

#24 Es que habláis de cosas distintas. Las librerías de CUDA para Linux van de lujo, y es obvio que inviertan tiempo en eso, dado que la mayoría de los servidores de altas prestaciones van con ese SO. Otra cosa es la traslación a generación de gráficos. Ahí me imagino que a Nvidia le tira un poco del pié, ya que tiene poco mercado.

r

#24 Bueno, tampoco creas que los benchmarks son la verdad absoluta, entran en juego muchos factores y escenarios donde el rendimiento puede variar.

En este benchmark de 2018 ves como tanto Nvidia como AMD corren Bioshock 1080p/high más rápido en Windows, pero a 4K ambas lo ejecutan más rápido en Linux. En los siguientes tests en multiples ocasiones GTX 1080Ti rinde mejor en linux, y otras tantas las de AMD funcionan mejor en Windows (ejemplo: Dota 2/Vulkan).

https://www.phoronix.com/scan.php?page=article&item=win10-ubuntu-gpufresh&num=2

n

#24 Pues yo he siempre he tirado de Nvidia para mis equipos Linux.

Pocos o ningún problema. Rendimiento bueno.

sombra2eternity

#81 quería enlazar a #74 realmente

Robus

#81 Igual la gente que usa Nvidia en Linux no lo hace por los gráficos.

De hecho, a excepción de para jugar, no conozco a nadie que utilice Nvidia para gráficos.

n

#81 A ver, ¿que grafica tienes tu? entiendo que una AMD. ¿usas los drivers libres? ¿el rendimiento es parejo a Windows?

Mi experiencias con las antiguas ATI fueron horribles, por eso siempre he tirado con Nvidia:

- Los juegos en Steam para Linux me van bien. La parte de aceleración siempre me ha funcionado bien.
- Cuando he tenido que tirar de nv decoder y nv encoder, perfecto. Se puede hacer un trasconding en tiempo real de videos HD.
- Hice pruebas de minado con CUDA, perfecto tambien.
- Soporte OpenCL
- Wayland no he probado. Realmente es algo que ahora mismo tampoco vaya a usar, pero de cara a futuro si es interesante que la gráfica lo soporte bien.

Ojo, no pregunto para flamear, quizás la próxima que me compre sea AMD, pero la verdad, me gustaría saber si realmente están funcionando bien con LInux.

sombra2eternity

#100 Yo solo te puedo dar información, no te puedo orientar sobre qué opción es la correcta, por lo que te voy a documentar un poco todo y tu ya elijes.

Yo tengo 2 ahora mismo, una RX 550 (que es la que uso para trabajar por el bajo consumo) y una RX 580 que es la que cambio para cuando quiero pasar una temporada jugando mucho o me voy de lan-party. Yo vengo de una 750ti de Nvidia y estaba hasta los guevos de ella, una experiencia de mierda en todos los sentidos. Las RX 5xx creo que son reconocidas como la mejor opción de lejos para linux por lo que no es necesariamente igual con otras tarjetas. Es más, no te voy a vender que en AMD es oro todo lo que reluce, la gente que ha tenido recientemente las 5700XT lo ha pasado francamente mal, porque el kernel que montaban las últimas versiones de ubuntu llevaba un driver muy incompleto y esta gente ha tenido que conseguir kernels nuevos durante algunos meses para que la tarjeta funcionase decentemente, es decir, el problema aquí es que AMD no llegó a tiempo a subir el driver completo de cara a la release de ubuntu 20.04. Yo que se, cuando ocurren estas cosas, es sin malicia, a veces hay mala suerte, pero en el caso de Nvidia es hijoputismo puro y duro. De momento veo muchos parches subir últimamente en referencia a RDNA2, creo que cuando salgan en mes y pico saldrán con buen soporte desde el día 1, pero no puedo asegurar nada. Sobre el rendimiento con respecto a Windows no te se decir, la última vez que me acerqué a un Windows fue hace más de 15 años, no tengo ni idea.

Con respecto a tus preguntas:
- A mi los juegos de Steam me funcionan todos, no juego a lo último de lo último, pero juego (últimamente no tengo mucho tiempo) a una gran variedad. Ten en cuenta que en AMD tienes 3 implementaciones distintas de Vulkan y 2 compiladores de shaders (uno es ACO, hecho por la propia Valve, si, aunque parezca increíble Valve está metiendo muchos parches al driver libre de AMD), es decir, si no te funciona algo de serie, siempre puedes probar con otra librería de vulkan (yo no lo he necesitado nunca, pero conozco gente que lo hace).
- No tengo mucha experiencia en ese sentido, no te puedo decir.
- El soporte OpenCL (Rocm) de AMD es bueno, aunque tienes que tener en cuenta que OpenCL está lejos de CUDA. Lo que pasa es que tienes que vivir en versiones antiguas de ubuntu, digamos que esto está preparado principalmente para el segmento empresarial, donde no funcionan con lo último de lo último sino con cosas ya muy probadas. AMD está dando soporte a esas versiones LTS únicamente. Hay formas de meter Rocm en kernels más nuevas pero sé que puede ser problemático a veces. De todas maneras, como Vulkan ha empezado a incluir extensiones de compute creo que esto cambiará radicalmente en el prox año.
- Wayland? va perfecto, sencilla y llanamente.

Yo se que en algunas cosas AMD está más limitado que Nvidia, pero la experiencia de que todo simplemente funcione sin tener que hacer nada es genial. También tienes que tener en cuenta qué filosofía quieres apoyar, a AMD le faltan manos, es un hecho, pero el camino de Nvidia es el hijoputismo directamente:

- GPL condom (https://www.theregister.com/2020/08/04/gpl_condom_nvidia_linux_kernel/). Nvidia tiene hasta la polla a la gente del kernel de linux y ya te digo que la decisión que se ha tomado es caparles unos símbolos de sistema que claramente necesitan, creo que esta gente está taaan cansada de las mierdas de Nvidia que les da igual que haya un 80% de marketshare, se acabaron las tonterías.

- GBM vs EGLstreams. Para que el rendimiento de una tarjeta sea decente, esta tiene que poder acceder a la memoria sin pasar por el procesador (si no el procesador te hace cuello de botella), estas 2 tecnologías sirven para eso. GBM es el "estándar" de consenso entre todos los drivers libres bajo Gallium: AMD, Intel, Nouveau, Qualcomm, Vivante, Broadcom etc etc. Pues llegó Nvidia con to su polla un día y dijo "esto no me interesa porque no se parece a lo que tengo implementado en el driver de windows", asiq yo propongo este nuevo estándar y que todo el mundo cambie para que no tenga que cambiar yo. Obviamente le dijeron que se peinase mucho, porque en realidad la comunidad podía haber abrazado el nuevo sistema, pero las cosas no se hacen así, tú no llegas cuando nunca has querido saber nada de la comunidad, ni te has implicado, ni les has ayudado en nada, un día a decirles que tienen que cambiar todo por tus cojones morenos. GBM es necesario para Wayland, no creo que Nvidia nunca llegue a implementarlo.

- La política de "la tarjeta me la pagas pero olvídate de hacer lo que quieras con ella". Resulta que hace varias generaciones, en la familia Maxwell, una empresa china descubrió que si flasheaba ciertas tarjetas podía habilitar ciertas capacidades que tenían dichas tarjetas capadas de serie por Nvidia para no tener que comprar las versiones "empresariales" que cuestan 4 veces más. No estoy a favor de las prácticas de este tipo de empresas, pero lo que ocurrió después me parece todavía más terrible. Nvidia cifró el firmware en la siguiente familia de tarjetas y capó cualquier intento de conseguir el firmware desde driver oficial, tampoco facilitó ningún tipo de acuerdo de redistribución para que la gente de Nouveau pudiera hacer funcionar las tarjetas. Si un desarrollador hacía una herramienta para extraer el firmware firmado del driver oficial y lo publicaba lo llevaban ante los tribunales, si a una distribución se le ocurriera integrar alguna herramienta para facilitar este proceso la llevaban ante los tribunales. El firmware es necesario para subir las frecuencias de reloj de la tarjeta, por eso los de Nouveau soportan incluso las últimas versiones de vulkan, tienen un soporte genial, pero sin poder subir la velocidad de la tarjeta conseguirás una media de 5fps en cualquier juego. Y para mejorar todavía más esta situación incluyeron una cláusula que debías aceptar en la siguiente versión del driver (https://www.reddit.com/r/MachineLearning/comments/7ly5gi/news_new_nvidia_eula_prohibits_deep_learning_on/) para evitar que colocases cualquier tarjeta que te perteneciese en un datacenter, te puedes leer el hilo de reddit, es la risa, porque no especifica que es un datacenter a efectos legales, y al dejar esto tan abierto les permite hacer cosas como que si te montas varios ordenadores en el garaje de tu casa, algo que se puede llegar a considerar un "datacenter casero" y te pillan, pueden ir a por ti legalmente. En Europa estamos bastante protegidos contra estas prácticas por lo que no debemos tener ningún miedo, pero a Nvidia esto no te creas que le a frenado para meter estas condiciones ahí. Con AMD sin embargo, te compras la tarjeta y haz lo que te salga de los güevos, si pagas por la gama empresarial es porque te dan soporte premium, no porque te dan una tarjeta igual que las de gaming pero sin capar.

D

#15 Son tests de juegos, renderizado, etc. No puedo hablar del rendimiento en ese terreno.

Para entrenamiento de redes neuronales el rendimiento es el mismo. Puedes probarlo en Azure por dos duros para cerciorarte.

elchacas

#30 Pues es posible que tengas razón pero al final en mi caso, cuyo uso sería el de un PC doméstico, sería precisamente en lo que me afectaría y donde los libres libres de AMD me parecen una maravilla en comparación.

El rendimiento que saqué de la 480 que tenía con drivers libres incluso no tenía rival de Nvidia; incluso en los días de minar ethereum.

redscare

#30 Ummm. Pero en la nube te asignan una tarjeta dedicada o simplemente X capacidad de computación?

elLuissitzky

#15 ¿Qué tal AMD recientemente? Yo desde que hace diez años o así me dejaron sin actualizaciones de drivers para mi gráfica a los 2 años de haberla comprado les mandé a tomar por culo. ¿Han mejorado en ese aspecto?

elchacas

#54 No sé si mi caso te será de mucha utilidad: tengo AMD en Linux con los drivers Libres, tengo que decir que mejoran con cada actualización y eso de quedarte sin soporte diría que antes se te oxida la gráfica...

En cuanto a Windows (lo he usado para algún juego muy puntual, rendimiento más que aceptable), como crítica no me gustan las "suites" monstruosas de control que hacen ahora para las gráficas.

Si tu plan es windows + gaming quizá sea mejor Nvidia.

D

#54 #15 AMD en las X1200 lo pasaron a Gallium en MESA 10 o así y el rendimiento hasta MESA 18-20 ha sido una puta MIERDA hasta el punto de que el Flare (un clon de Diablo de software libre) iba mejor en renderizado software que usando el nuevo stack usando Gallium. Una RS 690, que en teoria deberia tirar decentemente el primer Max Payne a 1024x768 sin ralentizarse bajo Wine Nine (DX bajo Gallium). Eso en Slackware 14.2 con MESA 13.0.6 actualizado con Slackbuilds.

En MESA 20 en Slackware-current tiraba bastante decente, hasta el punto de rularme el emulador de PSX a 2X de resolucion. Pero que haya habido que esperar a 2017-8 para volver a tener rendimiento es triste de cojones, cuando el Intel Mobile 4 Series de mi pareja con Slackware 14.2, portatil de 2010 iba todo follado con la version de MESA 13, emulando la PSP y el Plare se lo comia con patatas.

M

#15 A mí me va falta Nvidia en linux pero yo he hecho algo diferente a ti, prefiero comprarme el hardware que necesito y si el SO no lo permite pues me pongo otro SO.

Saludos.

woopi

#2 nvida o amd? A mí nvidia nunca me ha dado problema en linux. Aunque es verdad que las tarjetas que uso no son de lo último.

noexisto

#10 Yo tengo rtx2070 súper y sin problemas en Linux
He estado viendo las nuevas RTX 3000 y el salto que han dado es, sin duda, el mayor de la historia en gráficas (y no sólo potencia, también en precio)
AMD tiene que estar temblando ahora mismo (espérate que no bajen las acciones y la compra Apple)

Robus

#89 Pues por aquí dicen que el resultado en Linux es igual o ligeramente mejor que en Windows:

https://www.michaelphi.com/first-impression-of-cuda-on-wsl2-for-deep-learning-training/

e

#96
El articulo no habla de resultados.
Habla de que los drivers son privativos.
Que el soporte no el para todo Linux sino para cierto gestor el resto nada.
Y habla sobre todo de estandares que en ingenieria es la base de todo.
Ademas lo que has enlazado no tiene nada que ver con la representacion grafica, estan usando la grafica para IA que ahi nvidia si da soporte porque sabe que el 99% de los servidores son Linux y ahi si sigue los estadares.
El problema es con el stack grafico en Linux y el gaming.

D

#2 ¿Qué problemas tienes con el driver propietario de NVIDIA en Linux? A mí me va perfecto...

pedrobz

#2 Para tu desgracia, el 90% de los que compran estos bichos usan Windows, así que tendrás que esperar sentado (o tumbado) a que pongan el soporte decente.

M

#2 Es que este tipo de tarjetas son para gente que quiera exprimir al máximo las caracteristicas gráficas de juegos triple AAA y para eso mejor WIndows. Gastarte 700-800 o hasta 1500 euros para usar Linux es un poco tonto, por mucho que vayan saliendo juegos compatibles, tampoco drivers y juegos están tan optimizados.

Robus

#46 Es que este tipo de tarjetas son para gente que quiera exprimir al máximo las caracteristicas gráficas de juegos

eh? dudo que la gente que se compre esa tarjeta para linux la vaya usar para jugar.

Y me jugaría un café a que la mayoría de esas tarjetas van a estar en servidores Linux.

Shinu

#2 Joder, empezáis a parecer veganos ya.

D

#2 Yo hace tiempo que uso AMD por su compromiso con los controladores libres de Linux, aunque muchas veces me ha tentado comprar una NVIDIA de gama alta, ahí donde AMD llega por los pelos.

D

#1 La mayoría de la gente probablemente compra más bien en torno a la gama "baja", rollo 120-240. No creo que mucha gente compre gráficas de más de 300€ sin entrar ya en campos de "entendidos". Si no me falla la memoria, creo que en las encuetas de Steam aún creo que lamitad de gente que juega en PC o por ahí usaba portátil, y no creo que todos usen portátiles gaming o profesionales.

Veelicus

#3 las 3070 la van a vender como churros, no me cabe duda, las RTX 2080 ya estan bajando de precio en segunda mano aunque algunos aun no se bajan del burro.
Es un salto adelante muy importante, ahora se va a poder jugar a 4K a un precio mas razonable

m

#5 exacto, la 3070 es la que va a dominar el mercado doméstico-entusiasta. Es demasiada diferencia de rendimiento por algo más de dinero.

D

#3 Viendo las estadísticas de Steam, un 11 % usa una 1060, que es de gama media-alta, después bajamos al 8% con las 1050 Ti y 1050 con un 5%, las de gama alta representan un porcentaje muy bajo.

Así que si seguimos con el mismo tono, la reina sería la 3060 seguida de la 3050.

D

#3 La gente comprará lo que saquen, porque somos así, quitando a las personas que tengan otros gastos o no tengan dinero. Lo normal es tener un pc para jugar (eso es gaming, cutre o no) y poco a poco actualizarlo hasta que no de más, y luego a otro PC.


Un pc profesional (entiendo que te refieres a profesional del juego) está patrocinado, el resto son amateurs con aires de messi.

Y por último, lo de ser entendido o no va con cada uno, normalmente a la gente que le gusta jugar y tiene poco dinero suele leer artículos y ver comparativas para que su gasto de dinero se detine a la mejor calidad precio. Por eso entender o no es cosa de informarse bien.

Un saludo

malvadoyrarito

#1 ni eso, yo tiro con una Ati R9 270 que me compré hace 6 años y sigue moviéndome todos los juegos que salen. Y me costó 170 euros. No pienso pagar nunca más de 200 por una gráfica.

Alvarro53

#6 algunos a 12fps imagino

malvadoyrarito

#32 pues la verdad es que no, y hace 3 años ya que tengo el dinero guardado para un equipo nuevo en cuanto éste me deje de mover juegos. Pero no ha ocurrido, pensaba yo que no me iba a mover el último de star wars, el Jedi Fallen Order, pero si que lo mueve bien. Graficos al mínimo claro. Tengo un i5 3570, 16gb de Ram a 1600, R9 270 y disco duro ssd. Tenía un i3 3240 pero el año pasado vi que el i5 3570 estaba por 30 euros y que las reviews de internet decían que seguía siendo muy decente hoy en día, así que lo pillé. Esto de la informática está muy parado. Llevo montándome equipos desde que tuve un 386, y de verdad que hace unos años que no veo que avance realmente. También edito fotografía, y me va sobrado para el Capture One y el Photoshop. Si editase video ya sería otro cantar, pero no me gusta el video y la fotografía hace tiempo que en equipos mediocres vas sobrado.

m

#55 no soy un pijotero de los gráficos pero prefiero que lo mueva decentemente y disfrutar un poco de fluidez sobretodo, shooters obviamente.

victorjba

#6 No intentes ponerte el Flight Simulator

Abeel

#1 también hay que pensar en proveedores cloud que compran gráficas de mil en mil.

D

#1 Es que AMD se va a ver obligada a bajar algún ciento a su tarjeta.

Nvidia le ha sacado muchísima ventaja en el punto fuerte de AMD, la calidad/precio. Si le quitas eso, se quedan en nada.

C

#1 Bueno, por los rendimientos que han publicado ellos, que habrá luego que comprobar, la 3070 le pasa muy de largo a la 2070, y el precio de salida es menor que le precio de la 2070 actual (o por lo menos el de hace unos días). La gama 70 dentro de la generación es de las primeras a considerar para los que buscan un poco más que una gráfica funcional.

Pero sí, habrá que ver la respuesta de AMD. No deja de ser un golpe en la mesa y el salto más grande de potencia entre generaciones hasta ahora, según lo que sabemos hasta ahora.

D

#1 La 3070 sale a 519€ en Europa. Si se confirma el rendimiento teórico de una 2080ti, dudo que haya nada mejor calidad/precio (salvo una 3060 igual de buena que una 2070 super a 300€ 😬 )

M

#1 No importa que esto sea el tope de gama y que hoy no esté al alcance de todos (arrancando por mi). Lo importante es que tarde o temprano, cuando esta tecnología deje de ser novedad y su costo se reduzca, va a tener un alcance bastante más masivo.

D

#1 DigitalFoundry ya ha hecho varios benchmarks con la 3080, aunque no han hecho tests con FPS sí han hecho rendimientos relativos y se ve que el aumento de rendimiento va del 65 al 100% dependiendo del título y la situación.

D

#1 La gente que cobra sueldos españoles comprará la de 150. Los que cobran sueldos europeos, la de 300. Y los americanos, la de 900.

redscare

#1 El precio da igual. La de 700 de un año es la de 300 del año siguiente con otro nombre.

D

#1 no se si has visto esta comparativa con el doom eternal

D

#44 sí lo ví, así por encima se gana aproximadamente un 50% más, pero quiero ver qué pasa con otros juegos.

D

#64 pues ahi esta para que los meneantes lo vean. Esperemos a los benchmarks lol

Kleshk

#1 Bueno, es que aún faltan la gama 3050 y 3060, que teniendo en cuenta el precio ya de la 3070 en 500Eur... a lo mejor una 3050 ya sale por 150Eur y una 3060 por 300Eur ( o menos )

y con estas comparativas de las gamas altas ( 3070, 3080 y 3090 ) una 3060 tendría que ser casi como las antiguas entre la 2070 y 2080 que no eran moco de pavo...

Ivan_Alvarez

#1 hay una comparativa ya con el último doom con todo a tope y en 4K y le saca aprox un 50% mas de fps

Fisionboy

#4 La que de verdad se va a poner interesante será la hipotética 3060, que rondará los 300 y tendrá una potencia presumible 2070.

A

#4 Hmm... bueno, sí, obviamente ofrecen más rendimiento que la anterior generación, pero la normalización de precios que plantean no me termina de convencer. El mensaje es claro: no volveremos a ver una serie 7 por 400€, ni una serie 6 por 200 - 300€

Aunque supongo que ya llevamos un tiempo así.

D

#4 Y yo esperando a ver como se pone la 2080 ti

i

#4 Pero la gente tiene la impresión de que la 3070 ha dado un salto enorme Pero no, el salto ha sido de un 30% o así, la 2070 a la 2080ti no había más distancia que esa (según userbenchmark por ejemplo) lo que había es mucha diferencia en precio y por eso es tan llamativo que lo que antes costaba 1200€ ahora cueste 520.
Pero para ponerlo en perspectiva si mejoran la 1650 en la misma proporción no llegaría a rendir ni como la 1650super, a que ya no parece tanto salto?

e

#75 El salto generacional del que yo hablo es de la tarjeta más potente anterior a la nueva, y según benchmarks es hasta un 80%, lo cual es casi el doble. Es un gran salto se mire como se mire.

i

#82 Si, es una buena mejora, pero la gente tabien repite mucho lo de una 2080ti por 500€ cuando eso no es para tanto como lo de la 3080.
Para el común de los mortales que no se deja un sueldo en una gráfica no creo que el salto sea para tanto.

j

#43 Yo siempre he tenido Intel en todos los PCs, básicamente porque, al menos por aquel entonces eran mejores (salvo un Pentium 4 que tuve, que ahí AMD si que tenía competencia buena)... luego Intel siguió dominando hasta ahora, pero es que ahora la cosa es al revés. Lo que no tiene sentido es comprar lo peor simplemente por "marquitis"...

Si la proxima generación intel es mejor, pos intel, pero ahora mismo, AMD les ha dado por todos lados en CPU.n Y en gráficas antes tenía AMD y ahora tengo NVIDIA...

Es que encima que hay pocas opciones en el mercado, como para limitarse solo a una...

D

#45 Lo de AMD en mi caso era por precio, he tenido gráficas ATI, antes de que fuese de AMD, y la verdad es que me fue bien, pero después bueno, NV siempre me da mas compatibilidad con Unreal engine.

L

Para mi está claro. Han visto lo que le está pasando a Intel con los nuevos procesadores AMD. Este año salen las dos consolas con unos más que decentes gráficos (ambas de AMD también). Además Intel va a sacar por primera vez un procesador gráfico y Apple con sus socket para PC va a por sus gráficas propias. Nvidia ha dicho, o tiramos la casa por la ventana o seremos una más de las grandes que no han sabido evolucionar. Y se ve que han ido por todas porque han tenido que hacer una refrigeración tan exagerada que ocupa tres ranuras slots.

D

#38 libretro, xenia y pcsx2,pcsx3 y dolphin a 1080p con resoluciones internas mayores a 1080p. 60 fps con shaders y mejoras. Sin caidas.

Ryzen 5 3600 a 4.150 ghz mas una nvidia 1660 super.

O

Hay truco. Recordemos que de las 10XX a las 20XX hubo una mejora muy pequeña. La 1080ti está a la par de la 2080ti.

j

#23 la 1080ti estaba a la par que la 2080, la 2080ti no tenía competencia en Pascal. Pero si, las 3000 el salto es mucho mayor y, curiosamente, en europa no se han subido tanto a la parra con los precios como con las 2000.

sillycon

#25 900 a 1000: potencia ( Más cores )
1000 a 2000: tecnología ( RTX )
2000 a 3000: potencia ( Más cores )

D

#61 3000 a 4000: skynet

Bley

Seguro q tenian esta tecnología antes de sacas la serie 20, quizá con la 10, pero van poco a poco

sieteymedio

Lo de "funciones basadas en IA como AI" me ha matado.

Robus

719 € por 8700 cuda cores?

Y tercera generación de los Tensor Cores!
89 a 238 FP16 TFLOPS!



Ahora ya tengo aliciente para cambiarme de una vez el PC.

vjp

3090 ven a mí! 24 Gigas de VRAM ahora mismo tienes que gastarte bastante más del doble para algo así! (es para temas de redes neuronales no para jugar)

D

Sea cual sea la elección que hagáis, recordad que ha sido AMD la que ha provocado la revolución.

D

[EDITADO]

D

Ya han tardado poco, un clásico subtitulado con el temilla de las nuevas RTX lol

sillycon

Fácil, reduciendo los manómetros y duplicando el número de cores. Por eso consume un 50% más.
La mejora y optimización del hardware sólo conseguirá un diez o quince por ciento de mejora.

D

Se referirá al uso de instrucciones AVX/SMT hombre, de las que RPCS3 explota mejor que AMD.

Eso le da bastante ventaja a la hora de emular la Play3, amen de un mejor IPC.

guOP_Sancheski

Qué hay externo para laptops? Mac Pro en concreto, que valga para mi set up de 3 monitores y que no llegue a los 300 euros.

m

Veo una ventaja aplastante para nvidia. El problema es que si no hay competencia, esta empresa impondrá los precios y van a ser altos.

bomberman

Cyberdyne Systems no era Intel, es Nvidia.

Teranosaurus

La venta de segunda mano está echando humo con esto, tarjetas gráficas de más de 1000€ que ahora son superadas por una de 520 y aún falta AMD con sus RDNA2 por anunciar.

Me parece muy interesante este cambio generacional, tanto en consolas como en gráficas, mucha gente estaba esperando Series X como un todo en uno, antes de ponerse a gastar más dinero en actualizar su PC, ahora, los que aún tienen una CPU que puede aguantar, pueden actualizar a estas Nvidia 3000 y darle un buen empujón al rendimiento por un precio similar.

Hablo de la consola de Microsoft porque comparte parte su catálogo, sobre todo los de sus estudios propios, con el Game Pass en PC, PS5, aún siendo la menos potente, va por otro lado gracias a los exclusivos de Sony y al marketing que nos van a meter entre ceja y ceja.

Mi consejo es que aún no vendáis vuestras 2080Ti, esperad a ver el rendimiento real de la serie 3000, además de que tenéis gráficas que son auténticas bestias, si vuestraa CPU, placa base, ram...necesitan actualizar, pillaría una Series X, es una auténtica pasada lo que ha hecho Microsoft con esta consola junto al game pass, habrá que ver si la política de sacar juegos a su vez en One no la perjudica al no optimizar para ella al 100%, y si tenéis un buen PC, lo acompañaría con una PS5, un súper combo, game pass, Steam, y los exclusivos de Sony.

Solo me queda por saber si puedo vender un riñón por wallapop.

e

#31 yo vendería ahora antes de que sea demasiado tarde

Trastevere

#31 No no puedes porque hay una relación de equilibrio entre la CPU y la GPU. Si te pones una bestia de GPU con una CPU que no sea muy potente te funcionará a saltos con según que aplicaciones.

Trastevere
D

Si quereis hacer streaming comprad nvidia, sus codecs estan genial. Amd en wl papel esta genial pero a la hora de la verdad es una peor opcion, hoy en dia, a intel (cpu) y graficas. Y no me vengais com la teoria de ofrecen mejor relacion potencia precio, porq es real, si, en la teoria, pero a nada q trabajes con programas reales y con videojuegos te das cuenta q intel y nvidia ofrecen mejor relacion calida precio. Monto decenas de ordenadores al año, pongo lo q me piden y llevamos unos años q a la hora dd la verdad nvidia rinde mas, por muy bonitas y reales q sean las specs de las amd, no se porq sera, si por drivers o por optimizacion o porq leches pero es impepinable y no discutible y seguro q ahora la gente con amd me vota negativo pero si hiciesen pruebas de rendimiento veria q esa ventaja en el papel de las amds en ciertos rangos de precio es una ventaja q no se traduce en mayor rendimiento q el modelo analogo dd nvidia, alreves, menor renmiento real aunq en la teoria ganen

D

#35 mayor rendimiento sobre el papel. Por no hablar de que emulando son la peste, los intel estan muchos mas optimizados para emular otras arquitecturas, literalmente hay arquitecturas q los amd no emulas porq no disponen de instrucciones q los intel si

D

#35 Al 100% contigo.
Yo hago videojuegos, monto procesador AMD, y con lo que me ahorro meto o mejor ram o mejor gráfica de Nvidia.

D

#35 Yo me pillé un 9700k hace un año. En su momento el procesador amd equivalente era solo ligeramente más barato, y estaba por debajo en prestaciones.

La soberbia sobra.

D

#29 mmmmm como me gustan esos negativos del q se han comprado una amd en teoria mas potente y q luego tira peor q una 2060 mm, venid si, venid, q yo seguire jugando a doom eternal mas fluido q vosotros

dfneo

#37 es demasiado echar un negativo por ser fanboy. Imagino que habrá sido por defender Intel frente a ryzen. Que eso no se sostiene con ningún argumento.
Cada uno es libre de comprar lo que quiere en todo caso.

D

intel tienes sets de instrucciones (mmx) que amd no y que le permite emular ciertas arquitecturas q amd no, p. e. Sega saturn, que los emuladores de android vayan mucho mejor en intel q en amd, q si mucho van genial en los dos, pero q hay arquitecturas q amd o emula peor o direcatmente no emula, punto pelota, emula arm en intel y en amd y me dices en cual rinde mejor y luego arquitecturas raras q no van en amd

D

#51 Tio, las MMX es de cuando el Pentium y cualquier K7 las tenia.

1 2