Hace 5 años | Por bonobo a unocero.com
Publicado hace 5 años por bonobo a unocero.com

NVIDIA ha presentado en SIGGRAPH 2018 su nuevo hardware de GPUs.La nueva arquitectura que presenta NVIDIA llamada Turing, busca darle más poder al procesamiento gráfico aunque, evidentemente, bien podría usarse para tareas en paralelo, inteligencia artificial e incluso minería de criptomonedas.

Comentarios

Aokromes

#1 aun no se sabe el precio oficial de la RTX 2080 (la GTX 2080 no existe) pero se dice que andara entorno a los 650$
por cierto las QUADRO son tarjetas graficas profesionales, y normalmente son carisimas.
https://www.techradar.com/news/the-nvidia-rtx-2080-reportedly-costs-only-dollar649
https://www.amazon.es/PNY-NVIDIA-Quadro-GV100-32GB/dp/B07C5K688X/ref=sr_1_4?s=computers&ie=UTF8&qid=1534613317&sr=1-4&keywords=quadro

j

#4 Y más de uno se ha comprado una quadro para jugar

Lekuar

#5 Pues es tontería porque para jugar no van mejor, incluso van mejor las domésticas tope de gama que las quadro.

meneandro

#5 Cuando compras una tarjeta gráfica de gama profesional no estás pagando potencia, sino calidad, estabilidad, soporte y garantía. Componentes de mayor calidad y que soportan condiciones más duras y con garantía, drivers específicamente diseñados y optimizados para software profesional, soporte ante fallos, etc. Esas cosas que una empresa requiere porque tienen el hardware funcionando continuamente y donde un problema que impida su buen funcionamiento supone miles o millones de (ponga aquí su unidad monetaria preferida) en pérdidas.

d

#4 Los precios recomendados en vgas hace unos años que no se cumplen ponle 1000€ aplicando de way to be scamed by nvidia.
Ten en cuanta que las 1080ti han llegado a los 900 hace nada y no van bajar precios de estas.

Aokromes

#8 https://www.pccomponentes.com/zotac-geforce-gtx-1080-ti-mini-11gb-gddr5x desde 760 y yo me referia a la RTX 2080 no la RTX 2080TI.

d

#9 Ponme una evga o asus rog/strix un zoltac y mini como que es suicido por apartida doble digamos que mriando pro encima de sus 800€ no baja sobre un MRSP o como se diga de 650.

d

#12 El msrp era de 650 y sabes de sobra que la van poner la 2080 en 900- 1000€ quitandosela de las manos llevamos una temporada en vgas de puta pena lo bueno es que en segunda se están miranado ya las 1070 en 270€ y bajando que da gusto.
Mi sueño era un vega 56 en 250€ pero como las fury son desaparecidas en combate.
Quiero una vega 56 por ir en samsgung de 32 va de 144hz que es el monitor que le tengo ganas así baje precio.

dreierfahrer

#4 a 650 esta la 1080...

Pq iban a bajar el precio? Acaso ATI es competencia?

Aunq hasta mañana no dicen, no?

Aokromes

#11 yo he puesto la pagina donde dicen que el precio de las RTX 2080 va a ser ese, que es cierto, dpm, que no, que se le va a hacer.

laveolo

#11 AMD sólo compite en la gama media, en la que es bastante mejor en relación calidad/precio (como siempre, por otra parte)

El asalto de Vega les salió fatal

D

#4 son para tener multiples monitores con distintas tareas graficas, se usan mucho en finanzas, no estan diseñadas para jugar

Aokromes

#15 a mi no tienes que explicarmelo lol

Lekuar

#15 Sobretodo están orietadas para renders de vídeo y diseño 3D.

g

#4 aun no se sabe el precio oficial de la RTX 2080 (la GTX 2080 no existe) pero se dice que andara entorno a los 650$

Ni de coña

jolucas

Impresionante, .

D

Diosantobendito , pero que animalada de bicho...

D

#33 Tampoco.

matacalvos

Hace años-años había BIOS de Nvidia que mutaban a quadro.... roll

L

¿El impacto del Ray Tracing va a ser importante o tiene un poco de cuento?

pakolo1977

#19 Se va a usar en algunos juegos para temas de reflejos en la ropa y las armaduras de los personajes mas que nada, por ahora poca chicha hay ahí en realidad. Las gráficas geforce de nvidia están orientadas sobre todo para jugar y uso doméstico. Quizás dentro de un tiempo algunos programas de renderizado y modelado 3d puedan aprovechar esa circuitería nueva, pero seguro que esto lo tendrán medio capado en los chips para que no puedan procesar tan rápido como sería con una quadro.

meneandro

#19 Tiene algunas ventajas respecto a la renderización "tradicional". No hay aliasing, sombras volumétricas, los reflejos y efectos de luz, etc. suelen darse por sentados precisamente porque son parte integral del trazado de rayos. A cambio, necesita una potencia de cálculo brutal (en los juegos actuales se imita el comportamiento del raytrace con "grupos de rayos" en lugar de rayo a rayo (o sea, en lugar de calcular la luz que incide en cada posición de cada objeto, se calcula sobre un área pequeña y luego se interpola).

En su día se portaron algunos engines para renderizar usando técnicas de raytracing (cuando Intel quiso sacar a la palestra su proyecto larrabee)





El resultado no impresiona mucho, pero supuestamente hoy en día daría para algo así:





En resumen:



Yo me guardaría de la primera hornada de cosas "raytraced", ya se irá viendo cómo evoluciona...

meneandro

#19 PD: En realidad, supuestamente sólo la demo técnica de unreal (la de los stormtroopers) es 100% raytracing y a saber sobre qué pepino de ordenador. El vídeo del juego usando raytracing que he puesto (el metro y los otros que hay anunciados por ahí) sólo usan esta técnica para ciertos efectos (supongo que reflexión/refracción en ciertas superficies). Así que si, aún queda mucho para que sea algo que pueda desplazar a las técnicas actuales de rasterización. Eso si, quizá a nivel profesional se use bastante más (en lugar de esperar días para que una granja de renderizado te haga una escena, igual bastará con muchas horas).

D

Supongo que no tendrán problemas de attribute clash

D

Yo casi me espero a que salgan y hagan benchmarks independientes, esto apesta a campaña de marketing.

pakolo1977

#20 Es del todo campaña de marketing. Llevan 2 años sin sacar arquitectura nueva al menos en el tema doméstico y quieren que la gente hable mucho de todo esto. Aunque yo llevo mas de 10 años siempre montando geforces en mis pcs, lo bueno es que ya no me dejo llevar por el hype. Para el uso que le doy a mi ordenador, con mi 970 tengo todavía suficiente y eso que llevo ya mas de 2 años con ella. Creo que esperaré para renovar la gráfica una o dos generaciones mas, porque aunque nvidia tenga sus cosas, al menos sus gráficas suelen tener buen soporte de controladores para windows y linux, que es lo que yo uso en mi casa, todavía sigo con mi monitor fullhd y no pienso saltar a los 4k ni 144hz ni historias. Si una cosa funciona bien y da un rendimiento adecuado. ¿Para qué voy a cambiarla?

Aokromes

#20 no te vas a comprar una quadro, nunca para usarla para jugar lol

D

#26 La que tengo ahora me tiene que durar hasta el 2027... mínimo.

Aokromes
Aokromes

#28 dale 2 años, maximo 4 para graficas domesticas de gama media con ray-tracing.

Aokromes

#35

j

Trabajo en el audiovisual, aunque no directamente con el 3D, y me consta que lo del raytracing está en fase de "milonga total", ya que de momento es una característica que que no usa ningún motor de render actual. Es algo que nvidia se ha sacado de la manga. Tiene que instaurarse como un standard, o sea que le queda caminito, si es que llega. Aunque no quita para que los motores de render se adapten a usar a tope toda la potencia de computación. Sólo con que pase esto, lo del raytrarcing será una nota al margen.

Respecto al precio, las quadro de este tipo estan fuera de toda estimación doméstica. Se saca pasta con su rendimiento y se amortizan. Aunque es un cálculo muy cambiante según circunstancias, con unos pocos trabajos, y en un medio año puede estar más que amortizada. Y suelen instalarse en equipos estables y de larga vida útil asi que al final han rendido infinitas veces su precio. Yo las uso (en equipos que no salen de mi bollsillo, claro) y son la gloria bendita, gracias a que todos los soft estan a tope con la aceleración gráfica. Sólo con que te permitan llegar a tiempo con la entrega de un trabajo, o simplemente poder trabajar de una manera confortable adaptándose a una resoolución o a una exigencia de complejidad de renders ya vale todo lo que cuestan.

aunque no quiere decir que estén infladas de precio y que podrían ser más baratas. Pero por acabar con un palillo en los dientes y hablando en cuñado "eso es como todo".

m

#27 Coincido, en la demo oficial se entrepija bastante, así que échale 5 o 8 años para ver algo viable y “asequible” en sobremesa normal, si llega.

j

#29 #28 , ojo que hablo de motores de render de 3D "no de videojuegos" , tipo Arnold, octane , etc, que es a lo que siempre me estoy refiriendo, no a los videojuegos. De hecho, quadro y videojuegos son dos cosas que casi nunca pongo juntas.

D

Me esperaré a Vega 20, quizá incorpore raytracing. O quizá no. En cualquier caso es algo muy verde que no se dará pleno uso hasta dentro de un par de años.

L

La mas cara son 10.000 dolares. Sé que es para uso profesional, pero madre mia... han desarrollado algo que merezca la pena pagar 10.000 dolares? Que burrada.

D

#6 Desde luego. Pero el target no va destinado al cliente que juega al Fornite.

L

#32 Me imagino que es para jugar al crysis más bien

f

#6 Bueno, el mayor uso que se le dan hoy en día a GPUs es la inteligencia artificial. A mejor GPU, menor tiempo para entrenar, lo cual permite saber antes si la hipótesis es correcta o no, y continuar mejorando. Uno de los usos principales de la inteligencia artificial es la prevención e identificación de fraude, solamente bancos y aseguradoras ahorran unos cuantos millones de euros anuales... Yo creo que sí, 10k de tarjeta gráfica es un precio asequible para ahorrar millones de euros a cambio.