Hace 8 años | Por ccguy a es.gizmodo.com
Publicado hace 8 años por ccguy a es.gizmodo.com

Las imágenes que acompañan este post no son fotografías, y tampoco son renderizados estáticos. Se trata de escenarios generados en Unreal Engine a resolución 4K, y el hecho de que te lo digamos es probablemente lo único que te haga distinguirlos de un vídeo real, porque son perfectos.

Comentarios

D

en dos palabras im presionante

anv

#6 y "rendimiento porque" (sin espacio)

A

#38 Y mallas con elle.

D

#69 Y "por que es una porción", con el "por que" junto; y resulton con tilde en la o, poligonos con tilde en la i, y tio con tilde en la i. Por no hablar de la puntuación.

D

#74 Por supuesto. Errare humanum est. Y parece que a un tal Nebilim le jode que se haga alguna corrección que otra.

belfasus

#78 ¿en serio te ha cascado negativo por señalar una falta de ortografía? Se nos va de la mano lo del uso "libre" del negativo. Ale te compenso

G

#16 Efectivamente, y en Battlefront es un buen ejemplo de fotogrametría currada en uso real y renderizada en tiempo real con buen rendimiento.

Esas no, y a esos me refiero, no esta aplicado a nada usable salvo una escena "contenida".

No he dicho que la fotogrametría no valga, digo que esas escenas son a pesar que diga el articulo que no, son fotografias (en 3D eso si), sin nada más.

SiCk

#20 Correcto, correcto, no te llevaba la contraria pero me refiero a que va a ser un sistema útil en el futuro (ya "lo es"), porque, por ejemplo en "The Vanishing..." ya mostraron cómo ir "cogiendo piezas" y montar un entorno con ellas, es decir, no creo que haya que "digitalizar todo" si no aprovechando las piezas y "unirlas", y cuando se vaya "puliendo", al partir de "partes reales" todo quedará mejor

G

#27 Ciertamente la fotogrametría no solo tiene futuro si no ya que estamos en el.

Es bastante dificil trasladar las imperfecciones de la naturaleza si no es con fotogrametría, y las imperfecciones es lo que te da el realismo, y la perfección algo que se ve sintético por lo que la fotogrametría es una magnifica opción.

Pero tiene muchas limitaciones debido a como dije la malla generada y la excesiva potencia gráfica necesaria para renderizar algo en tiempo real (imágenes estáticas es bastante más funcional), algunas se pueden suplir trabajando el objeto, pero otras no, los objetos grandes por mucho que los trabajes... y un terreno... como que no.

Luego hay multitud de objetos que es más rapido y practico hacerlos manualmente que generados con fotogrametría y luego reducirlos en poligonos, lo bueno de la fotogrametría en muchos casos solo es la textura realista que te proporciona.

Las escenas que vemos no me extrañaría que estuviera por el millón de polígonos o más, y son trozitos pequeños de la escena. No es usable esa definición en nada en realtime, ni es algo meritorio en mi opinión capturar eso e importarlo al UE4.

Algo como Kite Demo de UE4 que tambien usan fotogrametria si es un trabajo currado y meritorio y aun así necesitas un bicho de grafica, un CPU de la leche y unas cuantas horas para cargarlo lol, pero al final tienes algo usable con una grafica de alta gama, aunque sea a 30fps.

D

#33 Una pregunta, hace tiempo escuche que alguien, quizas Cliff Bleszinski oJohn Carmack, estaban trabajando en una tecnica para renderizar o postprocesar solo alrededor del punto donde enfocamos la mirada. Se desestimo para pantallas, pero ahora con los cascos de realidad virtual, creo que podriamos llegar a ver algo parecido. ¿Que opinais?

Boleteria

#44 ¿Te refieres a frustum culling?

D

#47 mmm creo que no, para lo que yo digo creo que hace falta "eye tracking", seguir a tu pupila, en incluso donde enfoca. Creo que lo que tu mencionas es un paso anterior que no tiene en cuenta el ojo, si no una camara virtual.

Pero hablo sin saber mucho del tema, tu me dices si estoy en lo cierto o no.

Boleteria

#53 Mea culpa.

Pensé que te referías a donde mira la cámara en vez de a donde miran nuestros ojos en la vida real.

G

#44 El eye tracking es el futuro de la RV, debido al coste de renderizar en 3D y los precios de las gráficas mínimas (que se quedan cortas) no habrá RV para todos los públicos sin eye tracking.

La CV2 tendrá que venir con ella y ahí empezar a despegar la RV, si no consiguen tener algo suficientemente funcional en ese sentido para la CV2/VIVE2 seria un gran FAIL.

La diferencia es bastante sustancial, la parte técnica es que renderizas en 3 capas (o 3 veces), primero renderizas a muy baja resolución la escena completa, luego a una calidad media unos cuantos centímetros y a una calidad alta un par de centímetros dados por la posición de tu ojo/eye tracking, que es en realidad lo que vemos a alta resolución. El area foveal/fovea.

A pesar de renderizar 3 veces la escena el rendimiento es bastante mayor.
La dificultad (software) estriba en la unión (blend) de esas dos capas al ser de diferentes resoluciones que dea el pego, sobretodo la capa de alta resolución con la media, aunque creo que ya hay cosas que suficientemente buenas.

Nvidia ofrecia algo parecido, no me viene ahora el nombre para renderizar los lados a menos calidad, reducir el coste/tiempo de renderizado, el problema es que si mirabas de reojo pues veras los bordes borrosos al no ir controlado con nada tipo eye tracking, pero es raro ver a los lados y daba bastante el pego. De todas formas apenas ganabas por que el area para que no note es bastante pequeña, el borde unos muy pocos centímetros

D

#48 gracias, muy bien explicado. Esperemos que funcionen bien estas tecnicas y las veamos rapidamente en el mercado.

G

#52 Yo estoy bastante seguro, aunque decepciones me he llevado, la cuestión es que si lo quieren hacer una tecnología mainstream no les queda otra, no es factible un equipo de 1500 euros para disfrutar de la RV y pretender vender varios millones de gafas RV. Y se les ha llenado la boca de espuma hablando de RV "para todos" y luego han sacado algo a un coste para privilegiados y es algo que querrán solucionar cuanto antes y eso pasa actualmente por eye tracking.

La cuestión es también las prisas que tengan en rentabilizar las inversiones en RV y que consigan por supuesto que esas técnicas como dices funcionen suficientemente bien para el comprador final.

D

#55 se sabe de algun plan de cuando lo implementaran? Yo a ojo supongo que en 4 años habra algo asequible (alrededor de 400 euros) y de calidad o al menos algo razonable (600 euros) pero ya màs estandar en prestaciones.

En fin, a ver que nos trae este año.

G

#81 Ni idea, y con el secretismo que hay entorno a la RV ...

Yo creo que antes, el proximo año veremos los primeros bocetos de la CV2 y en 2 años tendremos la CV2, no van a esperar 4 años para sacar otra versión. Además ya lo han dicho que quieren seguir el ritmo, cosa logica por que es un mercado en constante evolución.

Si sacaran con eye tracking ni idea, el HMD FOVE lleva, y oculus tendrá algo seguro, si estara maduro para la CV2 ni idea.

El precio no creo que baje mucho, algo supongo que si, se abarataran algunas cosas pero vendrá nuevas tecnologías como el eye tracking y mejores paneles que tendran su coste, la cuestión es que disfrutarla si viene con eye tracking no necesitaras un bicho de ordenador entonces sera más asequible en general.

D

#84 gracias por ponernos al dia

p

#55 Yo creo que la RV no va a despegar por cuestiones mucho más sencillas aún que el precio, como que no es práctico, no va a tener mucha aceptación excepto por los más entusiastas y sobre todo porque la interacción es muy difícil que sea decente.

Tampoco da pie nada más que determinado tipo de juegos, lo cual lo va a limitar muy rápido en cuanto a ideas por muy espectacular que llegue a ser.

G

#92 ¿no es practico?
¿la interacción es dificil?

hombre yo lo gozo con mi dk2+leap motion interactuando, es una experiencia tremenda aun estando como estamos en el nacimiento de la RV.

Lo más limitado son los FPS por que produce mareos, pero aun así el concepto de jugar a FPS no sera algo que habra que excluir, si no que igual es una gran baza en el futuro, solo hay que cambiar el chip y que a FPS no vas a jugar sentado y necesitaras un espacio limitado más grande para jugar de pie y moverte.

p

#98 Pues eso lo va a matar. A los frikis que les (nos) interesan estos temas puede, pero al gran público le va a interesar los 5 minutos que les interesó la Wii y demás controles de movimiento que fueron surgiendo después.

G

#99 La RV alcanzara un campo mayor que cualquier videoconsola, evidentemente para jugar a gente que no le gusta los juegos seguirá sin gustarle, pero la RV ofrece y ofrecerá más que jugar a juegos.

De todas formas para llegar a no los jugones queda sobre una década, o eso se estima. Esta naciendo todo. La gente que lo pruebe ahora le gustara la experiencia pero no le dará mayor importancia que cualquier cacharro nuevo que se va olvidar, ahí tienes razón. Pero el futuro sera bastante más interesante para todos los públicos.

D

#92: Despegará pero no se va a masificar. La razón principal: la potencia que necesita no es asequible aún.

o

#55 La VR para todos se llama Playstation VR

p

#48 El problema real está en que siempre va a haber un retardo entre lo que reporte el sensor y la adaptación de la imagen, y los ojos en este sentido van a percibirlo sí o sí. Los ojos no ven con nitidez fuera del punto central pero sí que detectan rápidamente parpadeos y movimientos fuera de lugar.

G

#91 Hoy en dia no hay latencia perceptible entre la generación de la imagen, el envió al HMD y los movientos de la cabeza, el CV1 ya te da 90fps por segundo y el 99% de la personas no notara latencia alguna, cuando se genere 120fps sera cercano a la perfección.

p

#100 No es eso lo que estoy leyendo en Slashdot de gente que desarrolla en esas plataformas. Todsvía comentaban hace un par de días que prácticamente nadie aguantaba 30 minutos de uso sin marearse.

Lo de los fps no tiene nada que ver con la latencia en los sensores, como si son 500000fps. El cuello de botella es otro. Es un problema con el que tienen que lidiar en el mundo del audio por ejemplo.

m

#44 foveated rendering renderizas solo una zona concreta de la vision del usuario. Si puedes saber donde mira (con tecnología que haga tracking del ojo como Fove) o en una zona concreta (el centro). Para Oculus Rift es posible desde la version 6.0
Un video de ejemplo

D

#70 vamos que la cosa va en esa direccion. Pero, existen planes de meter eye tracking en cascos de VR? Vamos, por saber cuanto tiempo habra que esperar.

meneandro

#20 Teniendo en cuenta que cada generación los escenarios son más grandes y detallados (porque al aumentar la resolución se nota muchísimo el (escaso) detalle de los objetos, hay más profundidad de campo, etc), y cada generación el equipo artístico ha de ser mayor para poder terminar escenarios, personajes y objetos, si no se producen cierto tipo de avances que aligeren el proceso de diseño artístico los costes se dispararían en progresión geométrica o incluso exponencial. Los engines intentan facilitar en la medida de lo posible la creación y composición de escenas, pero crear y "fundir" los materiales y texturas de manera coherente lleva tiempo y trabajo.

Luego la gente se queja de lo malo que es técnicamente el RAGE, que permite la virguería de tener una única textura gigantesca multiresolución cargada en tiempo real usando una forma bastante eficiente de streaming pintada sin cortes ni fisuras para los escenarios (en principio los juegos normalmente usan muchísimas texturas de distintos tamaños que componen y distribuyen) manteniendo una tasa de fps estable le eches lo que le eches y no se dan cuenta de que sus problemas posiblemente sean limitaciones de ancho de banda o de proceso de las consolas o poco tiempo de optimización. Para que nos hagamos una idea, descomprimir un vídeo 8K (7680 × 4320 pixels) es la muerte para cualquier procesador actual si lo hacemos usando CPU (habrá codecs específicos en las gráficas más actuales, pero no estoy seguro). El rage técnicamente puede trabajar con texturas de hasta 128000x1298000 pixels (texturas que incluyen las capas de color, transparencias, especular, sombreado, normales, mapas de desplazamiento, etc), tomándolas como embaldosados, tiles o cachos, claro está, pero adaptándolas directamente a la configuración y disposición de memoria de cada máquina de manera automática.

Posiblemente la industria haya tirado o tire por un camino similar, si no a nivel de engine si a nivel de edición (que al usuario le parezca que trabaja sobre un único lienzo). Y la fotogrametría parece que va a ser una pieza clave para "portar" imágenes o texturas reales a esos lienzos, integrando no sólo la apariencia visual sino también la malla 3d dentro del proceso, acelerando enormemente la parte de diseño y modelado de escenas.

meneandro

#54 No es del todo cierto lo que dices.

1) Actualmente y desde hace unos años (desde que existe hardware programable y shaders) se aplican técnicas de trazado de rayos para generar ciertos efectos gráficos. Sin trazado de rayos no habría normal maps (que se basan precisamente en modificar cómo se ve una textura dependiendo del ángulo de visualización y los puntos de luz), ni shadow maps (hay que trazar desde donde viene la luz, el perímetro del objeto y dónde se proyecta la sombra para dibujarla adecuadamente), ni god rays, ni reflexión/refracción, ni... otra cosa es que se aplique para todos los objetos en todos los casos en toda la escena completa como si se hace en un render profesional. De hecho, hay suficiente potencia como para mover el quake wars usando raytracing puro y duro para todo el escenario desde 2008:

(pondría el mismo experimento de años anteriores con juegos anteriores como quake3, pero no lucen tan bien).

2) Efectivamente, hay mil y un trucos matemáticos o lógicos para disminuír la carga de proceso y poder dedicar cpu y gpu a cosas más importantes. Si hay dos formas de hacer lo mismo (o de que a nuestros ojos le parezca igual), siempre se va a tratar de elegir la más rápida. Si hay pérdida de calidad, se hará cuando el ojo esté ocupado con otras cosas. Lo que dices de los mapas de normales es ¿para qué estar metiendo polígonos a tutuplén y tan pequeños que apenas se ven si puedes aplicar técnicas de texturizado que dan la impresión de volumen a elementos planos y puedes simplificar la geometría de un objeto engañando al ojo para que parezca más complejo de lo que es? Y por cierto, esto también es muy usado en cine, no es sólo cosa de juegos de ordenador, sólo que de manera más controlada y conservadora. De hecho, se ha avanzado y ahora aparte de añadir texturas "con volumen aparente" existe la teselación, donde si que se añaden polígonos para dar apariencia de volumen (menos que en el modelo original, dependiendo de lo cerca que nos encontremos, etc).

3) ID empezó a usarlo como megatexture en quake wars como evolución del motor de doom3. Luego lo mejoró para rage y pasó a llamarse virtual texture. Otras compañías desarrollaron la idea posteriormente (que tampoco creo que fuera novedosa más allá de la industria del videojuego). Texture atlas no lo conozco y no sé si es algo anterior, cohetaneo o posterior, pero si, la idea es la misma.

4) Efectivamente tienes parte de razón, pero también la tiene la gente. El caso es que cada PC es de su padre y de su madre, y código superespecializado para un modelo concreto de tarjeta gráfica no se puede usar directamente y sin más para cualquier otra, aunque sea de la familia (si programas para un determinado ancho de banda o usando determinados registros y de una determinada forma, usar una tarjeta gráfica prima hermana puede que te de mal rendimiento: el ancho de banda es distinto y estás alineando mal los datos en la memoria y produces una penalización, determinados registros resultan ser de una precisión distinta y se producen artefactos gráficos o no los tiene ese modelo y hay que tirar de otros o estás intentando usar funcionalidades que no existen -por ser propias de un modelo superior o porque en modelos superiores se ha sustituído esa funcionalidad por otra cosa que permite más flexibilidad- penalizando el rendimiento, usas ciertos elementos pensando en un tamaño de caché y tienes otro y terminas llenándola penalizando el rendimiento, etc). Si además la tarjeta tiene otra arquitectura o directamente es de la competencia, peor aún. Así que en cierto modo los juegos al portarlos a PC hay que desoptimizarlos (salvo que se programaran en pc y luego se optimizaran para cada plataforma individualmente, en lugar de programar directamente para X plataforma).

G

#80 A ver...

1) He dicho que se utilizan técnicas derivadas del raytracing pero más conservadoras, no se por que te has saltado esa parte.

Los videos de wolfestein 3D y supongo que quake (este ultimo no lo vi como lo hicieron) se utilizaron granjas de ordenadores.

Es imposible actualmente renderizar raytracing para algo en real-time con una grafica de consumo.

Estudios cinematográficos utilizan raytracing y tienen gráficas especiales con "Raytracing Units" y tardas horas en generar un segundo.

Te lo repito: Como dije y no me equivoco es imposible utilizar raytracing para algo de consumo aun con las tarjetas más caras del mercado.


2) Hay una diferencia notable en utilizar high poly y normal maps. Normals maps da el pego pero la diferencia se nota.

La tesselation es una mierda, genera una malla bastante poco efectiva desde el punto de vista del rendimiento, te compensa poner el high poly, es util por que generas volumen de una textura sin necesidad de un high poly pero por rendimiento haces el high poly con una malla mejor y que no tenga polígonos innecesarios a tutiple Me gusta más el parallax mapping aunque tambien es costoso.

3) Pues ni idea no se exactamente del tema ese.

4) Te equivocas, el código especializado gráfico lo da dependiendo la plataforma DirectX y opengl y nadie salvo muy determinadas cosa lo toca. Por lo demás perdona pero se ve que no sabes de lo que hablas con optimizar y el tema consolas->PC

G

#80 #86 Añado no vas a comparar la calidad grafica en un PC con una consola. Y eso es por que en la consola lo hacen con calidad pesima y limitada para que tire, y con más trucos gráficos para disfrazar alguna falta de tecnologías actuales.
Cuando lo pasan a PC utilizan mejores luces, mejores texturas y pueden enriquecer más los escenarios de multitud de maneras. Y aun lo podrían hacer mejor en todo pero claro tiene que tirar en una gráfica media decentemente y baja de aquella manera, entonces tienen que "optimizarlo" para ellas que no es más que meter el hachazo en calidad o limitarlo

Como dije quitando drawcalls (que es por el tema del CPU) no hay ni una sola optimización que se haga que no sea para cargarse la calidad gráfica. NI UNA. Y te RETO a decirme una.

Optimizacion = Cargarse/Reducir calidad.

Sencillamente

meneandro

#87 Los gráficos de un pc y una consola ahora mismo son exactamente iguales (a nivel de hardware hay pocas diferencias, se irán ampliando con el tiempo), la única diferencia es la potencia bruta de cada uno. Pero lo que puede hacer uno lo puede hacer el otro (con algo más de tiempo de cálculo, y este es el único factor clave).

Optimización = hacer lo mismo de manera más eficiente.

Si la gráfica AMD tiene una forma de acceder a bajo nivel a un registro o una ruta más rápida para hacer algo que digamos el directx11 de MS, los programadores usarán eso para optimizar. Y eso no podrás usarlo cuando programes para pc si quieres que te funcione bien en tarjetas nvidia o en otras tarjetas amd que usen otras rutas o registros.

Pongámonos que estamos en una ps4: tienes un ancho de banda del copón. Pues aprovechas todas las ocasiones que puedas para llenar ese ancho de banda todo lo posible y así acelerar procesos. Pongámonos que estamos en una Juan: usamos su edram para cachear todo lo que quepa en ella y acelerar lo más posible los procesos. En un PC no puedes controlar qué cuelas o qué no porque no sabes a priori de qué ancho de banda vas a disponer, así que no puedes ajustarte. Y tampoco tienes una memoria intermedia ultrarápida (salvo casos contados, creo que una de las iris pro de intel tenía algo). No puedes optimizar según la arquitectura, tienes que programar de manera genérica (y eso resta rendimiento)

meneandro

#86 "There cannot be an apple-to-apples performance comparison between the original and the ray traced version due to the additional special effects, but in general the frame rates on the original, rasterized version are several factors higher and usually over 100 frames per second on high-end graphics cards of 2009.[8] The reported performance numbers in a resolution of 1280×720 of the ray traced version have been given for a variety of systems:[1]

Caneland server system with four Tigerton quad-core CPUs, 2.93 GHz: 15 - 20 frame/s
Caneland server system with four Dunnington hexa-core CPUs, 2.66 GHz: 20 - 35 frame/s
Workstation system with two Nehalem quad-core CPUs, 3.2 GHz: 15 - 20 frame/s
Graphics card Larrabee (early prototype): Exact numbers unknown.[9]"

Vale, son pequeñas granjas, y la tasa de fps no es la más alta del mundo, pero si es en tiempo real, y estoy seguro que usando gpus modernas podrían hacerlo en pcs de hoy en día a tasas mucho mayores.

Todo depende de la resolución de los normal maps que uses. Por supuesto, si usas normal maps de baja resolución cantará la traviata. Del mismo modo que un objeto en baja poligonación respecto a uno de alta.

4) En pc se usa opengl o directx porque te aisla de lo que hay por debajo (no sabes qué tarjeta o fabricante, así que programas en un lenguaje a más alto nivel y ya los drivers se encargan de traducir al lenguaje de la tarjeta. En consola, sabes excatamente qué hardware hay debajo, así que puedes prescindir de lenguajes de alto nivel y centrarte en escribir al más bajo nivel (o al menos adaptar tu código de alto nivel a cómo funciona lo que hay debajo). Desde luego, no es escribir y ya te vale igual para cualquier plataforma ni de lejos.

Ahora, dame clases de optimización plis.

p

#80 Lo que hacen los shaders no es raytracing. Es fundamentalmente diferente, aunque el resultado sea visualmente similar y dé el pego.

Ejecutar un programa que calcule la luz por píxel teniendo en cuenta múltiples capas de texturas (hechas para emular el resultado de un raytracer en algunos aspectos) no es raytracing.

Para hacer raytracing tendrías que calcular todos los rayos de la escena y hacerlos rebotar por todas las superficies reflectivas, lo cual se iría de madre muy rápidamente. En tiempo real no se pueden andar calculando trayectorias de rayos, más que nada porque es un problema O(n^x), con lo que habría que tener varios órdenes de magnitud de aumento de potencia para notar una mejoría perceptible. De ahí que se recurra a trucos para que lo parezca sin serlo.

meneandro

#96 Vale, explícame ahora cómo se consiguen efectos como el ambient oclusion (https://en.wikipedia.org/wiki/Ambient_occlusion) o su primo eficiente, el SSAO (https://en.wikipedia.org/wiki/Screen_space_ambient_occlusion). La diferencia está en el número de muestras y el cómo se rellena toda la información que no se calcula directamente usando rayos, y en el número de "rebotes" de cada rayo de luz, pero las técnicas usadas son deudoras del raytracing.

p

#54 La mayor parte de gente que quiere escenas realistas detalladas no tiene ni idea así que se tragará cualquier cosa que dé el pego.

Hoy día los juegos son una cuestión del departamento artístico y el realismo tiene cada vez menos peso independientemente de lo que piensen los entusiastas del 3D y los gráficos.

La rentabilidad de todo el curro necesario cada vez está siendo más difícil de justificar, ya que equipos de desarrolladores mucho más pequeños y usando técnicas 2D más o menos tradicionales sacan mucha más pasta de la inversión inicial que los "blockbusters", además con mucho menos riesgo y tiempo de desarrollo.

meneandro

#46 PD: vidiaco para entender realmente cuáles han sido los logros y los problemas del id tech 5 que usa rage (ya el juego en si gustará más o menos, me refiero sólo a la parte técnica):



PPD: Ahora sale el id tech 6 usado por el nuevo doom que básicamente es pulir y avanzar en lo que ha hecho carmack y todo el mundo alucinando y alegrándose de que se fuera de id...

p

#85 Hace tiempo que cualquier mejora tecnológica no va a hacer que Doom sea más interesante. Doom 3 tenía el motor más avanzado de su época y eso no impidió que fuera un juego plano y soso.

Si la gente está esperando este doom es por mil cosas diferentes a las innovaciones tecnológicas que pueda tener. De mano, que parece hecho por un equipo que parece saber lo que hace en cuanto a gameplay.
Doom es un juego que en su día fue una revolución tecnológica, pero no fue eso lo que lo hizo icónico ni un juego de éxito.

meneandro

#97 El juego entraba por los ojos, y se quedaba en casa porque era una bestia parda jugable. Pero primero, entraba por los ojos (lo mismo que entró el quake y el doom3, etc).

G

#16 Y si es complicado determinadas cosas, en una roca o objeto sin detalles pequeños en su geometria pues es factible, tiene su trabajo en reducir poligonos pero es perfectamente viable. Aparte se puede instanciar lo que lo hace más usable.

Un terreno que es lo que muestra en todas esas escenas es otro tema bastante más complicado. No puedes usar un terreno con una malla de esa complejidad.

G

#22 oops soy usuario de maya y eso pasa factura.

D

#1 Te recuerdo que la primera imagen del Crysis revolucionó internet. Aquello era tecnología, y no lo de hoy, que como dicen #5, solo es pura fotogrametría.


Eh, que no digo que no sea impresionante el detalle de las fotos, pero no quita el hecho de que cada vez se lo curran menos.

G

#71 en ese caso yo si creo que se lo curraron poco, aunque creo que habría que ver lo que hizo si hizo algo más que sacar las fotografias e importarlo a UE4 la malla+textura generada por software de fotografias 3D que utilice. Por el modo de mostrar la escena yo creo que hizo bien poco y se limito como dije a ese cachito que fotografió.

Lo que si, es que la fotogrametria llevado al mundo de los videojuegos y no a una simple escena, en el que hay que tratar el objeto para que sea asequible para renderizar en 3D tiene trabajo, dependiendo el objeto mucho. Hay objetos que compensa hacerlos a mano (claro que el resultado realista no sera el mismo). No creo que se pueda decir que se lo curren menos de forma general.

p

#5 Mallas, me cago en mis putos ojos.

D

#5: Esto ya lo "hicieron" los de Euclideon.


Lidl

#2 Nuestros productos son tan buenos que hay personas que no se pueden resistir a robarlos.

Lidl, la calidad no es cara.

e

#58 La calidad no es cara, sobre todo si la robas.

pres3

#17 Sí, ni con direct12 y una titán moverías un juego completo con esos gráficos.

D

#17 #19 Sospecho que el logro es que esto se haya podido hacer, y que aunque aún está lejos de que el usuario normal lo pueda jugar, pero el avance está ahí.

D

#30 no deja de ser una muestra de las capacidades del Unreal Engine. Pero vamos, esto no lo vas a ver así en un videojuego ni hoy ni de aquí a 5 años.

D

#31 Yo no soy amigo de las predicciones sobre avances en el mundo de la informática porque muchas, muchas veces dichas predicciones han sido superadas antes de tiempo

pres3

#32 En 5 años, ni los ordenadores ni las consolas bajarán tanto de precio cómo para que gráficos así sean rentables para todas las plataformas. Ni de coña.

p

#32 La principal limitación para no ver esos gráficos no es de potencia, es de coste de desarrollo.

Esos gráficos probablemente no los veas en un juego porque si todo lo tienen que detallar a ese nivel la empresa se arruinaría pagando artistas porque tardaría 5 o 6 años en salir y a lo mejor me quedo corto.

La única forma sería currarse un sistema automático para generar este tipo de escenarios, pero eso en sí ya es un proyecto por sí solo.

D

#30 Sólo hay que tener paciencia y esperar 20 años más, tal y como ya hice una vez, cuando los gráficos de los juegos eran cuadraditos que se movían.

SenorLobo

#4 también está en la noticia, al final ¿?

maria1988

#18 Sí, pero he pensado que a lo mejor la página se cae por el efecto meneame, o que hay gente que tiene capada la web y no youtube (a mí me pasa a veces en el trabajo).

SenorLobo

#40 ahm

L

#4 Para los que piensan que no se puede jugar con esa calidad vease este video:

maria1988

#34 Mola, pero no es la misma calidad que la de las imágenes que aparecen en la noticia.

L

#42 En teoria no puede serla, no es lo mismo usar millones de triangulos para un metro cuadrado que para todo un mapa. Pero el pego lo da perfectamente, asi visto de forma global.

GrammarNazi

#34 La calidad de ese vídeo es bastante penosa. Sin embargo este...

(ver en 4K)

D

#34 A costa de dejarte 2500 euros en un buen par de titanes.

Claro que si. Espera que le digo a mi padre que hipoteque la casa para comprarme un ordenador de 4500 euros para poder jugar a juegos ultra realistas. Y de paso voy llamando a Fenosa para que monte una sub-estación eléctrica al lado de mi casa para alimentar mi ordenador.

Que si venga ala.

D

#75 Vulkan, DX12.

Pobres consoleros. ¿Titan? sobrevalorada.

D

#83 Lo siento pero soy de PC desde que tengo uso de razon, y no lo cambiaria por una mierda de consola.

D

#75 Putos contadores "inteligentes". Con lo bonitos que eran los analógicos. Incluso podías pararlos para que no sufireran desgaste...

D

#75: No seas agonías. Eso es el Battlefront nuevo con un simple filtrado de Reshade. Ese no es el bueno-bueno.

El bueno es el de Toddyhancer del que no se sabe nada aún (y posiblemente acabe en nada):
http://imgur.com/gallery/ib8nW

Nova6K0

#34 Sí bueno si vamos a potencia bruta, puedes convertir un mainframe para jugar sólamente, pero si miramos la relación calidad-costes-precio es para llorar.

Vuelvo a decirlo y no me cansaré, en los 80 a pesar del limitado hardware que se tenía, los juegos estaban mejores optimizados que ahora, no sólo a nivel puro de código sino de uso de los recursos del sistema.

Salu2

p

#77 No hace falta irse a los 80. Vas a Steam, y los juegos indie 2d (y 3d) venden a cascoporro. Y eso sin entrar en los emuladores, que cada vez más gente no-friki sabe usar.
Obviamente para alguien que no quiera arruinarse pero sí pasarselo bien está claro cuál es la opción más fácil.

r

#8 en forohardware tienes hilos del "mejor" pc que puedes encontrar por el precio que estés dispuesto a pagar:

http://forohardware.com/forumdisplay.php/85-PC-por-Precio

D

#9 seguiré remirando, thanks.

kosako

#9 uh mola la pag. La voy a revisar a fondo, ya que llevo un mes ahi comiendome la cabeza en si invertir en un i7 de la quinta generación y tener que gastarme un pastizal en la nueva ram y la nueva placa con socket nuevo o si quedarme en el mejor i7 de la cuarta que sale to baratuno en comparación.

A ver si esta peña me ayuda a ver la lulz

G

#35 Si te ayuda, yo me decanté por un i5 de la última porque, por lo que leí, los i7 no se aprovechan y de hecho dan peores resultados en juegos (suponiendo que lo quieras para viciar ). Vamos, que te sale más rentable gastarte la diferencia en la gráfica que es lo que te va a rendir más.

kosako

#94 Umm te agradezco el dato. Aunque en mi caso más que para viciar (mi i3 me sobra para eso en realidad, witcher 3, the division, fallout 4..) es por temas de edición fotográfica (lightroom, photoshop), y de vídeo (premiere).

Que cuando me meto mas de 5 capas en LR en una foto ya el pc ya me mira raro. Y si encima le meto la digitalizadora, no sé por qué exactamente pero un poco ralentizado me va, y no se menea todo lo bien que debería lol

r

#35 Yo estuve mirando lo mismo y la verdad es que en varios sitios vi que entre un i7 de ultima generación y de la anterior el incremento de potencia de cálculo era irrisorio para el incremento de precio que había. Seguro que hay más de un hilo hablando se eso en ese foro.

D

¡No lo podrás creer!

capitan__nemo

Y la resolución 4k, a no ser que estes viéndola en una pantalla gigante, muy pegado a ella, no sirve para nada porque no vas a distinguirla en nada de otra resolución menor como 2k o incluso hd (1k)

pinger

#36 El 4k es para la realidad virtual.

redion

#50 depende de las necesidades de cada uno

capitan__nemo

#50 En unas gafas de realidad virtual que llevas casi pegadas a los ojos tampoco se necesita 4k.

Xtrem3

Cada vez que cambio de ordenador me hacen esto. No amortizo uno.

G

Es el momento de aprovechar mi nuevo ordenador superpepino

D

#7 especificaciones y coste? Llevo meses intentando hacer uno que no valga un riñon y que sea pepino lol

G

#8 Yo recomiendo coolmod, a mí me ha ido muy bien http://www.coolmod.com/index.php

D

#8 Lo bueno bonito y barato, además es duradero.

DarKSchneideR

Esto para cuando este mejor la RV!!

GrammarNazi

"Unreal Engine en 4K" -> vídeo en 1080p

perrico

Yo si lo distingo. Un bosque real tendría bolsas y peladuras de naranja tiradas por el suelo. El paisaje virtual es demasiado perfecto.

pres3

Va a 30 fps no? lol

OviOne

#11 Con una 3Dfx Voodoo Banshee tiene que ir a toda tralla.

D

#59 Yo siempre he sido más de Riva TNT2

OviOne

#68 Menos de pijos, pero la verdad es que la Voodoo con Glide3D era una puta máquina...

Opojetivo

Permíteme que insista

p

Lo que sí se podría distinguir es el bajonazo en la cuenta corriente si todos los juegos se hiciesen con una calidad como esta.

Este tipo de tecnologías sólo serán usadas en la práctica cuando salga suficientemente barato como para justificar las horas que hay que emplear (para lo cual hay que pagar mucha pasta a mucha gente que lo deje todo perfecto). En la práctica, los juegos que más éxito tienen no tienen ni de coña que estar a este nivel de trabajo.

oliver7

Este va a ser el año de HL3.

Minéame

Os aseguro que con el pedazo de PC que hace falta para que eso funcione al máximo los que andamos justitos sí vamos a poder distinguirlo lol

D

Ya veo que entre los hologramas de microsoft y esto vamos a necesitar 2TB de RAM y 7 procesadores intel para moverlo.

D

Matrix: cada día más cerca.

FileFlag

Simplemente, impresionante.

D

Cuando lo vea en unas gafas de realidad virtual, con 4K en cada ojo y latencia cero, me sentiré impresionado.

D

donde quedó mi spectrum ....

Imag0

Cada vez es más difícil.. llegará a ser imposible.

ronko

#3 ¿Por que habla en futuro señor Anderson?

Conichan

Me encanta especialmente el del tronco del árbol, es flipante como se ven los pequeños detallitos de las rocas, de las hojas caídas y de cada ramita de pino marchitada, impresionante.

L

Ahora faltaría que inventasen alguna tecnología que permitiera engañar al cerebro para hacerle creer que se está tocando ese árbol o que se está percibiendo los olores que supuestamente hay en esos lugares.

kullraith

Si quieres ver los fallos que la camara haga un plano de 360 grados alrededor de un objeto, un render de frente con buenas texturas no muestra la calidad.

j

al final los paisajes virtuales van a tener mas resolucion que los reales...

1 2