Bueno, antes a esto se le llamaba SuperSampling AntiAliasing y no Downsampling. ¿En que consiste? La idea es renderizar internamente la escena a una resolución mayor pero mostrarla en pantalla a resolución menor. Es decir, coges una muestra (sample) y le bajas la resolución (down).
El Supersampling es lo que en su día se llamaba también Full Scene Antialiasing, basicamente el funcionamiento es muy simple:
Basicamente cuando se reduce la resolución la muestra el pixel resultante se obtiene a partir de una combinación de colores de los pixeles que se encontraban en el mismo espacio. La ventaja de esto es que permite conseguir imagenes de mayor calidad y no algo nuevo, hay muchos juegos en PS4 Pro que se renderizan a más de 1080P para el modo 1080P y acaban ganando en nitidez.
En estas dos imagenes del propio Titanfall 2 corriendo en PS4…
… y PS4 Pro se puede observar la diferencia:
Digamos que ciertos elementos del escenario ganan en nitidez. En todo caso es algo que no me gusta ya que la calidad visual de un juego no es solo la resolución sino también la calidad de los pixeles que depende obviamente de la cantidad de operaciones por pixel que se hagán. Es decir, con el Downsampling estas gastando inutilmente recursos en calcular esos pixeles que no vas a ver para luego hacer downsample… ¿No sería mejor renderizar a 1080P de manera directa utilizando toda la potencia de la consola para aplicar detalles visuales que no serian posibles?
Se que soy pesado con el tema pero Tim Sweeney llego a afirmar que para la iluminación global en el UE4 eran necesarios 2.5 TFLOPS en adelante a 1080P.
¿Que ocurre? Que ninguna de las consolas actuales tiene una potencia mayor que 1.8 TFLOPS (PS4) y las iteraciones no pueden correr un código diferente al de sus hermanas pequeñas y por tanto no se puede crear un motor exclusivo que utilice un tipo de iluminación más compleja que mejore la calidad visual de la escena y aproveche tanto la potencia de PS4 Pro como la de Xbox One X para ello.
En el método de rasterización normal, el que utilizan el 99% de los juegos de cara a representar la realidad no podemos representar el segundo rebote de luz. En comparación con otras técnicas más fidedignad como el Raytracing la cosa se queda corta.
El motivo de ello es muy simple, en la rasterización lo que hacemos es dividir la geometría de la escena en trozos pequeños que rasterizamos en fragmentos, texturizamos y al final del pipeline ordenamos para que se genere la escena final. Ninguno de los fragmentos tiene información y constancia de lo que ocurre alrededor pero esto permite paralelizar el pipeline y hacer que al renderizado de la escena sea muy rápido por lo que es ideal para videojuegos.
¿La forma de obtener información de la escena con la rasterización? Pues renderizar la escena y voxelizarla de tal manera que la podamos convertir en una estructura de datos espacial, ya sea un Octree, un KD-Tree e incluso una simple colección de tiles 3D.
Una vez se ha voxelizado la escena tenemos la suficiente información de la misma para aplicar iluminación global y mejorar la calidad visual de la escena. ¿Una demostración palpable de la iluminación global? Aquí teneis un ejemplo bien majo.
Pero claro, hay que vender televisores y malgastar recursos en la resolución… ¿Cual es el motivo? Sinceramente no lo se y tengo muy claro que la siguiente generación va a ser 4K pero cuando salga el nivel de penetración de las teles 4K será mucho pero que mucho mayor. ¿Pero nos vamos a confirmar con una calidad de imagen limitada producto de un modelo de iluminación limitado? Espero que no, ya que sería una decepción muy grande. Es más, el mejorar la iluminación ahorra costes de desarrollo por el hecho que no tienes que depender de los artistas para simular la iluminación. Y por si fuera poco tiene la enorme ventaja de poder representar ciertos materiales de manera más correcta al representar la refracción de la luz de manera más precisa sobre estos.
Si ahora mismo muchos de los juego de la generación PS3/360 se remasterizaran no solo con texturas mejores sino con iluminación así de compleja sería la noche y el día y os parecerían mil veces mejor visualmente que muchos juegos de la actual generación a 4K o pseudo-4K.
El colmo sería que cada tres-cinco años de avances gráficos en consolas (generación intermedia o nueva), volvamos a lo mismo de pasar de 1080p, 2K a 4K, luego después de 4K pasar a 8K para mantener el nivel de consumo de televisores, luego 12K y 16K (no creo haya tanto ancho de banda en el mundo para clientes domésticos, ¿el disco de consola a cuántos terabytes para entonces? no son baratos precisamente y serían SSDs para poder leer tanta textura).
Se oye decir que PS5 debería tener mínimo 12 teraflops para que valga la pena como nueva generación, seguro corriendo a 4K ¿pero luego qué? la iluminación de dos rebotes ¿continuará en espera porque toda la potencia se va en mostrar juegos a 4K? luego salga PS5 PRO para 8K, digo son capaces de verdad, igual me equivoco.
El peligro aquí es que saliendo nueva PS5 y nueva Xbox ¿Two? ¿seguirán los juegos intergeneracionales? luego Sony no querrá soltar la inversión hecha en PS4 y PS4 PRO, con tal de seguir vendiendo consolas que ya se les hizo obsesión alcanzar las 100 millones de ventas y hacia el infinito, luego Microsoft esté a un paso de cabrear a todos sus fanáticos si la nueva Xbox ¿Two? sale con borrón y cuenta nueva, obvio se esperan juegos impresionantes de nueva generación y demás, pero tengo la sensación de que caminan por una cuerda delgada, porque ahora los fanáticos de consola asumen que ya no existen las generaciones, o sea el marketing de Sony y Microsoft se les devolverá para morderles el trasero.
Al final deberán tirar la casa por la ventana con la nueva generación venidera, para despegarse de la actual generación, pero los primeros juegos no saldrían tan impresionantes para poder seguir vendiendo la vieja generación por ser intergeneracionales, un círculo vicioso; sería genial sacaran juegos tan diferentes que obliguen al público a comprar las nuevas consolas, pero que valga la pena el gasto a su vez.
De todos modos, esto explicaría la posible consola con CPU Intel y GPU AMD, la franca necesidad de tener la mayor potencia posible al menor costo posible, pero digo yo, sabiendo lo que cobra Intel por sus CPUs ¿por qué no apostar por GPU Nvidia? ¿sería ya demasiado? Nvidia hace milagros con sus tarjetas gráficas para laptops, ya la serie 900 se instalaba en portátiles sin diferenciarse en nada de las contrapartes de escritorio, excepto en velocidad y temperatura como también un tamaño muy pero muy pequeño, uno creyendo que le habían bajado los nanómetros pero seguían igual, incluso ver esa 970 de escritorio para formato de escritorio mini-itx fue apoteósico.
Nvidia tiene para poner chips gráficos de portátiles, que correrían a absoluto tope de velocidad al ser consolas de escritorio, ¿cuánto gastaría en total, 180-210 watts? valdrían buenos la verdad para la inmensa potencia resultante de la combinación CPU Intel y GPU Nvidia, lo dicho si Sony y Microsoft se lo proponen pueden negociar con Nvidia tarjetas series 1000 o 2000 en formato de portátil para sus futuras consolas, por mejor control de calor, mayor eficiencia por teraflop y otros detalles, ¿se puede Urian con el tema Nvidia? ¿o es mejor AMD a pesar de todo? saludos.
Me gustaMe gusta
ps5 debe tener 18 teraflops MINIMO
es lo que creo yo y urain core que esta deacuerdo
ps5 debe ser como 4 ps4pro 4,2 x 4 y 10 ps4 1,8 x 10
18 teraflops
y en 2019 habra gpu en pc de calidad media faicl con 12 o15 teraflops y la gama top tendra como 25 o 35 teraflops
para tener un salto como ps4pro
ps4pro = 3-4 veces ps4
ps5 = 3-4 veces ps4pro
como digo 18 teraflops como 3 xonex
Me gustaMe gusta
Pues ya ves que no fue así, se quedó con menos de 10TF
Me gustaMe gusta
si en 2019 una titanx de hoy sera peor que la gama media de pc , casi no podra mover los juegos del 2019 una titanx de hoy
Me gustaMe gusta
diselo a los PCEROS y estupidos cagaculos de 4k o 8k o los 6k de titanfall2
es que…
ña gente sigue sin entender que RESOLUCION NO ES = A MEJORES GRAFICOS!!!!
resolucion lo unico que da es MAS NITIDEZ!!! PUNTO!!! al haber menos dientes de sierra e cosas similares
pero es desperdiciar potencia porque entre mas resolucion la curva de potencia nesesaria es brutal
pero en fin.. en todos lsados ves a los tontos del culo quiero 4k quieor o8k, si no juegas a 4k eres tonto!!!
y demas MEMECES de gente que se nota que no tien ni idea
se puede hacer juegos a 1080p mejores en graficos que 4k 8k 24k
usando como dices MEJOR ILUMINACION!!!
Me gustaMe gusta
Soy pecero con una 1080 y juego en tv full hd y te puedo asegurar que si uso downsampling x4 es porque tengo un pepino de tarjeta desaprovechado porque los ajustes graficos no dan para mas. Su trcho está muy bajo.
Por ejemplo gears of war 4 lo mueve en ultra, 720p y 60 fps una r7 460x que de segunda mano vale 45€ en cex. A partir de ahi lo que consigues es mas resolucion pagando por una gpu mejor…
Soy el primero hasta los cojones de la 4k y el downsampling en tv 1080p, que desperdicio mas grande
Me gustaMe gusta
A mí lo que me embarga en decepción es que se pasen el tiempo exigiendo super potencia y aluciando con N Teraflops para tener juegos que no dejan de ser más de lo mismo que ya jugábamos en PS2, pero con mejores gráficos.
¿Dónde queda el espacio para mayor capacidad de IA? ¿Físicas? ¿Emergencia jugable? Es que da rabia que Crytek con su Crysis en 2008 estaba a la vanguardia de los videojuegos, y no eran sólo gráficos. ES que era un juego con tintes de superviviencia, donde el nanotraje era una herramienta que debía utilizarse con sabiduría, mundo abierto con infinitas posibilidades de alcanzar tus objetivos, físicas de fuego, objetos, etc. Luego vinieron las 2 decepcionantes secuelas donde toda la emergencia jugable se fue al retrete para darle espacio a «más gráficos y más resolución». ¿Far Cry 2? 3 secuelas donde se perdió las físicas en pos de más «espectacularidad». Miedo me da que el nuevo Zelda se base más en escuchar las críticas de la gentecilla del NeoGAF y sitios así para meter más «Anouma puzzles» y cargarse la parte del mundo abierto y sus físicas, total, a los niñatos esos no les gustó que la lluvia te penalizara y no le hallaban uso al fuego.
Además, ¿Cuando serán estándar las TV de 4K? El paso de las teles analógicas de tubo a las digitales fue paulatino, hasta que hicieron un tremendo borrón y cuenta nueva al apagar la TV análoga en la mayoría de países desarrollados. ¿Cuándo los canales de super alta resolución serán estándares? ¿Tendrán los huevos de apagar los canales HD para darle paso sólo a canales Super HD 4K? Mejoras en iluminación, dinámica de partículas, físicas y mejor IA para que los juegos sean más divertidos, que la pantalla 4K no las tiene todo el mundo y no es necesario cambiar la vieja TV de 1080 que aun funciona bien.
Me gustaMe gusta