urian han presentado las RTX y en tu articulo anterior de lo que iban a hacer y presentar y solucionar etc , HAS ACERTADO EN TODO.
No, no he acertado en todo y he metido la pata en una cosa en concreto que no otra que yo pensaba que las Turing GeForce no iban a tener Tensor Cores en su interior. Por lo que el cuervo me lo tengo que comer.
Es decir, mi especulación era que las Turing de las Nvidia Quadro y de las GeForce serían distintos donde estos últimos carecerían de los Tensor Cores, al final el chip es el mismo. Pero hay algo que Nvidia menciono hace un tiempo y que ahora han rescatado relacionado con los Tensor Cores.
La idea a través del Deep Learning y los Tensor Cores de convertir una imagen de una resolución con n pixels a una resolución con 2n o 4n pixeles. Este concepto lo tenia olvidadisimo y Nvidia me ha hecho recordar que si que existe una utilidad para los Tensor Cores en el mundo de los gráficos en 3D a tiempo real y es precisamente el hecho de poder renderizar una imagen por ejemplo a 1080p y con los Tensor Cores tener su versión cristalina a 4K como resultado. Esto no es la primera vez que se hace y tiene un precedente en el SPURS Engine, un procesador lanzado hace una década por Toshiba basado en el CBEA para los televisores de Toshiba. ¿Su particularidad? El hecho de poder escalar de calidad DVD a calidad BluRay (1080p) consiguiendo en el proceso una imagen que se acercaba mucho a la calidad de imagen del Bluray y a veces incluso la igualaba. Pues bien, los Tensor Cores son unas 50 veces más potentes para la misma tarea.
¿Y que sentido tiene? En la entrada «No es país para 4K» comente los problemas para renderizar a 4K nativo que tenemos ahora… ¿Pero que sentido tiene renderizar a 4K nativo cuando puedes renderizar a resolución 4KCB o a 1080P y luego con los Tensor Cores generar un búfer de imagen final a 4K que sea lo suficientemente bueno para el espectador? Esto significa reducir la carga de trabajo al 25% respecto a lo que es necesario para 4K en el caso que nos ocupa.
¿Pero en que etapa del pipeline iría? Obviamente, siempre al final de todo el proceso tanto si es solo rasterizado o pipeline híbrido por el hecho que toma la imagen final y la re-construye a mayor resolución, en realidad es algo realmente post-pipeline y realmente fuera de este.
Nvidia en la serie GeForce RTX 20 lo que ha hecho es lanzar dos GPUs con una misma arquitectura con un tamaño colosal en comparación con el tamaño medio. Esto es debido al no-uso del proceso de 7nm FinFet y esto ha contribuido en al alto precio. Precisamente yo pensaba que Nvidia iba a ahorrarse los Tensor Cores hasta la aparicion de la siguiente generación por temas de espacio pero al final no ha sido así. La realidad es que Nvidia esta centrando todo el marketing en el Raytracing y no es para menos, es uno de los mayores avances en el renderizado en 3D a tiempo real, uno al nivel de la Voodoo Graphics en su día o de la GeForce 3 (integración de los shaders) pero del Raytracing ya he hablado mucho.
En la era de los monitores y los televisores a 4K y donde el futuro es el Raytracing, la potencia necesaria para renderizar a 4K con Raytracing a tiempo real es algo extremadamente prohibitivo a nivel de potencia de cálculo necesaria. La solución más elegante es renderizar la escena a 1080P y luego utilizar los Tensor Cores para escalar la imagen a una mayor resolución, pero en todo esto hay una serie de «problemas» asociados y es que las núcleos CUDA (Shaders), Tensor Cores y los RT Cores comparten recursos, en concreto comparten el acceso a las caches internas y los registros de la unidad SM, de tal manera que utilizar uno de los tres quita potencia a los otros dos por el simple hecho de no poder operar. Esto es importante porque Nvidia presenta la arquitectura con unos números máximos que en conjunto son completamente imposibles por el motivo que os he hecho.
Dado que la longitud en tiempo de las instrucciones de una GPU son predecibles es posible asignar dinámicamente los recursos necesarios para renderizar un fotograma y re-aplicar la potencia sobrante del hardware en otros menesteres. Y dado que el Raytracing va a pegar muy fuerte lo que son el uso de los Tensor Cores va a ser bajo, por eso me sorprende su inclusión en las GeForce RTX 20, el concepto de la Super-Resolución esta muy bien pero si tenemos en cuenta las condiciones del hardware pues… No es algo que vayamos a ver en los juegos y los desarrolladores van a preferir centrarse en el uso del pipeline híbrido.
El pipeline híbrido requiere darle tiempo en milisegundos a la parte raytracing y esto requiere que la etapa de rasterización se vea acelerada también. El salto en la parte de rasterización (cantidad de núcleos CUDA y velocidad de reloj) de la serie 10 a la serie 20 no es tan espectacular y ahí entramos ya en otro tema polémico y lo mejor es que lo veais por vosotros mismos.
¿Como es que el tiempo de R es ta corto respecto a Pascal si no es mucho más potente? La respuesta es que esto es porducto de eliminar en el renderizado la iluminación indirecta pre-cocinada por el hecho que con el Raytracing se convierte en una inutilidad absoluta ya que ciertos efectos visuales los emula mejor el Raytracing.
Y aquí entramos en otro punto importante, los RT Cores lo que hacen es calcular la interesección de las fuentes de los rayos con la geometría y como ya comente hace unas entradas con una serie de shaders y según el resultado de la intersección se aplica un shader u otro. ¿El problema? Cada tipo de efecto necesita su propio rayo, no se trata de ir rebotando los rayos de luz base sino que tenemos rayos para los reflejos, luz indirecta, sombras, AO… Unos requieren un rayo pero otros dos o más. Hay que tener en cuenta que el calculo de la intersección se hace tomando la estructura de datos espacialcon la geometría ordenada en ella pero el trazado de rayos se hace pixel por pixel por lo que a más resolución menos rayos por pixel por lo que la resolución es importante en todo este tema.
Y esto nos lleva el tema del principio, el hecho de poder renderizar a 1080p para luego escalar con los Tensor Cores a 4K de manera dinámica es una perita dulce pero lastrada por el hecho que los RT Cores, Shader/CUDA Cores y los Tensor Cores en cada SM trabajan de manera conmutada entre los tres. En el caso del escalado con el DLSS es algo que le va a dar una nueva vida a juegos antiguos donde la potencia de las GPUs actuales va sobrada, permitiendo espacio para que los Tensor Cores coloquen muchos juegos a 4K Ultra y 60 fps sin problemas, pero eso no entra por los ojos porque no aumenta la calidad de imagen como el Raytracing en el pipeline híbrido.
Y esto es todo, he querido dar un enfoque distinto a toda la parafernalia relacionada con el marketing que esta apareciendo en las últimas horas. En todo caso es una primera generación de algo y la existencia de la 2080 Ti y el cercano proceso de 7FF marcan que esta generación va a ser corta. Es más necesitan los 7FF para ir a la gama de consumo porque con estos precios…
… Como que son bastante inaccesibles, por eso pienso que la entrada en los 7FF va a ser la versión de gama media y de consumo de esta arquitectura. El salto de los 16FF a los 7FF permite el doble de densidad práctica y un aumento en la velocidad de reloj.
Me pregunto si Nvidia va a sacar la GeForce RTX 2060 con un chip TU106 fabricado bajo el proceso de 7FF o simplemente cuando puedan sacaran una RTX 3080 bajo el mismo proceso y basada en una versión mejorada de Turing. Pero eso ya lo veremos, en todo caso parece que como dije no hay renovacion en la gama media-baja y no olvidéis que los Early Adopters siempre pagan caro las novedades y esta gama tengo muy claro que al cabo de un año ya habrá sido reemplazada y de sobras por una gama mejor en todos los sentidos, no os esperéis un reinado de dos años como el de la Serie 10, la serie 20 será breve y pronto destronada.
bueno 100% 100% no, claro esta, hay matices, y el que comentas es uno.. pero el % de acierto de aquel post tuyo es grandisimo… no me refiero al post que comentas no es pais para 4k si no otro de hace un poco..
ya cuando vi

y demas cosas antes y depues.. de la forma en la que se iva a usar el RX, no haciendo un RX total si no… rasterizacion y depues Rx sobre la rasterizacion… ( RESUMO + -)
es a lo que me referia…
Me gustaMe gusta
ya e estado viendo opiniones de expertos en hardware pc, y etsan muy muyyyyyy decepcionados con la gama RTX… un sobre precio enorme vs la gama 1000 para ganar POCO, segun la cosa que e leido.. por que… ?? por el temas que comentaste.. NO es RX REAL, si no parcial
y lo que mas me rei es cuando dijo que nvidia lleva 10 años creantdo esto
cuando TODOS sabemos por lo qeu comnetaste que NO es tecnologia nvidia si no powerVR y no mencionaron en ningun momentos GRACIAS power VR por la tecnologia… el CEO de nvidia solo se las dio de que nvidia es mega power chachi crenado todo esto desde 0
veremos las RX de AMD en brebes +- a ver que dice Envidia cuando la implementacion sea< IDENTICA y la forma de usarla IDENTICA… + – .. pero bueno ya veremos…
Me gustaMe gusta
con lo cual si la RX solo es para REFLEJOS en esta generacion basicamente… ps5 puede prescindir de esta tecnologia en navi… y implementarla cuando salga ps5pro y la rx sea full
Me gustaMe gusta
¿No habria sido mejor de cara al desempeño y para salvar el problema de la falta de espacio en el silicio la utilizacion de una tarjeta dedicada en exclusividad al raytracing?
Me gustaMe gusta
¿No tendria lo mejor de los dos mundos? Compatibilidad hacia atras, innovacion y un mejor desempeño?
Me gustaMe gusta
https://elchapuzasinformatico.com/2018/08/la-geforce-rtx-2080-ti-no-alcanza-los-1080p60fps-con-rtx-en-el-shadow-of-the-tomb-raider/
casi 1500 euros a 2080 ti y no va ni a 1080p 60fps con RTX
jajajajaja hay que me lol… me da a mi que podemos pasar de rtx hasta la gama 30xx
Me gustaMe gusta
yo lo veo como el inicio de lo que nvidia incluida en sus gpus esta tecnologiaa esta muy nueva todavia para tener rendimeinto 4k a 60fps , pero sirve para empezar a hacer patentes y experiencia para el futuro
Me gustaMe gusta
Tienen el precio de un ordenador completo, pero mira como si la RTX2070 costara solo 300 euros, yo tengo un problema y es que veo que no salen buenos juegos, gasté hace 2 años 220 euros en una RX480 y apenas le he dado uso, mas que nada juegos viejos y el último Deus Ex que tampoco es que rindiera bien, ha sido una mala compra y viendo como está esta industria decadente me da que a la próxima gpu integrada y voy listo.
Me gustaLe gusta a 1 persona
Los SM de las Turing no tienen mas cache L2 para tales inconvenientes?
Me gustaMe gusta
Las graficas son caras? Eso nadie lo duda. Pero al no tener competencia y tener un stock alto de Pascal, pone el precio que quieren. Tampoco entiendo lo de 500$=639€ . El rendimiento con esta iluminación mixta? Alguien se acuerda , que no hace tanto apareció la teselación y las primeras graficas, lo que le costaba. Y el AA? si de decía en tiempos que eso para que. Toda tecnología tiene un comienzo y un camino que recorrer. Después de escuchar y leer sobre el tema, parece ser que Urian , dio en el clavo con un tema. PS5 no lo va ha soportar por que el chip ya esta hecho y Amd tiene retraso. Y Micro apunta a 2020 y que si lo soportara. Sony , si o si , tendrá que lanzar para 2019 la ps5 o para el 2020 llegara tarde.
Me gustaMe gusta
Muy aventurado decir que el chip ya está hecho, ya hubo casos en el pasado de consolas en el que después de haber distribuido los primeros equipos de desarrollo la futura consola sufre un cambio importante de hardware antes de ser lanzada. El hardware no se puede dar por decidido hasta que los componentes de la consola no comienzan su producción en masa, porque es ahí cuando ya no hay marcha atrás, pero antes de eso siempre puede haber cambios de última hora. La fecha mas temprana en que puede salir PS5 es el último trimestre de 2019, y los componentes finales de la consola se empiezan a producir con un margen de unos 7-10 meses con respecto a la fecha de lanzamiento de la consola, por lo tanto del tiempo presente hasta el primer trimestre de 2019 hay mas de medio año de margen y nadie puede saber lo que tiene o no tiene AMD preparado. Y todo eso teniendo en cuenta que PS5 sale a finales de 2019, cosa que tampoco creo que sea algo totalmente seguro, probable si, si MS lanza una nueva consola para no darles una ventaja, pero no seguro, a Sony teniendo un mercado de mas de 70 millones de consolas con el dinero que le da en software y por el online de pago no le interesa jubilar tan pronto a PS4.
Me gustaMe gusta