Uno de los conceptos de la teoría de la innovación de ruptura es el tipo de no consumidor, el cual se divide en dos subtipos. Antes de nada, y para aclarar posibles confusiones con entradas muy al pasado en el blog, se ha de tener en cuenta que la teoría de la Innovación de Ruptura no es la misma que la del Océano Azul donde el termino no-consumidor es más amplio, en el caso de la teoría de la innovación de ruptura un no-consumidor es en realidad un casi consumidor que no utiliza la tecnología principalmente por dos motivos que tienen que ver con el rendimiento.

  • Clientes Sobreservidos: El primer caso ocurre cuando una tecnología existente supera las necesidades actuales de los consumidores, lo que le da la oportunidad a una tecnología más simple y más barata obtener cuota de mercado, los usuarios que hacen uso de la tecnología por el momento están más que satisfechos con las soluciones actuales dado que ellos no pueden utilizar todas las características de la mejora tecnológica.
  • Clientes Subservidos: El segundo caso es de los no-consumidores que creen que la tecnología ofertada no es lo suficientemente buena.

Ahora bien… ¿Que ocurriría si os dijese que hay una empresa que se encuentra ahora mismo con una sola tecnología teniendo una doble paradója en estos momentos? Pues si, Nvidia esta teniendo ese problema actualmente con el Raytracing.

#1 Consumidores Sobreservidos

Para entender lo que ocurre hemos de mirar el último informe de hardware de Steam, el de Julio de 2018, especialmente la información acerca de las resoluciones en las que juega la gante.

  • 63.72% aún utilizan monitores 1080P
  • 13.3% están jugando con monitores a 1366×768 pixeles
  • 1.14% en monitores 4K.
  • 3.12% en monitores a 1440P

Según el último informe de hardware de Steam ni un 2% de la gente tiene un monitor 4K en PC y Nvidia esta vendiendo las RTX 2080 de cara al renderizado tradicional precisamente con ese propósito, solo hay que ver el marketing de Nvidia alrededor de dichas tarjetas cuando fueron presentadas hace justo un año donde se dice precisamente eso. Claro esta que para dar justificación a una tarjeta que mueva los juegos a 4K necesitas tener un monitor 4K que lo justifique

¿Que implica esto? Que la gente de a pie va hacía otras opciones de gráfica que son lo suficientemente buenas para renderizar sus juegos favoritos a las resoluciones que pueden sus pantallas. Es por ello que Nvidia unos meses más tarde tuvo que «capar» el chip TU106 de la RTX 2070 para lanzarlo con un bus de memoria más bajo con el nombre de RTX 2060 con tal de ser competitiva, pero ni con esas consiguieron quitarle el trono a su propia gama Pascal.

¿Que es lo divertido? Tenemos al sr de las chaquetas de cuero insultando a los compradores de sus GTX mientras la prensa afirma que es por el lanzamiento de las RDNA que tampoco lo soportan, lo que no dicen es que el motivo es por la enorme cantidad de gente con una GTX 10×0 para los que su tarjeta les es suficientemente buena para lo que necesitan en combinación con el enorme stock disponible de estas. Y no nos engañemos, el Raytracing es algo tan minoritario en estos momentos que los usuarios por el momento no lo necesitan y cuando se les haga necesario no les costará dar el salto rapidamente como siempre ha ocurrido.

No es que no tenga futuro, ES EL FUTURO, pero su añadido sobresatura a las necesidades del usuario medio de PC EN ESTOS MOMENTOS.

Precisamente Nvidia sabe esto y es por ello que ha decidido producir una menor cantidad de GPUs Turing al ser una tecnología de traspaso aparte de ser mucho más cara por el tamaño de los chips.

En realidad Nvidia se encuentra en un Océano Azul fallido, donde el Raytracing es la Innovación en Valor que los hace únicos y les permite poner el precio que ellos quieran dado que no hay otras solución en el mercado. ¿El problema? Apenás hay software para el Raytracing y los tiempos de desarrollo de los juegos son tan altos que cuando los juegos realmente utilicen dicha tecnología y no sea un parche de última hora mal optimizado tanto la propia Nvidia como AMD tendrán algo mucho mejor que las actuales Turing en el mercado.

Pero luego tenemos la otra parte de la balanza.

#2 Clientes Subservidos

Para que algo sea la batuta en hardware ha de tener el software necesario que lo justifique. Por lo visto aunque Jen Hsun intenta vender Turing de cara a videojuegos con Raytracing, este no es lo suficientemente bueno.

«Nuestra prioridad es mejorar, optimizar y evolucionar todos los aspectos del Assetto Corsa Competizione. Si después de nuestra larga lista de prioridades, el nivel de optimización del título y la madurez de la tecnología permite una implementación completa del RayTracing, estaremos encantados de explorar la posibilidad, pero a partir de ahora no hay ninguna razón para robar recursos de desarrollo y tiempo para una implementación que generará una cantidad de fotogramas muy baja», dijo el desarrollador, en respuesta a una pregunta sobre el soporte de la tecnología Nvidia RTX durante el lanzamiento

Es decir, el Raytracing en Turing no es lo suficientemente bueno para los desarrolladores de Asetto Corsa. Y no me extrañaria que lo hayan probado para luego obtener resultados que visualmente son dignos de:

Y es que hemos de entender un detalle muy, pero que muy importante que hará que muchos os pongáis en perspectiva, el llamado Raytracing no es más que una extensión del pipeline de la rasterización donde primero renderizamos una escena de manera habitual teniendo en cuenta solo la iluminación directa y luego aplicamos sobre el mismo lo que es el Raytracing para resolver ciertos problemas de la iluminación indirecta.

Muchas veces os he puesto una gráfica en que marca la cantidad de procesamiento que tiene que hacer la GPU en cada étapa, la cantidad de procesamiento depende realmente de la cantidad de primitivas gráficas con las que tenemos que tratar en cada una de las etapas del pipeline gráfico.

La gráfica va de arriba a abajo en cuanto a las etapas, pero no tiene en cuenta el Raytracing, ahora bien, tened en cuenta que con el Raytracing hablamos de muestras/rayos por pixel por un lado y de operaciones por muestra, por lo que la pirámide se ensancharía aun más en la base requieriendo aún mucha más potencia. ¿Cual ha sido la solución? Ir pasando a función fija de manera progresiva y paulatina aquellos elementos comunes del Raytracing cuya ejecución es común como es el cálculo de la intersección, pero también se aplican shaders por rayo y eso no se puede solventar con unidades de funcíón fija… ¿La solución con tal de llegar a ser su tecnolología suficientemente buena? MOAR CORES.

#3 ¿Todo esto a donde nos lleva?

Mientras que AMD tenía que mejorar su arquitectura para que este se colocase a nivel de rendimiento/consumo y rendimiento/precio con lo que Nvidia ya tiene en el mercado, en el caso de Nvidia la problemática es distinta y el hecho de tener más mercado, recursos y estar adelantados en el tiempo respecto a AMD les hace ver una realidad completamente distinta a la de su competencia.

Lo normal para Nvidia sería pensar que ellos van a lanzar una versión de 7nm EUV de las actuales Turing, con una subida de vueltas del procesador y con el añadido de unos pocos núcleos CUDA. Un salto como el que hubo de Maxwell (28nm) a Little Pascal (16nm) pero realmente si lo analizamos bien para Nvidia esta vez el salto va a ser distinto, no van a intentar colocar Ampere a un precio más bajo que con el que han lanzado las actuales Turing incluyendo la gama SUPER, la idea que tienen es hacer núcleos tan anchos y tan grandes como los de la gama actual pero aprovechando el proceso de 7nm EUV de Samsung para colocar más núcleos CUDA por un lado y mejorar los elementos de de función fija para el Raytracing.

¿Cual será esa mejora en cuanto a función fija? Descargar a los shaders la creación del BVH y la búsqueda dentro del mismo. Esto que puede sonar chocante se explica con el hecho que los RT no tienen hardware dedicado para la construcción del arbol BVH y la búsqueda dentro del mismo. Turing, tiene hardware para la intersección a nivel de rama y de nodo, pero el arbol BVH tiene que ser construido y recorrido por la CPU o en su defecto utilizar los shaders para construirlo y recorrerlo y alto que la solución que describe AMD en su patente no es muy diferente ni mejor a la de Turing. Por lo que solución de Nvidia para Ampere será superior incluso a las consolas de la siguiente generación.

Si lo que dicen los rumores son ciertos, Nvidia tiene dos chips de la gama Ampere ya terminados y listos, pero con dos mercados distintos como objetivo. El primero de ellos es lo que se conoce como GA-100 y es el reemplazo del GV-100 (Volta) en el mercado de computación de alto rendimiento, en realidad utiliza la misma unidad SM que Volta pero añadiendo los RT Cores y sus mejoras por lo que aplica las ALUs en FP64.

Al igual que ocurrió con Volta al ser lanzada en 2017, la GA100 va a ser un chip enorme que va a ir al límite de la retícula del proceso y no va a estar pensado para el mercado doméstico como es obvió como el resto de GPUs de esta gama de Nvidia… ¿Y que potencia parece haber obtenido Nvidia con la GA100? ¡30 TFLOPS! Ni más ni menos que el doble que la GV100.

La GPU vendrá acompañada por memoria HBM2 de 3.2 Gbps en una configuración de 4096 bits como la de la actual GV100, por lo que estamos hablando de un posible ancho de banda de más de 1.6 TB/s.

Pero donde se encuentra el músculo económico de Nvidia no es el mercado HPC sino en el doméstico y el profesional que no tiene los mismos requerimientos. Al igual que en el mercado HPC, Nvidia va a reemplazar a Volta, en concreto la Titan Volta por estar ya en fin de linea. No es una tarjeta que se utilizara mucho pero los Tensor Core tienen su enorme utilidad en el mercado del diseño y el renderizado profesional por acelerar enormemente el tratamiento de imagen, si no tenemos en cuenta el Raytracing y el tema de los RT Cores no encontramos con que Volta es mejor por tener más núcleos.

Ahora bien, esto que os voy a comentar ahora solo son rumores así que no os creáis nada, absolutamente nada de lo que os voy a comentar sobre esto. El caso es que en la GTC de 2020 Nvidia no solo va a presentar la GA100 sino también la GA102 (RTX 3080 Ti) para luego en el E3 presentar la GA104 (RTX 3080 y posiblemente 3070) pero en el caso de la TU102 la van a presentar primero como componente de la gama Quadro de Nvidia por lo que no os esperéis algo barato pero si una antesala de lo que podrías ver después.

¿Y cuales podrían ser sus carácteristicas?

  • 6144 Núcleos CUDA repartidos en 6 GPC, 1024 núcleos CUDA por GPC.
  • 768 Tensor Cores
  • 20 TFLOPS FP32
  • RT Core de Segunda Generación
  • GDDR6 de 384 bits a 18 Gbps

La tarjeta reemplazará inicialmente a las Quadro que incluyan la actual TU102.

#3 El fin de las GTX

El otro punto es el mercado doméstico, Nvidia no va a lanzar inicialmente «Ampere» al mercado doméstico por lo visto sino una versión reducida de la misma con el RT Core de segunda generación… ¿Pero que entiende Nvidia por mercado doméstico? Pues lo que ahora se sitúa por debajo de la linea de los $400, aquello que ahora están supliendo con las RTX 2060 y las GTX 16×0, el caso es que las segundas van a desaparecer por completo del mapa y todo va a ser RTX llegado a un punto. Pero Nvidia no incluye al mercado del gamer entusiasta como el del mercado doméstico por lo que las RTX 3080 y 3070 con el chip TU104 no se incluirán, en realidad Nvidia no reemplazara la parte baja de la gama hasta finales de 2020 para la gama navideña con el chip GA106.

¿Y que es lo poco que se sabe? No os creáis nada de lo que voy a poner aquí:

  • La GA104 tiene un máximo de 4096 núcleos CUDA, esto son 16 TPC por GPC, Nvidia va a lanzar diferentes versiones con 16,15, 14… TPCs… Posiblemente 3080, 3070 Ti y 3070.
  • Al igual que con Turing, la GA104 tendra su versión para Nvidia Quadro.
  • Bus GDDR6 de 384 bits.
  • No sabemos la cantidad de TFLOPS.
  • GA106 es equivalente el rendimiento a la actual TU104, aunque por las posibles mejoras rendiría un poco mejor.

El caso es que Nvidia tendria terminada toda la gama entera y estaría esperando a que cierto productos llegasen a fin de existencias para ir reemplazando estos paulatinamente con el tiempo. En realidad Nvidia tiene a Turing con fecha de caducidad en cuanto a producción ya que son conscientes que no va a tener el éxito de Pascal ni es lo suficientemente buena de cara al futuro.

Y recordad, no os creais nada de lo escrito sobre Nvidia Ampere en esta entrada,simplemente cruzad los dedos.

Esto es todo, como siempre tenéis el Discord y los comentarios de la misma entrada para comentar el contenido de la misma.