Comentario#1:

El mercado de la alta computación lo que se usa generalmente es FP64 y ueden hacer 1:2, yo tenia entendido que GCN es bastante buena en computo duro y puro, no me extraña que AMD si usando Vega en ese sector y no creo que Nvidia vaya tener mucha ventaja en hardware, talvez en software si donde en programas que se optimizen para Cuda.

Donde si creo que Nvidia tiene una ventaja es IA/machine learning debido a los Tensor Core que a cuadriplica las unidades FP16 respeto a las FP32, AMD al no tener unidades FP16(usa las mismas FP32) su ratio es el doble en rendimiento frente a las FP32.

Yo creo AMD no es tonta, no creo teniendo RDNA, vaya por GCN en este sector, si lo hace es porque es buena en ese ambito.

Y sobre lo de more core XD, es que Nvidia va ser lo mismo va aumentar las unidades FP32 en Ampere, en las GPU no creo que se aplica el more core como malo, las GPU siempre fueron hardware pararealizable en tareas, estamos hablando de miles de pequeños core, a diferencia de las CPU, que pasando mas de una década para que el software se adaptara al multihilo.

Lo que GCN es buena en computo pero no en gráficos es una afirmación que simplemente no se sostiene ya que hoy en día la mayoría de étapas del pipeline gráfico son de computo, en realidadad fuera de los Pixel/Fragment Shaders que funcionan algo distinto el resto de Shaders gráficos realmente no son más que Compute Shaders.

La diferencia es que los Pixel/Fragment Shaders interactuan con las unidades de rasterizado, ROPS y de texturas como E/S de datos en las diferentes etapas, el resto de etapas no. En realidad el motivo por el cual tanto Nvidia como AMD han sacado los Primitive/Mesh Shaders es porque todos los shaders de la parte geométrica del pipeline en el fondo no son más que Compute Shaders.

Cuando a mi me dicen que Vega es mejor en computación que RDNA/Navi mi reacción se resume en…

Porque basicamente es un mantra de los foros, en Computación AMD no ha conseguido con las AMD Vega ningún contrato importante del que puedan presumir y contratos importantes no son granjas de minería, me refiero a contratos con universidades, grandes multinacionales… Este tipo de contratos los lleva años ganando Nvidia porque tienen una arquitectura para alto rendimiento mucho mejor… ¿Y que ha hecho AMD? Caer en un cainismo brutal teniendo menos recursos que Nvidia e Intel, hacer que dos arquitecturas de GPU estén al mismo tiempo pero principalmente mantener vivo el fiasco de Vega, en vez de lanzar una versión de RDNA para HPC lo que tenemos es una Vega con 128 CUs llamada Arcturus.

En todos los parametros la GA100 se la va a comer con patatas, esto es lo mismo que ocurrió con las Mi50 y las Mi60 basadas en Vega 20, preparaos para ver la historia repetida esta vez de nuevo y perdón por repetirme pero… ¿En que esta pensando AMD? Hablamos de un mercado donde Nvidia tiene un fuerte ecosistema gracias a CUDA, donde Intel se ha dado cuenta de la importancia de tener un ecosistema de software para la computación de alto rendimiento. Es más, la misma AMD que se esta comiendo a Intel en cuanto a CPUs con los Epyc y Threadripper no puede aprovechar ese empuje para ganar cuota de mercado allí.

Bueno, no… Miento, los de AMD tienen un superordenador llamado Frontier para 2021 los de AMD… ¿Y Por qué esa fecha y no ahora? Pues porque será cuando veréis RDNA en su versión HPC en el mercado.

Las Radeon Instinct a medida de la tabla no son las Mi100 con Arcturus sino las Mi200 que saldrán en 2021 ya que con la arquitectura para HPC basada en RDNA.

Comentario#2:

Al parecer incluso podría haber una gpu mayor por parte de nvidia que las dos encontradas anteriormente.

Pues me acabo de enterar ahora, por lo que…

Veamos las especificaciones de esa «tercera» GPU.

Tiene sentido que estemos hablando de una configuración de 128 SM/CU pero con 4 ellos inactivos. Obviamente no estariamos hablando de una configuración de 6 GPC sino de 8 GPC con 2 SM (1 TPC) adicionales por GPC respecto a Volta. Además, el hecho que tengamos unos 8 GPC hace que en consecuencia la cache L2 de la GPU haya pasado de los 6MB a los 8MB.

El hecho de pasar de 7 TPC por GPC a 8 tiene más sentido para un tick-tock de Volta que va a ser Ampere que no las otras dos configuraciones que a mi sinceramente me están volviendo medio loco intentando cuadrar los números ya que ambas me parecen un salto exagerado en cuanto a la cantidad de unidades GPC respecto a Volta.

En cuanto a la memoria 1.2 Ghz de la memoria nos marcan de que hablamos de memoria HBM2E a unos 2.4Gbps y los 32GB de densidad de que estamos ante un bus de 4096 bits en cuanto a dicha memoria.

El problema que tengo con la configuración de 118 CUs es que pasar a tener 6 GPC con 10 TPC/20 SM me parece un salto que es una exageración pero me cuadraria que Nvidia lanzara una versión recortada de la GA100/AM100 en el mercado HPC pero que no sería un chip distinto del otro. Con la memoria, una configuración de 24 GB de la de 118 SM no cuadra con el uso de memoria HBM2E a no ser que hablemos de una versión con el bus recortado a 3072 bits y menos SM activos del chip que es más de gama alta que sería el de 124 CUs, obviamente estaríamos hablando del mismo chip pero con dos versiones distintas para dos segmentos del mercado HPC distintos.

Comentario#3:

El numero de SM creo que no cuadra con una configuracion de 6 o 8 GPC:

  • 124, serian 20.6 SM por GPC, no puede a haber SM partidos a la mitad XD, sin 20 SM son 7680 Cudas.

Por cual me lleva a pensar que el chip completo sea 128SM en 8 GPC?? 16 SM por GPC = 8192 Cudas.

Exacto, realmente no hay otra explicación para los números.

Comentario#4:

exacto es una nueva gráfica con 124SM que han detectado revisando los resultados de ese benchmark el mes anterior a los primeros que pillaron.

https://browser.geekbench.com/v5/compute/206992

Por ejemplo aquí comparada con la rtx2080ti donde muestra sus 68SM (68sm x64= 4352Cuda Cores) y la nueva tiene 124SM que por la misma regla serian 124SM x64= 7936 Cuda cores en total)

ellos tiene acceso a mas datos por ejemplo pueden ver que es una grafica de nvidia.

y que no es una configuración multiGpu

vamos que seguramente las dos GPU que cazaron estos dias atras con 118 y 108 SM serian versiones recortadas de esta que han pillado.

Interesante, también te doy las gracias por la información que se me había pasado por alto.

La versión con 108 no me cuadra mucho la verdad por esos 48GB de memoria que dicen que tiene, vale que han aparecido noticias de pilas de 16GB HBM2E pero es demasiado pronto para utilizarlas incluso en la gama más alta y… ¿Por qué Nvidia no coloca dicha configuración en las otras dos? La respuesta más lógica es que hablemos de una configuración GDDR6 de 384 bits con unos 24 chips de memoria de 2GB en modo clamshell x2. Tecnicamente sería el reemplazo de la Nvidia Quadro RTX 6000 que utiliza el mismo chip que la 2080 Ti pero con el doble de chips de memoria.

Esta GPU sería la GA102 y no sería precisamente barata, su configuración sería de 8 GPC con 14 SM/7 TPC por GPC y no solo se diferenciaría de la GA100 en el uso de GDDR6 en vez de HBM2E sino que:

  • No estaría pensada para computación científica sino para estaciones de renderizado para el Raytracing por lo que integra los RT Cores, en este caso de segunda generación.
  • Nvidia ha mejorado el rendimiento de los RT Cores, ahora son capaces de realizar las intersecciones en menos ciclos de reloj.
  • Carece de unidades FP64.

Tened en cuenta que las tarjetas basadas en esta GA102 no van a ser precisamente baratas, van a estar muy por encima incluso de la GeForce RTX Titan, la cual también puede que vea un reemplazo utilizando este mismo chip. Es decir, Nvidia inicialmente lanzaría Ampere fuera de las gama GeForce y en las gamas Quadro y Tesla.

Pe… pero Urian, Nvidia también lanzo Turing primero en Quadro y a las pocas semanas se presentaron sus versiones GeForce.

Lo cual no fue algo muy normal, por su alto precio las GeForce RTX 20×0 no se están vendiendo tan bien como lo hicieron las GTX 10×0 basadas en Pascal, por eso Nvidia diseño la gama GTX 16×0 con tal de llegar a las gamas de consumo.

Tradicionalmente los modelos 04 y 06 de cada generación son para las GeForce y las 02 que son para los modelos x80 Ti se lanzaban mucho después pero con Turing fue distinto, se lanzo toda la gama de golpe. No me extraría que la actual RTX 2080 Ti tenga los días contados en forma de una RTX 3080 Ti con una versión del GA102, eso si, no con 48GB sino con 24GB y preparaos para dejar ir el dinero que baratita no va a ser.

¿Y que ocurre con las otras gamas? Bueno, Nvidia en vez de jugar al juego de cambiar de arquitectura y nodo al mismo tiempo como AMD decidió seguir con el mismo nodo con Turing. ¿Las consecuencias? Chips mucho más grandes y ergo más caros que en Pascal.

Si hacemos una comparativa en lo que a la cantidad de transistores veremos que la Navi 10/RX 5700 esta a la par de la TU106 pero midiendo casi unos 200mm^2 menos. Si Nvidia le hiciese un tick tock a Turing se podría comer sin problemas a AMD y una cosa que mucha gente no sabe es que AMD esta aprovechando que Nvidia no esta en los 7nm para tener el precio realmente alto de sus GPUs y sacar más margen económico. ¿Os acordáis cuando AMD le bajo el precio a las RX 5700? Fue una treta de marketing, de la misma manera que han hecho con la RX 5600 que la han bajado rapidamente de precio cuando las RTX 2060 a menos de $300 han aparecido.

A nivel de consumo, lo lógico es pensar que Nvidia quiera repetir el éxito de la gama GTX 10×0 de nuevo y al mismo tiempo volver a ser la reina en cuanto a rendimiento pero nos encontramos con que Nvidia tiene aún Turings que vender y lanzar una gama Ampere con mayor rendimiento y muchos menos precio puede suponer un cabreo generalizado de los ensambladores y literalmente un suicidio por parte de Nvidia, es por ello que no me veo a Ampere siendo más barata que lo que fue Turing, incluso si los costes son menores y les veo moviendose por la misma gama de precios.

Empezando por la GA106 que reemplaría a la actual TU106… Una posible configuración podría ser la siguiente:

ChipGPCSM por GPCSM TotalCUDA «Cores»
TU106410402560
GA106412483072

Hay que tener en cuenta que las GPUs de las gamas 06 siempre han ido para las GeForce RTX x060, en Turing fue la excepción de cara a la RTX 2070 y si nos fijamos es una versión a 7nm de la RTX 2080 Super, pero con la diferencia de que Nvidia la utilizaráría como RTX 3070 para reemplazar a la RTX 2070 Super actual en lo que al precio se refiere por lo que estamos hablando de una tarjeta alrededor de los $500.

En cambio la GA104 sería un salto más espectacular, pasaríamos de un bus de 256 bits a uno de 384 bits, aumentando la cantidad de GPC de 4 a 6.

ChipGPCSM por GPCSM TotalCUDA «Cores»
TU104412483072
GA104614845376

La GA104 seria para la RTX 3080, la cual reemplazará como es obvió la actual RTX 2080 Super en la misma gama de precio. Con esto os podéis hacer una idea a donde puede subir la RTX 3080 Ti y la RTX Quadro que lleve el 6502 en cuanto a precio y a que gama van a ir dirigidas.

¿Y que hay del remplazo de las GTX 16×0? Bueno, sobre eso…

Vamos a decir que las GA102, GA104 y GA106 van a ser fabricadas por TSMC pero Nvidia tiene una cuarta GPU que va a ser fabricada por Samsung, la cual…

  • Va a reemplazar las GTX 1660 en lo que al segmento de mercado que van dirigidas.
  • Al contrario que las GTX son RTX por lo que tienen la funcionalidad de los RT Cores y los Tensor Cores completa.
  • No existe la gama GA11x, más bien esto sería una GA107

Pero la GA107 fabricada por Samsung no la vais a ver en el mercado hasta de aquí a unos meses cuando se acerque la campaña navideña. ¿Es posible que sea una versión a 7nm de la TU106? Por poder, puede.

Esto es todo, como siempre tenéis el Discord y los comentarios para dar vuestra opinión.