Comentario#1:

Al ver la transmisión cuando empezaron a hablar de Compute DNA (CDNA) lo primero que pense es… ya le han buscado un nombre alternativo a las GCN destinadas a hpc para que quede mas cool y hasta que no saquen CDNA 2 no veremos nada nuevo en ese ambito xD

No creo que sea puramente una GCN, el motivo de ello es que AMD al eliminar el anillo gráfico hace que muchos elementos del hardware pensados para gráficos que no sirven en computación pura y dura no tengan cabida.

Curiosamente David Wang confirma lo que es lógico, que todos los elementos no necesarios para computación de alto rendimiento (HPC) han sido eliminados.

Es decir, lo más seguro es que CDNA respecto a GCN carezca;

  • Unidadades de Rasterizado.
  • Unidad Geométrica/Teselación.
  • Unidades RBE.

Y dentro de las Compute Units:

  • Unidad de Filtraje de Texturas.

Por otro lado hablan de los Tensor Ops, tal y como destaque en la entrada anterior y hacen mención a unidades matriciales que es otro eufemismo para los arrays sistolicos.

La diferencia con Nvidia es que dichas unidades no estarían dentro de las Compute Units sino que son una unidad externa a los Compute/Shader Engines, al fin y al cabo tenemos la patente de la unidad VCN con la doble funcionalidad. Todo es ordenar ideas.

Aunque la gran pregunta para mi es… ¿Como llegar a los 128 CUs? Esto requiere un cambio importante en el sistema de caches y su organización. Aquí tenemos dos opciones:

  • Como en RDNA han añadido una cache intermedia.
  • Respecto a Vega 7nm han duplicado la cantidad de particiones de Cache L2 y han pasado de 4MB de Cache L2 a 8MB, con ello han duplicado además el ancho de banda.

En todo caso no es una «GPU» que vayamos a ver en el mercado doméstico sino que es algo para un mercado muy pero que muy específico con contratos economicos muy jugosos para las empresas pero CDNA no es ni para ni parami.

Comentario#2:

Hola Intel podría hacer algo parecido parece que trabajan en copia modulares

Intel esta haciendo algo parecido, ya nos lo mostraron hace unos meses cuando comentaron lo de sus GPUs Xe para el mercado HPC, concretamente cuando hablaron de Aurora y Ponte Vecchio.

Cuando tienes una enorme cantidad de procesadores que comunicar entre si tienes que utilizar un intercomunicador central cuyo tamaño dependerá de la complejidad de la comunicación y la cantidad de datos. La idea de Intel y AMD es la misma, una serie de procesadores comunicados entre a través de un sustrato/interposer encargado de llevar todo el cableado y la comunicación de los diferentes chips, dicho sustrato/interposer se encuentra en la base de toda la placa entera.

Los chips no se comunican entre si a través de una interfaz en serie sino a través de vias de silicio en vertical con el sustrato/interposer de abajo que como he dicho ocupa la placa entera. Lo mismo ocurre con la solución de AMD…

Y por otro lado sabemos que Nvidia con «Hopper» que es lo que viene después de Ampere también lo hará.

Pero no son construcciones que estén pensadas para el mercado doméstico, ni tan siquiera el profesional sino para;

Comentario#3:

Hola Urian, interesante entrada
AMD se está poniendo las pilas.
Intel está mejorando sus GPU, aparentemente van a dejar de ser basura.
Y NVidia? ¿sería posible que hagan CPUs x86 propia o que compren a un desarrollador? No se si hay otro, antes estaba Cyrix que ahora hacen chipsets (creo)

Y eventualmente ¿cuanto tardaria NVidia en desarrollar su propio CPU? Porque si en 3 años pierde el sector x86 en servidor, y en algunos mas la parte baja en doméstico…. no creo que corra peligro pero no se pueden quedar con los brazos cruzados

Nvidia hace una década tuvo planes para hacer una CPU x86 o que a menos tuviese un interprete x86, al final el proyecto acabo descartado por la propia Nvidia.

Denver acabo siendo la CPU del Tegra K1 y ahora muchos diréis… ¡Pero si el Tegra K1 no puede ejecutar código x86 en su CPU! Lo cual es cierto, pero Nvidia empezo su núcleo ARM con el objetivo de darle un interprete, no sabemos cual iba a ser la implementación pero lo más seguro es pensar que iban a utilizar un interprete para ello. En todo caso es algo muy complejo de hacer y recorta enormemente el rendimiento respecto a tener un núcleo nativo. ¿El motivo? Un interprete necesita un tiempo para convertir una instrucción de un conjunto de instrucciones a otra, es decir, leer el binario y generar un código binario que sea compatible con la arquitectura real del procesador.

Para que os hagáis una idea cada instrucción de un procesador esta compuesta por un número binario de o bits, que se subdivide en m+n bits donde m bits corresponden al código de la instrucción y n bits al dato con el que dicha instrucción operará. Puede parecer muy banal hacerlo pero el problema es la velocidad. Si el interprete añade latencia y reduce la velocidad por instrucción, entonces la gente que busque rendimiento pues no lo van a querer.

Y aquí entramos en un tema que llevo tiempo leyendo y oyendo, el uso de la inteligencia artificial para la conversión de manera muy rápida de un binario para una arquitectura en otro. Es decir, entrenar a la IA para que aprenda a leer un binario y genere el mismo programa en un binario para una arquitectura diferente a tiempo real. No se si Nvidia anda trabajando en eso pero lo que si que es que hay una multinacional muy pero que muy famosa que no es que quiera ir a x86 sino salir de x86 para sus futuros productos, muchos ya os podéis imaginar cual, pero claro, eso es solo un escenario que manejan.

Y el mercado doméstico? Se puede complicar en 2 o 3 años para NVidia o van a dominar por más tiempo?

¿Te refieres a las gráficas? No sabemos la fecha de lanzamiento de las GeForce Ampere, podria ser este año pero hay que tener en cuenta que Nvidia ahora funciona en ciclos de dos años para cada arquitectura. Por lo que deberíamos tener el reemplazo de Ampere en el 2022.

El problema es que Ampere no es más que la versión a 7nm de Turing con todo lo que ello implica, tiene una serie de mejoras menores como las tuvieron las GTX 10×0 respecto a las 9×0 pero una es una versión de la otra bajo un nuevo nodo. Es más, dudo que Ampere en la GA100 sea igual a las Ampere de las GA102 hacía abajo en la gama, justo como ocurrió con Pascal, pero eso ya es especulación por mi parte.

Fijaos como AMD no ha dado especificaciones técnicas de RDNA 2, esto para que Nvidia no ponga o quite SM/CUs de sus diseños de referencia para contrarrestar a RDNA 2 a última hora.

Esto es todo, como siempre tenéis el Discord y los comentarios de la misma entrada para comentar el contenido de la misma.