Tened en cuenta que esto de momento es solo un rumor.

Un informe de Igor Wallossek en Igor Lab afirma que la Radeon RX 5600 XT aterrizará en la tercera semana de enero de 2020. La publicación alemana también revela las especificaciones potenciales para la inminente tarjeta gráfica AMD de AMD.

Las fuentes de Wallossek insinuaron que AMD podría estar recalentando el silicio Navi 10, que está dentro del Radeon RX 5700 y RX 5700 XT, para el Radeon RX 5600 XT. Obviamente, el fabricante de chips necesitaría cortar el dado para evitar cualquier canibalismo de producto.

El el die, Navi 10 alberga dos motores de sombreado (SE), y hay dos motores de cómputo asincrónicos (ACE) dentro de cada motor de sombreado. Según el laboratorio de Igor, es posible deshabilitar uno de los cuatro ACE, que desactivan efectivamente 1/4 de silicio Navi 10.

Como recordatorio rápido, un troquel Navi 10 completamente desbloqueado cuenta con 40 unidades de cómputo RDNA (Radeon DNA), que se reduce a un total de 2,560 procesadores de flujo (SP), 160 unidades de mapeo de texturas (TMU) y 64 unidades de salida de render (ROPs).

Suponiendo que AMD siga esta ruta, es probable que el Radeon RX 5600 XT tenga 30 CU de RDNA, 1.920 SP, 120 TMU, 48 ROP y 3 MB de caché L2. Teóricamente, la Radeon RX 5600 XT puede realizar hasta el 75% de una Radeon RX 5700 XT a las mismas velocidades de reloj. Por lo tanto, el Radeon RX 5600 XT puede ser un reemplazo para el Radeon RX Vega 56 anticuado en el mejor de los casos.

Navi 10 es descaradamente el rival directo del chip TU106 de la gama Turing de Nvidia, el cual fue lanzado originalmente para la RTX 2070 y posteriormente se utilizo una versión recortada del chip con menos unidades activas y con un ancho de banda para la memoria mucho más pequeño, de unos 192 bits en vez de los 256 bits de la RTX 2070, esto es precisamente lo que AMD parece que va a hacer, va a lanzar la rival de la RTX 2060 un año más tarde aprovechando los chips parcialmente defectuosos de la serie Navi 10.

El tamaño del chip del ASIC nos dirá mucho por el hecho que no es más que la colección de chips Navi 10 que no llegan a la velocidad de reloj esperada por un lado y para que sean estables se les han desactivar unidades. Esto hace que de la oblea no se tengan que tirar todos los chips y el sobrecoste no termine en los chips buenos que son los RX 5700 y RX 5700 estándar.

Esto nos lleva a una pregunta… Si la RX 5600 es una Navi 10 capada… ¿Donde esta Navi 12? Supuestamente es para una RX 5800 con unas especificaciones a la par de una RTX 2080 pero… ¿Como es que no aparece en las filtraciones? Recordad que las filtraciones son una manera de crear hype por parte de AMD de cara a sus tarjetas y parecería ser que para chips a 7nm con un tamaño superior a los 256mm^2 ha habido problemas en lo que al rendimiento de las obleas se refiere por el momento y esto habría incluido durante un tiempo a las consolas next gen y explicaría ciertos fenómenos que han ocurrido.

¿Como es que Nvidia en vez de dar la hostía definitiva a AMD con Turing a 7nm aka Ampere han sacado la serie Super que no es más que Turing a más velocidad? Si la densidad respecto al nodo anterior es de 2X entonces…

¿Que problema tendrían? Bueno, el problema de que las obleas para la TU104 y la TU102 serían mucho más caras y por cierto, aprovecho para responder a un comentario de paso.

En la pruebas de Computerbase entre RDNA y Turing, a misma frecuencia, shaders y bus, daban el mismo IPC.

Asi que no se si Turing sera superior en arquitectura y rendimiento, donde si parece superior es eficiencia energetica.

Turing esta a 12/16nm… Por lo que cuando hagan su versión a 7nm será cuando AMD de nuevo entrará en desventaja. Que Jen Hsun no haya aprovechado para darle la estocada final demuestra que algo raro pasa en el nodo de 7nm a partir de cierto tamaño. Esto junto a la inexistencia de la RX 5800 que no sería otra cosa que una RX 5500 con el doble de bus y de unidades (24 WGP/ 48 CUs).

Pues bien, existe el rumor de que podríamos ver aparecer de nuevo la HBM2 en una GPU de AMD… ¿El motivo? Pues por el siguiente rumor:

Unos 2048 bits nos marcan el uso de memoria HBM2 en 2 pilas, el coste actual de la HBM2 es mucho más alta que el de la GDDR6 por lo que no es viable para el mercado doméstico. La única ventaja de la HBM2 es que consume mucho menos que la GDDR6 y permite hacer que la velocidad de reloj del chip pueda ser más alta, pero su coste la hace inviable para el mercado y solo es útil para ciertas soluciones en las que el consumo y el espacio sean importantes como los ordenadores ultra-delgados de Apple.

Todo esto nos lleva a la arquitectura RDNA de segunda generación, existe el rumor de que lo que antes era la RX «5800» o «Big Navi» si que existe pero formando parte de la arquitectura RDNA de segunda generación que por tanto implementaría la unidad de intersección para el Raytracing, dicha unidad con unos 48 CUs/24 WGP utilizaría memoria GDDR6 con un bus de 256 bits como la TU104/RTX 2080 con la que competiría pero con la unidad de AMD alcanzado los 12 TFLOPS de potencia en RDNA… Pero AMD no la lanzaría dentro de la seria RX 5×00 que terminaría en la RX

¿Pero si dicha GPU existe como es que AMD no la ha lanzado al mercado? Es por el mal rendimiento de las obleas a 7nm de TSMC a partir de ciertos tamaños. Pero el chip existe, fuera del circuito comercial tradicional.

¿Donde? Pues en el SDK de…

Antes de nada hay que aclarar dos cosas, una de ellas son las especificaciones de la GPU dedicada utilizada en el SDK y otra muy distinta son las especificaciones del SoC final de la consola. Por el momento nadie tiene una Xbox Series X en su versión final siendo utilizada en sus escritorios y basada en el hardware final. Perdonad si soy escéptico en que un SoC pueda alcanzar dicha potencia cuando AMD por lo visto esta teniendo problemas con el nodo de 7nm, por si fuera poco RDNA2 utiliza en teoría el nodo de 7nm EUV de TSMC… Y digo en teoría porque es lo que AMD afirmaba.

¿Es posible que haya habido un cambio en el nodo de fabricación de los chips a última hora y se haya pasado a los 7nm EUV? ¿Es posible que después del fiasco con los chips grandes a 7nm en TSMC tengamos un mejor rendimiento en 7nm EUV y haya habido un cambio en el nodo de las consolas a última hora? Sinceramente…

El problema de los nuevos nodos es que los productos iniciales suelen pagar el coste inicial de despliegue de la tecnología. Es por ello que se suelen tirar de smartphones para ello. ¿El motivo? Chips más pequeños con menos defectos por oblea y unos margenes lo suficientemente altos dado el alto precio de los productos, No parece por lógica que exista un cambio a los 7nm EUV en las consolas producido a última hora y bien me podría equivocar al 100% pero a las consolas no les sientan bien en costes los nodos recién estrenados y nadie quiere vender su consola a un precio demasiado alto porque entonces no tendría mercado.

Las noticias de hace unos días de que Nvidia va a ir con TSMC para Ampere y el hecho de que este es Turing a 7nm son cruciales. Nvidia necesitaba que el rendimiento de las obleas en chips más grandes aumentase y AMD también pero eso ya afecta a los chips de 2020. ¿Entonces como es que AMD no ha tomado ventaja? Pues por el hecho que ha decidido apostar más en ese sentido con RDNA 2 y dar el salto directo. Pero no estamos hablando de una batalla bajo el nodo de 7nm EUV como mucha gente de los medios afirmaba. ¿Pero no se iba Nvidia con Samsung? Bueno, parece ser que Samsung se ha quedado como la fundición de los chips de pequeño tamaño, siendo el primero de ellos el «Navi 14» de AMD por lo que Nvidia podría enviar a Samsung algún chip de gama baja también. Es decir, con tal de liberar la linea de producción en TSMC… Samsung se quedaría con la fabricación de los chips pequeños mientras que TSMC se quedaría con los grandes.

Todo esto no quita de que un SoC con una GPU RDNA2 a 12 TFLOPS sea algo que independientemente de quien hable de ello se me antoje imposible por completo. Por otro lado pienso que la GPU en el SDK de Xbox Series X es una GPU dedicada y es la llamada «Navi 21» pero bien me podría equivocar. ¿Vamos a tener una GPU dedicada en Xbox Series X? Pues no, la verdad es que no, vamos a tener un SoC con la GPU con la misma configuración pero es muy difícil conseguir los 12 TFLOPS por el hecho que haría falta una velocidad de reloj muy grande y existe el ahogamiento termal.

¿Pero es 100% imposible tener una GPU RDNA con 12 TFLOPS?

No, no lo es pero para que la GPU adquiera ese rendimiento es necesario recortar el rendimiento de otras partes bajando su velocidad de reloj. Esto significa que AMD y Microsoft tendrán que recortar la velocidad de reloj de cosas como la CPU para alcanzar dicho rendimiento gráfico y puede que el recorte sea severo en velocidad de reloj de la CPU y otros componentes como el controlador de memoria reduciendo el ancho de banda de esta y con ella el rendimiento, pero eso nes harina de otro costal.

Esto es todo, como siempre tenéis el Discord y los comentarios de la misma entrada para comentar el contenido de la misma.