Comentario Original:

Me equivoco si digo que siempre Nvidia se ha diferenciado de AMD por crear chips más grandes?
Creo que AMD ha cogido dinerillo de Ryzen y ha metido un poco en Radeon porque hacía mucha falta.

No solo eso, sino que le han pegado la patada al inepto de Raja Koduri que entro en AMD después de estar terminada GCN y que estanco el Radeon Technology Group por completo. Lisa Su hizo lo correcto de pegarle la patada.

Y es que este video es muy revelador:

¿La Navi de Raja Koduri? Una Vega++, ni más ni menos que eso. De ahí a que Lisa Su lo despidiera para tomar ella las riendas del RTG porque en todo ese tiempo solo se habían desarrollado hacks de GCN cuando Nvidia en todo ese tiempo había desarrollado:

  • Kepler
  • Maxwell
  • Pascal
  • Volta

Y cada una de ellas mejor que la anterior, por eso adelantaron la «Next Gen» mientras iban sacando información falsa para confundir sobre «Navi» con tal de pillar un poco desprevenida a Nvidia y al resto. Incluso meses antes del lanzamiento Raja pensaba que AMD estaba desarrollando su Navi cuando lo que era Navi estaba ya cancelada a favor de adelantar la siguiente interación.

Es por ello que todo el mundo andaba cenizo perdido sobre lo que iba a ser Navi antes de su presentación, es por ello que a todos nos pillo por sorpresa.

Espero y deseo que RDNA crezca bien porque por la incompetencia de AMD el chaquetas ha jodido el mercado. Y eso es culpa de la gente. La cual me jode a mi cuando yo quiero comprarme una nueva GPU por aceptar cualquier precio de mierda.

Lo importante es el rendimiento/precio, si compras una GPU más potente es porque por el mismo precio te da más rendimiento. El rendimiento/precio de Turing debería haber sido más alto que el de Pascal por el mismo precio cuando es el mismo. ¿La explicación? Pues que tienes más transistores y claro, Nvidia ha hecho un esfuerzo en ese sentido. A mi eso me importa una mierda, no es bueno que la tarjeta de precio X de el mismo rendimiento por el precio X.

Curiosamente la RX 5700 compite con la RTX 2070, tiene una cantidad de transistores similar y un rendimiento similar y la parte del Raytracing del RTX no ocupa ni un 5% del total de transistores de la GPU. AMD puede vender su RX 5700 XT por menos precio que la RTX 2070 por tener un chip mucho más pequeño pero si no tenemos que fiar un poco por la similitud de densidad de los procesos de 7nm no creo que el equivalente a la RTX 2070 en 7nm EUV para Ampere sea muy diferente.

Y hay una cosa sobre el coste de los 7nm en todas sus variantes.

Si cree la gente que esto va a afectar solamente a AMD entonces es que muy ingenua. Esto va a afectar también a Nvidia. Quienes saben muy bien que el problema del rendimiento/precio siendo igual que la anterior generación no lo pueden repetir con Ampere o se van a comer las tarjetas. Obviamente el salto a los 7nm les permitira auementar la velocidad de reloj.

Puede parecer una chorrada pero que Samsung se haya interesado por RDNA para meterlo en sus chips me hace creer que es una arquitectura enérgicamente eficiente y que escala bien.

Obviamente y porque AMD tiene interés en entrar en el mercado de las GPUs de smartphone.

Nvidia en cambio desde que Bill Dally es el cientifico jefe se esta convirtiendo en una empresa de Inteligencia Artificial. Es por eso que ha ocurrido lo que ha ocurrido con los Tegra, la implementación de los Tensor Cores… AMD en cambio va a utilizar sus puntos fuertes de otra manera y la construcción del RDNA tiene ese objetivo.

Llevo tiempo diciendo que la Cache L1 de la arquitectura es clave, por el momento es solo lectura pero en ambos sentidos puede utilizarse para el Tile Rendering y… voila… Ya tenemos una GPU pensada para el mercado móvil. Claro que es una especulación mía esto pero viendo el sinsentido que sería lanzar una GPU que no es un Tile Renderer en el mercado móvil pues… Ya se sabe y más viendo como los anchos de banda de la memoria no van a aumentar mucho, tened en cuenta que a LPDDR5 solo es 2X en ancho de banda respecto a la LPDDR4.

O al final me veo rezando a Intel con sus GPU.

Eh… Yo creo que la Lisa Su es muy lista. Se quito de encima al Jim Keller, sujeto que los tontos siguen diciendo que fue el arquitecto de zen. Cuando es un diseño de Mike Clark y Suzanne Plummer.

Pero ahí tenemos a Intel sacando los ex-superstar de AMD de cara al futuro en medio del marketing, tanto Raja como Keller.

Lo que sabemos de los Intel Xe es que son los intel Gen11 pasados de ser una integrada a una GPU dedicada. El plan de Intel ya lo he comentado muchas veces, ir vendiendo sus GPUs en combinación con sus CPUs en sus ensambladores y una cosa… La Gen 11 de intel es mejor que Vega y posiblemente que el Vega++/Navi que tenía Koduri en las manos… Que Intel superase a AMD en gráficas es cuanto menos… Obviamente Raja dio el salto y ahora anda comiendo canapés y cerveza junto al otro bluff que es Jim Keller a sueldo de Intel después de que Lisa Su le pagará la patada y magicamente AMD ha adelantado unos cuantos años con RDNA.

Todo muy…

La idea de Intel de poner a Raja Koduri como hombre-anuncio es en modo «Si, ahora somos serios con las GPUs» cuando realmente el desarrollo de estas hubiese avanzado sin Koduri por el medio. Lo peor es ver a los medios tragarse el Kool-Aid del marketing de Intel de Raja viniendo con una super-arquitectura… ¿De donde? ¿Entonces como es que AMD lo dejo escapar? Ah no, que Intel Xe es la Gen11 con retoques si.

Raja andaba obsesionado con una cosa en AMD, el uso de la memoria HBM y del TSV. ¿Recordáis cuando AMD mostraba dibujitos como estos?

¿Y que compañía anda ahora con el tema del 3DIC que es lo que quería implementar Raja en AMD? Pues Intel…Solo hay que ver su planteamiento con Foveros.

Raja en AMD fue el principal defensor del uso de la memoria HBM y sus variantes. La evolución respecto a eso era pasar de una solución 2.5DIC a una 3DIC en un futuro, cosa que se ve en las pruebas que publicaron en el paper del EHP.

¿como es que la memoria HBM fue un fiasco? Pues porque es cara y es cara porque no produce en volumen como el resto. ¿Donde esta la oportunidad para Koduri y su diseño? En Intel que tiene más volumen que AMD en cuanto a ventas pero para hacerlo ha de forzar la compra del paquete entero incluyendo la GPU. El hecho de acercar la memoria al procesador reduce la latencia y aumenta el rendimiento, pero no deja de ser un hack con el que puedes mejorar cualquier arquitectura y Koduri andaba obsesionado en ponerlo en AMD.

Recuerdo hace años como la HBM de bajo coste fue anunciada por Samsung, lo que significaba que tenía clientela para ella…

Esto se cancelo, pero Samsung no habla de algo así si no tiene un buen cliente que lo justifique y pienso que originalmente era AMD con Koduri a la cabeza, todo para abaratar los costes de memoria de la HBM. Nvidia por otro lado no parece haber tenido públicamente este interés por este tipo de memoria y todo lo que conlleva, al salir Koduri de AMD se perdio la pista pero todo apunta que los Intel Xe harán uso de alguna variante de la HBM para su memoria y que es lo que ha aportada Raja, que tras su despido y después del desinterés de AMD en ese futuro se llevo todo eso a Intel.

Y cuidadin que por lo visto los 7nm EUV de Samsung no van muy finos que digamos. Muchas risas y mofas de la gente con los 7nm de TSMC porque hacen chips para móviles y por eso no llegan a altas frecuencias. Mismas risas y mofas con AMD y Zen 2 por no conseguir altas frecuencias. Fácil de entender. Mirad los 10nm de Intel que no pueden ni de coña llegar a las frecuencias de sus 14 nm ++++++++++++

Lo de las frecuencias depende normalmente no solo del nodo sino también de la arquitectura. Yo no veo el problema con las frecuencias de nada de AMD a 7nm… En cuanto a lo del nodo de 10nm de Intel, es que es doloroso a más no poder.

¿Y sabes cual es la hipocresia? Apple iba a utilizar a Intel y su nodo de 10nm como proveedor de los SoC An, es decir, iban a fabricarlos allí al menos una de las remesas. De ahí todo el follón con Qualcomm y el 5G y el favoritismo a Intel por parte de Apple en ese aspecto. Si TSMC esta cobrando una burrada por oblea por parte de Apple entonces le podrían pagar a Intel si tuvieran un nodo adecuado para ello… Pero al final no lo tuvieron.

Se dice que Intel tiene un SoC o al menos CPU ARM+x86 muy parecido al concepto del AMD Skybridge del que AMD hablo hace unos años y cuyo principal valedor era Keller, pero no deja de ser un rumor y es posible que no sea cierto.

Cuando el nodo es bien maduro puedes jugar todo lo que quieras con el. Por mucho que le joda a la gente TSMC está a la vanguardia.

No entiendo el pataleo de Nvidia de irse con Samsung, en serio… ¿El motivo era que TSMC le dio prioridad a Apple y Huawei el año pasado y por eso tomaron el plan Turing? En fin…

Esto es todo, como siempre tenéis el Discord y los comentarios de la misma entrada para comentar el contenido de la misma.