Si dijese que el llamado nodo de «7nm» esta teniendo problemas y el motivo de dichos problemas muchos os pondrías de los nervios.

SheldonPanic

¿Cual es el problema? Digamos que las interacciones y las dependencias en los nodos de 7nm en adelante pueden crear bajadas de rendimiento que solo se aprecían con los hips finales y que no se pueden conseguir ver con los simuladores. ¿El area problemática? La resistencia de los chips aumenta por la reducción del tamaño de los transistores lo que afecta al tiempo en que bajan los electrones y provoca que los chips no corran a la velocidad de reloj esperada.
Por lo que es una paradoja enorme, a medida que vamos aumentando la densidad de los chips la resistencia va subiendo también hasta el punto en que cada vez nos cuesta más alcanzar ciertas velocidades. Este problema ya se lo encontro Intel durante el diseño del Pentium V en el 2003 y fue lo que disparo el diseño del Core 2 Duo, las CPUs multinucleo y el fin de la carrera exagerada de los Mhz. Pero eso era un problema para las CPUs, las GPUs y otros elementos como los SoC (especialmente los de los dispositivos de bolsillo) no aspiraban a velocidades tan altas y no se habían visto afectados de la misma forma.
El fenómeno de no poder aumentar la velocidad de reloj debido a la resistencia se le llama el fin del escalado Dennard/MOSFET. Para entender el escalado Dennard hemos de tener en cuenta que de la siguiente tabla k es el factor de escalado
Dennard Scaling
Aunque para hacerlo más simple esta otra imagen os guiará de mejor manera:
slide_19.jpg
Basicamente la trampa era que reduciendo el tamaño del transisor un 30% (0.7X) el area total pasaba a ser la mitad (0.49X) respecto a la anterior versión del mismo chip y podía ir cerca de un 40% más rápido. ¿Os suenan de algo estas cifras?
amd-reveals-7nm-vega-gpu-computex-inline
iedm-2017-gf-7nm-power-vs-frequency-2f6t
Pero resulta que la realidad es muy cruel y una vez se han empezado a fabricar los chips bajo los nuevos procesos de «7nm» se han encontrado que el problema de no poder subir la velocidad de reloj ha aparecido y la subida de velocidad no ha sido la esperada en estos chips por parte de los diseñadores. En el pasado mes de Junio ARM salio afirmando que los nodos de 7nm como mucho permitían un aumento del 2-3% de la velocidad respecto a la generación de los nodos a «16nm». Lo cual resulta un enorme problema si tenemos en cuenta que uno de los factores de venta de ciertas gamas de procesadores es el aumento de la velocidad de reloj. ¿Como se evita esto? Pues haciendo que la distancia entre los transistores sea menor y por tanto el escalado de densidad no es tan grande pero la contrapartida es que el coste por mm^2 de los chips aumenta.
Un ejemplo de ello lo tenemos en que pese a las palabras de AMD el Vega 7nm es 2X en densidad de transistores, en realidad el chip no es 2X respecto al AMD Vega anterior.
descarga.jpg
Esto es debido a que para alcanzar velocidades de reloj mucho más altas la densidad no ha podido escalarse de la misma manera. La contrapartida de tener un chip más grande es que la cantidad de chips correctos por oblea disminuye y los costes de estos aumentan. Ahora bien, si estamos hablando de un SoC para un sistema embebido como es una consola entonces nos acabamos encontrando con un aumento de costes considerable que en el 90% de los casos es rechazado por el fabricante de la misma, el cual prefiere rebajar sus pretensiones antes de aumentar el coste de fabricación de los chips.
La historia de Epsilon
Lo que voy a contar ahora es algo que no ha ocurrido, que es completamente falso y a lo que no deberías hacerle caso. Resulta que AMD en un tiempo de 2017 tenia 3 SoC derivados de Raven Ridge que erán los siguientes:
  • El propio Raven Ridge
  • El llamado Fenghuang/15FF de la Z+
  • Una versión a 7nm cuyas especificaciones eran 2X el 15FF (con todas las CUs activas) y con controlador de memoria GDDR6 en vez de memoria GDDR5.

El tercer chip es el procesador que AMD le ofrecio a Sony a principios de este año como base (con modificaciones) para la creación de «PS5» pero cuando este fue ofrecido no se ofrecio en forma de chip final sino dentro de la simulación para que Sony pudiese añadir lo que quisiera y toquetear. ¿El problema? El Domingo 17 de Marzo, Sony Interactive Entertainment realizo una presentación cerca de donde se iba a celebrar la GDC aprovechando que estabán los estudios reunidos, el objetivo era hablarles del nuevo sistema en desarrollo, al que llamaron Epsilon y cual era el plan.

DaeFUiEVwAAEq8T.jpg

Sony no tenía el chip físico pero se podía hacer una idea de lo que podían esperar, por lo que marcaron una especificaciones preliminares sujetas a cambios por los problemas que podían encontrarse con la versión final del chip, la cual al mismo tiempo que los estudios de Sony eran avisados del cambio de hardware el SoC principal se ponía a fabricación y el problema explicado a inicio de esta entrada se hizo patente a los ojos de AMD y de Sony. El SoC seguia siendo mucho más potente que el de Xbox One X pero la velocidad de reloj no llegaba a la velocidad esperada inicialmente y con ello tampoco las cifras de rendimiento esperadas. La única opción que tenían era aumentar el tamaño del chip para poder alcanzar una mayor velocidad de reloj. ¿Las consecuencias de dicho percance? Los departamentos de desarrollo de Sony a nivel interno parando la maquinaria momentaneamente mientras Sony y AMD discutían que hacer, si aumentar el tamaño del SoC sin aumentar la cantidad de transistores y con ello el coste o buscar otra solución para su nuevo sistema.

Pero el departamento de desarrollo necesitaba algo con lo que poder trabajar, no se pueden utilizar las GPUs de AMD en PC porque su set de registro e instrucciones tiene incompatibilidades y al mismo tiempo necesitaban tener algo con cara y ojos, pese a que la fecha de desarrollo para la siguiente generación se había pospuesto el trabajo titánico detrás recomendaba ser escepticos con ello y que algunos estudios se pusieran manos a la obra, Sony monto con los SoC prototipo fabricados a nivel interno una serie de consolas prototipo para el desarrollo que contenían en su interior el nuevo SoC y unos 16GB de memoria GDDR6, siendo el software del sistema el mismo que PS4 y PS4 Pro pero aprovechando el doble de capacidad con tal de poder colocar las herramientas de desarollo, la utilidad de dicha versión prototipo era la de poder hacer nuevos juegos para también la de adaptar el SO de PS4 al completo y probar la compatibilidad hacía atrás, con tal de no levantar sospechas y que no se filtrase la información se distribuyeron dentro de las mismas carcasas que los kits de desarrollo de PS4 y PS4 Pro.

Mientras esto ocurría el departamento de ventas de Sony Computer Entertainment se planteaba el lanzamiento ese mismo año del nuevo hardware como una iteración aún más potente que PS4 Pro. El miedo del departamento de ventas y marketing era que AMD tenía libertad para ofrecer un SoC similar al suyo a Microsoft y pese el reciente lanzamiento de la Xbox One X existía la posibilidad real. Sabian que era posible hacer un lanzamiento en pocos meses con la tecnología, ellos ya habian fabricado varios sistemas para uso interno y conocían las capacidades de producción en masa, además que Sony sabia por sus relaciones con los editores independientes que Microsoft iba a hablar del nuevo sistema en el E3, las cosas empezarón a cocinarse durante los meses de Abril y Mayo por si Microsoft presentaba su consola en el E3 y durante toda la conferencia de Microsoft el departamento de ventas y marketing de Sony encargado de llevar la conferencia de la propia Sony al día siguiente estaba en vilo y con el corazón a punto de salirles del pecho, cuando Spencer hablo de Scarlett como algo muy a futuro al final de la conferencia en el departamento de hardware de Sony respiraron aliviados porque tenían tiempo de poder optar a algo mejor que lo que habian obtenido.

2019 es la fecha para el lanzamiento

No obstante las peleas entre el departamento de ventas/marketing y los ingenieros encargados de lo que es el nuevo sistema se acrecentaron por el tema de la fecha limite y el coste. AMD con PS4 Pro le habia sugerido a Sony la adopción de RAM adicional y el soporte para UHD BluRay, Sony con tal de mantener el coste en los $399 no solamente descarto el mayor ancho de banda sino también bajo la velocidad de reloj con tal de ahorrar componentes.

El departamento de ingenieria se encuentra con un dilema enorme, tiene los costes extremadmente limitados por el departamento de ventas/marketing por lo que tienen que ir en estos momentos con mucho cuidado a la hora de tomar ciertas decisiones sobre el hardware final ya que estas puedan afectar el coste y suponer perdidas de millones para Sony. El mayor problema con el que se enfrentan ahora es con el coste actual de la memoria GDDR6 que es algo que Sony no controla en estos momentos, un chip de 1GB GDDR6 cuesta $3 adicionales respecto a su equivalente de 1GB GDDR5, pero Sony espera poder utilizar los de 2GB cuyo proveedor único es Samsung por el momento y el coste de cada chip es aún más alto, aunque más bajo por densidad de memoria esto provoca que los costes se disparen hasta el punto de si la consola fuese lanzada este año se iría a los $499 de media.

El departamento de hardware ha de tener acabado el sistema para principios de 2019 o mejor dicho, acabada la versión mejorada del sistema que tienen encima de la mesa en estos momentos sin salirse de los costes. Pero el otro departamento que esta teniendo también sus propios problemas es el de desarrollo de juegos, los estudios internos de Sony que han de hacer los juegos para la siguiente generación se encuentran contra-reloj, necesitan una media de 3 años de desarrollo para tener algo con cara y ojos y si el desarrollo ha empezado en Abril de 2018 esto significa no tener nada de hasta Abril de 2020, curiosamente el departamento de ventas incluye 2019 desde el punto de vista del año fiscal japonés que termina el 31 de Marzo por lo que de seguir el mapa de ruta actual podria ser lanzada en el 2020 de aquí que fiscalmente sería el 2019 en Japón y no olvidemos que Sony es una empresa japonesa. Ahora bien, ellos saben que tienen el problema de los juegos. ¿Solución? Pues todo aquello que tenían en desarrollo avanzado para PS4 y que no han mostrado todavía solo lo tienen que pasar al nuevo sistema en desarrollo para tener algo, esto en combinación con remasters de juegos punteros de PS4 y alguna que otra exclusiva de los editores independientes para la nueva consola que Sony estaría dispuesta a pagar con tal de que sea una de las puntas de lanza de inicio.

Es decir, mientras Microsoft se esta reforzando internamente creando una nueva infraestrutura de estudios, Sony esta buscando un AAA+ hecho por terceros lo suficientemente atractivo para el público en general que provoque estampidas por la nueva consola durante su lanzamiento. Hay un juego en concreto que no es de la propia Sony, que es de una franquicia potentisima que sale cada x años y que de asegurarse la nueva entrega en exclusiva a nivel de consolas sería un impacto enorme en el mercado que atraeria a mucha gente hacía la nueva consola. El juego no se puede decir cual es porque no es uno sino que son varias las posibilidades por las que Sony esta negociando en estos momentos y las cosas pueden llegar a cualquier puerto en estos momentos.

Y con esto termino, ya sabéis, teneís los comentarios de esta misma entrada y el Discord para comentar la entrada y recordad que lo comentado aquí es completamente falso. Bueno no, mejor…

tenor.gif