Nota de Urian: Esto son varias entradas fusionados en una.

#1 Concepto General

Uno de los conceptos que más vamos a ver en un futuro es la implementación del concepto PIM (Processor in Memory) que tiene como origen lejano la llamada IRAM. ¿El problema que busca resolver? Uno de los problemás clásicos del hardware que no es otro que la evolución de la RAM y los procesadores no va a la par haciendo que la distancia entre ambos sea cada vez mayor.

ProcessorMemoryDifference

La solución a este problema no era otro que añadir una serie de memorias intermedias, tanto memorias scratchpad (controladas manualmente por el programa) como caches. Se ha de tener en cuenta que todo esto no son más que el envio de señales eléctricas y según la distancia entre el procesador y donde se encuentre un dato el tiempo de instrucción es más largo o más corto por el simple hecho que la distancia es mucho más alta y cuanto más alta es la distancia en un cable más resistencia se produce además y por tanto hay latencia adicional.

cachehierarchy

¿La mejor solución? Reducir en lo máximo posible la distancia entre el procesador y la memoria en terminos de cableado integrando la RAM dentro del mismo procesador.  ¿Como se consigue esto? Actualmente utilizando una configuración 3DIC, las cuales utilizan cableado TSV el cableado entre la RAM y el Procesador. Lo cual no es lo mismo que colocar varios procesadores apilados ni tampoco lo mismo que el Package on Package que se utiliza actualmente en los smartphones.

3dic-calibre1.png

HBCCPatent3DIC

El cableado tipo TSV nos permite un cableado tipo matriz… como por ejemplo de 32×32 bits. Esto es una enorme ventaja respecto al cableado clásico en serie que sele ocupar uno de los laterales. ¿El motivo? Nos permite tener la velocidad de reloj baja mientras mantenemos un alto ancho de banda, pero quien dice una interfaz de 32×32 bits también dice una interfaz de 64×64 y poder reducir el consumo energético ya que este crece exponencialmente con la velocidad de reloj. Para que la gente lo entienda, si tengo una interfaz de n bits funcionando x Mhz, si lo que hago es mantener la misma interfaz pero coloco la memoria a funcionar 2x Mhz entonces el consumo no será el doble sino 4 veces más. Si en cambio coloco una interfaz de 2n y mantengo la velocidad en x Mhz entonces el consumo energético se me va a duplicar solamente.

Hasta ahora hemos ido viendo memorias con conectividad TSV en sistemas domésticos utilizando un Interposer Activo que comunicaba directamente la memoria con una GPU dedicada solo en tres casos, los dos primeros las GPU de AMD Fiji (Fury) y Vega, el tercero en la famosa joint-venture entre Intel y AMD.

AMD-Vega-GPU_2

small_Intel-8th-Gen-CPU-discrete-graphics-2

Pero esto son configuraciones 2.5DIC y de lo que hablamos son configuraciones 3DIC, las cuales no se suelen ver mucho en sistemas domésticos por el ahogamiento termal existente entre el procesador y la memoria.

amd-radeon-3d-hbm-vs-25d-high-bandwidth-memory

La idea del 3DIC parece estar relegada a dispositivos de bajo consumo pero no nos podemos imaginar una consola de gama alta funcionando con un mecanismo así. Pero existe algo que contradice por completo dicha afirmación. Bueno, que teoricamente lo contradice por completo.

La última GPU que va a salir bajo arquitectura GCN por parte de AMD es Navi… No lo digo yo, lo afirma la propia AMD.

gpuroadmap

Siendo Navi la última revisión de las GPUs que se mencionaron en el famoso mapa de ruta en lanzamiento previo a Polaris.

amd-radeon-polaris-vega-navi-gpu-roadmap

AMD en dicha presentación hablo de un concepto llamado «Nexgen Memory» que parecía sustituir por completo a la HBM2… ¿Pero que es lo que puede sustituir a la HBM2? Dado que estamos hablando de una reducción de Vega a los 7nm de GF con alguna mejora leve… Si GF al final hace el chip para PC estamos hablando de una reducción teórica del consumo en un 60%. Pero es que además AMD ya nos ha mostrado al menos Navi en un documento.

La idea que tendría AMD sería eliminar por completo el sustrato/interposer y montar la memoria HBMn encima del procesador y vender ambos juntos en una misma solución. ¿Donde hemos visto esto? En el documento acerca del Exascale Heterogenous Processor que presentaron hace unos meses. En el cual se puede ver en el concepto a varios procesadores (CPU y GPU) montados sobre un sustrato/interposer común, no formando un SoC sino una unidad MCM o NoC.

EHP

Si os fijáis encima de la GPU esta la memoria montada en modo 3DIC, no nos interesa el EHP en global sino el hecho de que estamos ante la integración de memoria RAM en la GPU y quien dice una GPU en un futuro SoC también porque esto también sería viable. En el EHP tenemos un total de… ¡8 GPUs! No nos vamos a ir a tanto porque el EHP es un concepto para gama muy alta. ¿Entonces como sabemos que AMD ya lo ha intentado? Pues porque AMD en dicho documento presenta una serie de fotografías con una configuración 3DIC funcionando.

NAVITHERMAL.PNG

Aquí tenemos la medida de temperatura de dos GPUs con memoria en 3DIC (HBMn supuestamente) y por tanto colocada encima del procesador, dado que tenemos unas 8 GPUs tenemos que interpretar la configuracion de 320 CUs como 40 CUs por GPU y la de 384 CUs como 48 CUs por GPU. En una combinación 3DIC no se pueden superar los 85º de temperatura en total por lo que hace falta un sistema de refrigeración añadido al sistema para mantener la temperatura de la combinación de manera estable en nuestro futuro sistema.  La velocidad especificada en las GPUs del documento son inferiores a las de la Xbox One X como podreis haber asumido al hacer un simple cálculo. Luego tenemos además que colocar una sola pila de memoria HBMn es un paso atrás si tenemos en cuenta que por ejemplo el AMD Vega tiene dos, a simple vista parece un poco bajo de cara al futuro.

La clave de todo nos lleva al problema del inicio, la velocidad de un procesador dependerá siempre de donde se encuentr el dato a calcular, por lo que los ciclos por instrucción que no es otra cosa que una medida contable de la latencia por instrucción dependerá siempre de donde se encuentren los datos. Si los datos se encuentran cercanos al procesador entonces dicho tiempo se acortará, si se encuentran lejanos entonces se alargara. Procesadores como las GPUs que tienen altas latencias tienen mecanismos de enmascaramiento de la latencia en su funcionamiento que más bien son paliativos. Este es el segundo motivo por el cual AMD busca colocar la memoria HBMn o una similar montada en formato 3DIC en Navi, porque además el cableado en 3DIC es mucho más corto que en el 2.5DIC utilizado en Vega y la latencia por instrucción sería un poco más baja.

AMD en el documento afirma que la mejor solución es una configuración de 288 CU a 1100Mhz, esto son 36 CUs… ¿Os suena la cifra? Si, es la misma que la de la GPU del SoC de PS4 Pro pero a un poco más de velocidad, se trata de solo de 5 TFLOPS y no podría competir contra Xbox One X a simple vista. Pero para AMD hay un elemento del AMD Vega que es sumamente importante y que por el momento no se utiliza pero que deriva del uso de la memoria HBM en Vega.

HBCC

El High Bandwidth Cache Controller le permite a la GPU no solo tener acceso a la RAM local de la GPU sino además tener acceso a toda la jerarquía de memoria del sistema, tanto la RAM del sistema (por lo que estaríamos hablando de un sistema completamente coherente en cuanto a memoria) como a la NV RAM (almacenamiento Flash, es decir Discos Duros SSD por ejemplo). ¿Que significa esto? Un cambio en la jerarquía clásica de memoria.

7.jpg

Según cada necesidad el sistema escogería utilizar la RAM clásica y por tanto fuerza del procesador o la RAM cercana que es de la que estamos hablando.

VegaHBCC2

Ahora bien, el concepto PIM aplicado a las CPUs es también interesante, las CPU son muy pero que muy vulnerables a la latencia y es por ello que los procesadores más modernos tienen enormes Caches de tercer nivel ocupando un espacio considerable del procesador.

CCX14

¿Que sería lo ideal? una configuracion 3DIC para una CPU significaría que esa enorme cache de tercer nivel desaparecería para ser sustituida por una enorme memoria apilada encima del procesador… ¿Y que ocurre cuando tenemos que dicha memoria apilada encima del procesador es común en un SoC? ¿Que ocurre si cambiamos la CPU o la GPU por un SoC al completo con la memoria montada encima? Pues que vais viendo el concepto al que me estoy refiriendo, pero claro, nos encontraríamos que un sistema así no tendría la suficiente densidad de memoria para ser viable y tampoco las especificaciones serian muy allá.

¿Entonces? La idea sería en principio la de ir montando el sistema en una composición de varios PIM bajo un sustrato común, algo así como lo que hemos visto con el AMD Epyc.

Pero esto tiene un problema, realmente no es así porque necesitamos acceder a toda velocidad a toda la memoria que hay en el sistema (ya que sería coherente) y la distancia de un procesador a su memoria no sería la misma que la de un procesador a la memoria de otro. Esto es porque una solución del tipo AMD Epyc/Threadripper no se basa en un sustrato activo que absorbe el cableado de comunicación del sistema sino que se basa en una serie de comunicaciones en serie utilizando la interfaz Infinity Fabric para comunicar.

650px-amd_epyc_interconnectepyc_tech_day_first_session_for_press_and_analysts_06_19_2017-page-072

La solución de colocar 2 SoC con memoria coherente entre ellos no nos sirve porque la comunicación entre ambos en este caso es lenta… ¿Como lo solventamos? Volviendo a la presentación del EHP hay otra pista de ello.

Los interposers activos no son fundamentalmente diferentes que otros planteamientos de apilado 3D considerados en investigaciones pasadas (2) y se han contruido y demostrado prototipos preliminares (21).

(2) El punto primario de la diferenciación, la cual no es un problema fundamental, es que buena parte de la investigación del apilado 3D consideraban las pilas verticales de chips identicos o similares en tamaño, mientras que un interposer activo implica chips de diferentes tamaños (por ejemplp el interposer contra los chiplets) y algunos chips se pueden colocar uno al lado del otro, en vez de tener una organizacion estrictamente en vertical.

(21) [21] P. V. et al., “A 4x4x2 Homogeneous Scalable 3D Network on-Chip Circuit with 326MFlit/s 0.66pJ/b Robust and Fault- Tolerant Asynchronous 3D Links,” in Proc. of the Int’l Solid-State Circuits Conference (ISSCC), 2016

El caso es que buscando la referencia (21) he llegado a una página donde aparece un concepto que habíamos visto  antes en una patente de AMD.

3D Integration 1

Image2.png

Si os dais cuenta es el mismo concepto que el del EHP, pero hay una patente asociada a AMD donde se comenta de este tipo de configuraciones. La comente en su día y define exactamente lo mismo, aunque no es algo exclusivo de AMD pero si es hacía donde vamos a ver avanzar las cosas en un futuro. La idea de tener 2 SoC en una consola de siguiente generación sobre un interposer activo no os debería sorprender en absoluto.

Dentro de la patente podeís encontrar la siguiente definición que nos confirma de que estamos ante el mismo concepto:

Chiplet1

Ahora bien, hemos de tener en cuenta que la memoria HBMn que iría encima de los chips no podría bajar de una pila de 4 porque sería lo mínimo necesario para la interfaz de 1024 bits por SoC de la que estamos hablando. La densidad por el momento de la HBM2 es de 1GB por chip en la pila pero creo que cuando una hipotética PlayStation 5 este lista podremos hablar de pilas de 2GB cada una por lo que entre ambos chips sumarian unos 16GB… ¿Haría falta memoria externa para una configuracíón de este tipo? ¿No se vería demasiado limitante una configuración de solo 16GB en total?

Hay indicios muy fuertes de que PS5 continuaría teniendo una arquitectura de AMD, ya los comente en su día y las arquitecturas de AMD estan evolucionando a esto. En el concepto del que estoy hablando no tendríamos dos niveles de memoria RAM sino solamente uno ya que toda la memoria serían los 16GB incluidos de serie en ambos SoC en configuracion 3DIC por lo que el espacio ocupado sería bastante compacto. ¿Pero a que viene no realizar un solo chip con memoria alrededor o en su defecto lo unimos todo en un solo PIM? En primer lugar un chip con 8 núcleos Ryzen y 72 CUs en conjunto es algo que directamente asusta por el tamaño que tendría, la idea de subdividir el SoC en 2 SoC simétricos tiene sentido con tal de que la cantidad de chips buenos que salen por oblea sea mayor…

wafer_dies_yield_model_10-20-40mm_-_version_2_-_en

Pero también para evitar el ahogamiento termal sobre la memoria. El otro motivo y que tiene que ver con lo que he comentado antes esta en el hecho de que si en el caso del Ryzen eliminas la necesidad de la Cache L3 al casi pegar la memoria al procesador eliminas el espacio ocupado por la misma y te puedes plantear unos 8 núcleos Ryzen por SoC (Si, 16 por sistema) por lo que en modo retrocompatibilidad con PS4 Pro desactivas uno de los 2 SoC del sistema y utilizas solo 1 (36 CUs, CPU de 8 núcleos) mientras que en modo PS5 activas todos los recursos del sistema.

#2 ¿Es necesario una CPU con 16 núcleos? 

Seguro que muchos lo han visto como un overkill pero os voy a confesar una cosa… Actualmente las consolas de siguiente generación se están planteando como «Consolas para el Juego como Servició» y esto implica que la CPU no puede ser débil en ningún momento. El hecho de saltar de 8 ridículos núcleos Jaguar a 16 núcleos Ryzen es un salto que a simple vista impresiona y parece exagerado, en unos años no os lo parecerá para nada, pero es que todo esto tiene una explicación muy clara y para ello tenemos que volver a un concepto de Sony en el pasado que tiene relación con cierta patente también de Nintendo.

Seguro que os suena la siguiente diapositiva.

shari.png

Nintendo nunca ha hecho realidad este concepto, pero la idea era tener un sistema que cediese parte de su potencia junto a otros sistemas para un sistema global.

Un sistema distribuido se define como: una colección de computadoras separadas físicamente y conectadas entre sí por una red de comunicaciones distribuida; cada máquina posee sus componentes de hardware y software que el usuario percibe como un solo sistema (no necesita saber qué cosas están en qué máquinas).

¿Cuál es la gracia? Que la computación «distribuida» fue propuesta en 2003 en relación a la que por aquel entonces era una futura consola de videojuegos, por lo que no es algo que venga nuevo, el problema es que nunca se materializo en algo concreto en el mercado.

Veamos… ¿Os acordáis del CBEA en su concepto original? Si, la CPU de PS3 pero el concepto original no el que termino en la consola, pues bien… Hagamos memoria de lo que en el 2003 le dijo Kutaragi al prestigioso periodista tecnológico Hiroshige Goto:

El concepto del Cell Computing en si mismo no es algo que resulte difícil de explicar, Ken Kutaragi lo explica de la siguiente manera: “Pese a que la vieja red es una red de información, se convertirá muy pronto en una red de comunicación punto apunto. El procesamiento de paquetes a tiempo real no se puede aplicar en la presente computación en cuadricula. El concepto de la computación en cuadricula realizada a tiempo real, es el concepto del Cell Computing.

¿Que es la computación en cuadricula? A menudo se confunde con la computación en la nube, dado que ambas usan la red, pero son distintas.

El principio de toda aplicación es que tiene dos sistemas, uno es el sistema interno que es como procesa la información y el otro es el sistema externo que es como se comunica el sistema con el usuario y el usuario con el sistema. ¿Un ejemplo de ello? OnLive por ejemplo era “Cloud Computing”, el dispositivo que distribuían a la gente se encargaba de recoger los datos que nosotros damos pulsando los controles como entrada y como salida reproduce el juego, el cual no es más que un video que vamos recibiendo a través de la red dado que la computación ha sido realizada desde un ordenador externo, otro ejemplo más claro de Cloud Computing es WordPress, cuando estoy escribiendo una entrada me aparece un editor de textos que es la interfaz con la que puedo interactuar pero el procesamiento de la información que no tiene que ver con la interfaz no se hace desde el ordenador cliente. Pero como he dicho antes, se ha llegado al punto en que llamamos computación en la nube a todo aquello que supone el uso de una red a gran escala a través de internet.

El otro concepto es el de “computación en cuadricula/Grid Computing”, al igual que la computación en la nube se basa en una red descentralizada pero con una diferencia esencial, en este caso cada uno de los componentes de la red dejan parte de su potencia independientemente de donde se encuentren los recursos para alcanzar un objetivo común, en este caso no es solo el procesamiento de la interfaz de lo que se encarga el sistema cliente sino que el sistema cliente también forma parte de la computación pesada. La idea que tenían en SCEI y que bautizaron como “Cell Computing” no era otra cosa que computación en cuadricula para aplicaciones a tiempo real.

La idea del Grid Computing es que cada uno de los dispositivos que forman parte de la de la red cedan parte de su potencia para procesar los paquetes que les van llegando, si tienes una red muy amplia de dispositivos puedes dividir los paquetes a procesar en tamaños muy pequeños que se procesen en poco tiempo. Si lo aplicamos esto a una futura PS5 tenemos que podemos dividir la acción de un mundo complejo entre los diferentes sistemas que se encuentren dentro del ecosistema en un Juego como Servicio haciendo que no sea necesaria la implementación de una cara infraestructura online porque los propios usuarios entregarían su infraestuctura doméstica de consola+infraestructura de red por lo que estaríamos hablando de una consola que estaría «Siempre Conectada» para esos juegos como servició.

Todo, absolutamente todo lo que hemos ido viendo en los últimos años en videojuegos ha sido la ejecución lenta de un mapa de ruta que no se ha visto frenado por nada más que por el «lento» avance de la tecnología. Ya os comente hace poco como el objetivo de Microsoft es eliminar a Sony del mercado, esto es algo que escribí en su día también pero en global viene a explicar porque Sony se convirtió en su día en una potencial amenaza para Microsoft y explica también muy bien cual puede ser su mapa de ruta de cara al futuro.

Para ello deberemos ir al año 2000…

the_time_machine_large_01

Veamos ahora unas cuantas noticias de la época:

Captura de pantalla 2016-03-31 a las 18.14.42

En 1999 Sony planeaba la creación de estaciones de trabajo utilizando la tecnología de PlayStation 2 que acababa de ser preentada, profundicemos más en la noticia.

Captura de pantalla 2016-03-31 a las 18.17.56

¿Cual es ese plan en tres fases? A continuación nos las describen:

Captura de pantalla 2016-03-31 a las 18.20.48

Es decir, esto:

kaigai02

Me gustaría más que nada que le echaseis un vistazo a la «Phase III» … ¿no os suena de algo esta definición? El punto y final de la idea de Kutaragi por aquel entonces es lo que en Sony llamaban Networked Real-Time Digital Entertainment, el nombre de ello es una definición en si misma. La gente en la época se quedo solo con las palabras sobre la potencia, pero esto era la primera vez que hablaban de lo que llamarían Cell Computing con el tiempo.

Captura de pantalla 2016-03-31 a las 18.25.04

Captura de pantalla 2016-03-31 a las 18.27.08

El plan de Kutaragi y por tanto de SCEI por aquel tiempo era colocar los chips de su consola en cualquier parte de tal manera que el concepto de consola se diluyera.

 

Captura de pantalla 2016-03-31 a las 18.31.16

Sabemos que esto no ha ocurrido en ningún momento, pero… La idea final de Kutaragi era transformar SCEI en un sentido muy concreto.

La última afirmación es cuanto menos sorprendente porque nos lleva al concepto del que estamos hablando. «Si el creciente pozo de sistemas PlayStation 2 estuviesen todos conectados, crearía una plataforma en la red instantanea». Todo esto se dijo en el año 2000 y SCEI se paso un buen tiempo hablando de dicho concepto antes de volver a la consola tradicional al ver como Sony Electronics lo rechazaría, pero ya llegaremos a esto.

En el 2001, el concepto del EE2 y el EE3 había sido reemplazado ya por el Cell.  Aquí vemos de nuevo el concepto de tener varios sistemas interconectados entre si para crear un sistema conjunto mayor.

captura-de-pantalla-2016-03-31-a-las-18-50-09.png

¿Que es eso de la “Broadband Era? ¿Por qué Kutaragi hablaba de que una banda de CELL acabarían asumiendo el trabajo de un ordenador y que sería una potencia agregada? Kutaragi cambió por completo la visión a partir del desarrollo del Cell para la adopción del Grid Computing. Kutaragi empezó a relacionar dicha idea con el futuro a partir del año 2002:

gdckey36gdckey37

La idea del Grid Computing es que cada uno de los dispositivos que forman parte de la de la red cedan parte de su potencia para procesar los paquetes que les van llegando, si tienes una red muy amplia de dispositivos puedes dividir los paquetes a procesar en tamaños muy pequeños que se procesen en poco tiempo. Este concepto fue llevado en la realización de la arquitectura del Cell Broadband Engine pero Sony jamás llego a aplicar esto. ¿El motivo? La negativa de Sony Electronics en ese tiempo en aplicar el Cell dentro de los televisores… ¿Que sentido tenía a principios de los 2000 colocar una CPU de ordenador además ultracompleja? Esto es del libro Sony vs Samsung

captura-de-pantalla-2016-03-31-a-las-19-42-37.png

¿Estaba loco Kutaragi? Mirad lo que ha acabado haciendo Apple y el éxito que tiene en estos momentos han hecho exactamente lo que SCEI proponía a principios de los 2000 y era de dominió público. No es que Steve Jobs sea un genió como muchos intentan pintarlo sino que… haciendo uso de «Los Grandes Artistas Copían y los Buenos Robán» acabaron por copiarle el mapa de ruta a SCEI mientras Sony Electronics les iba diciendo que nanai a SCEI sobre el futuro.

¿Queréis una prueba de ello? ¿Que tal estas diapositivas de una presentación del año 2000?

123

Lo gracioso es que ahora tenemos en el mercado televisores que cumplen con el concepto del que Kutaragi hablo en su día, se llaman SmartTVs.

El plan de SCEI a futuro no pasaba la distribución física por aquel momento, es algo en lo que se vieron atrapados tan pronto como vieron que la velocidad de las redes no era tan alta como para implementar su visión. Pero el concepto era el de integrar PlayStation en cualquier dispositivo siendo el más claro el televisor para convertirlo en una especie de ordenador, habían empezado a ejecutar su amenaza a través del Kit Linux de PS2 pero el objetivo de Sony a largo plazo era que el hardware de PlayStation se integrase de serie en cualquier televisor, pero ya en el año 2000 hicieron que Microsoft entrase en pánico por esto:

ps201_06.jpg

13e

Imaginaos la perspectiva por aquel entonces de que cada televisor tuviese una PlayStation dentro que para colmo pudiese funcionar como un ordenador. ¿Para que comprar un PC si con el televisor les valdría a la gente? Obviamente los costes hacían imposible la cosa por aquel entonces pero hoy en día esto ya no se ve tan imposible. Pero hagamos un avance al año 2003, a una entrevista de Hiroshige Goto con Kutaragi que sería el punto y final antes de que Sony tuviese que retractarse sobre estos planes e ir una idea más tradicional de consola que es lo que hemos visto con PS3 y con PS4.

El concepto del Cell Computing en si mismo no es algo que resulte difícil de explicar, Ken Kutaragi lo explica de la siguiente manera: “Pese a que la vieja red es una red de información, se convertirá muy pronto en una red de comunicación P2P (punto a punto). El procesamiento de paquetes a tiempo real no se puede aplicar en la presente computación en cuadricula. El concepto de la computación en cuadricula realizada a tiempo real, es el concepto del Cell Computing.

Tenían pensado realizar el plan en tres etapas:

kaigai19

Nunca llegaron a pasar de la primera étapa que es lo que vimos en PS3, la segunda etapa era que cada componente del hogar tuviese un Cell compartiendo potencia en la red local. Es por ello que Kutaragi quería convertir a SCEI en la Intel de la electronica de consumo.

sony13.jpg

La negativa de Sony Electronics fue clara como bien sabemos.

Te das cuenta que la introducción del “Cell Computing” y el hacerla posible a través de internet tiene una obstáculo muy caro, esto era la gran pregunta y Kutaragi la respondió e la siguiente manera: “Se vuelve más interesante cuando dos Cells en una casa están conectados punto a punto”. “Pienso que lo primero es que el “Cell Computing” debería ocurrir en los hogares”. “El interior del hogar estando conectado a través de una red de banda ancha, y que el Cell Computing se pueda realizar”.

“La propuesta realista es hacerlo primero en una red doméstica y luego en internet.”

Una vez hecha esta explicación… volvamos al presente donde nos encontramos que ha aparecido algo llamado «Juego como Servicio» y se ha popularizado entre «La Industria» y requiere que los usuarios estén siempre conectados. No digo que Sony vaya a hacer esto, pero creo que el concepto de Sony no va a ser utilizar el Cloud Gaming sino ofrecer una infraestructura compleja compuesta por todas las PS5 en el mercado que combinarán su potencia, no para renderizar el juego remotamente sino para calcular a nivel de CPU los millones de instancias de lo que ocurre en el mundo del juego sin tener que depender de una infraestructura online compleja porque los usuarios otorgarían parte de la potencia de sus sistemas.

El concepto que Sony llamaba Cell Computing en su día… Hoy en día recibe el nombre de Volunteer Computing.

Volunteer computing is a type of distributed computing, «an arrangement in which people, so-called volunteers, provide computing resources to projects, which use the resources to do distributed computing and/or storage».[1] Thus, computer owners or users donate their computing resources (such as processing power and storage) to one or more «projects».

Volunteers are frequently members of the general public in the possession of their own personal computers with a Internet connection, but also organizations can act as volunteers and provide their computing resources.

La idea es bien simple, Sony va a intentar mantener la consola viva y ofrecer (muy probablemente) esta solución de cara al juego como servició mientras que Microsoft se va a basar en una plataforma de puro streaming. Sony tiene un enorme poderió con la marca PlayStation y van a ofrecer una consola de videojuegos tradicional, compatible hacía atrás con la familia PlayStation 4 pero con la capacidad de funcionar como una consola para el juego como servició pero con un planteamiento muy distinto al que ofrecerá Microsoft.

#3 Streaming a la Inversa

Quedaos con la idea de un servició de streaming de juegos similar donde no recibamos en forma de video lo renderizado en forma remota sino los datos de lo que estaria en los datos del juego via Streaming. ¿Es imposible? El BluRay de PS4 tiene un bitrate de 27MB/s por lo que no esta muy lejano de lo que podrán hacer las redes en unos años. El concepto que vamos a ver va a ser que vamos a recibir via streaming los datos del juego, los cuales se irán almacenando en el almacenamiento masivo de la consola para ser accedidos de manera más rapida después (pensad en ello como en la cache de un navegador de internet).

Sony no tiene el interés de crear una red de computación en la nube como Microsoft ni ofrecer algo que destruya su producto más popular. Es algo completamente ilógico para Sony y no entra dentro de su ADN, además que si el planteamiento les falla tendrían una consola convencional en la recámara. En todo caso preparaos para ver juegos donde la mitad de los datos se encuentren en el disco y la otra mitad en la red o donde no se pueda progresar sin pagar el servicio a internet asociado a la consola o quien sabe si Sony con el tiempo vendera TVs con PlayStation integradas.