Nota de Urian: Esto son varias entradas fusionados en una.
#1 Concepto General
Uno de los conceptos que más vamos a ver en un futuro es la implementación del concepto PIM (Processor in Memory) que tiene como origen lejano la llamada IRAM. ¿El problema que busca resolver? Uno de los problemás clásicos del hardware que no es otro que la evolución de la RAM y los procesadores no va a la par haciendo que la distancia entre ambos sea cada vez mayor.
La solución a este problema no era otro que añadir una serie de memorias intermedias, tanto memorias scratchpad (controladas manualmente por el programa) como caches. Se ha de tener en cuenta que todo esto no son más que el envio de señales eléctricas y según la distancia entre el procesador y donde se encuentre un dato el tiempo de instrucción es más largo o más corto por el simple hecho que la distancia es mucho más alta y cuanto más alta es la distancia en un cable más resistencia se produce además y por tanto hay latencia adicional.
¿La mejor solución? Reducir en lo máximo posible la distancia entre el procesador y la memoria en terminos de cableado integrando la RAM dentro del mismo procesador. ¿Como se consigue esto? Actualmente utilizando una configuración 3DIC, las cuales utilizan cableado TSV el cableado entre la RAM y el Procesador. Lo cual no es lo mismo que colocar varios procesadores apilados ni tampoco lo mismo que el Package on Package que se utiliza actualmente en los smartphones.
El cableado tipo TSV nos permite un cableado tipo matriz… como por ejemplo de 32×32 bits. Esto es una enorme ventaja respecto al cableado clásico en serie que sele ocupar uno de los laterales. ¿El motivo? Nos permite tener la velocidad de reloj baja mientras mantenemos un alto ancho de banda, pero quien dice una interfaz de 32×32 bits también dice una interfaz de 64×64 y poder reducir el consumo energético ya que este crece exponencialmente con la velocidad de reloj. Para que la gente lo entienda, si tengo una interfaz de n bits funcionando x Mhz, si lo que hago es mantener la misma interfaz pero coloco la memoria a funcionar 2x Mhz entonces el consumo no será el doble sino 4 veces más. Si en cambio coloco una interfaz de 2n y mantengo la velocidad en x Mhz entonces el consumo energético se me va a duplicar solamente.
Hasta ahora hemos ido viendo memorias con conectividad TSV en sistemas domésticos utilizando un Interposer Activo que comunicaba directamente la memoria con una GPU dedicada solo en tres casos, los dos primeros las GPU de AMD Fiji (Fury) y Vega, el tercero en la famosa joint-venture entre Intel y AMD.
Pero esto son configuraciones 2.5DIC y de lo que hablamos son configuraciones 3DIC, las cuales no se suelen ver mucho en sistemas domésticos por el ahogamiento termal existente entre el procesador y la memoria.
La idea del 3DIC parece estar relegada a dispositivos de bajo consumo pero no nos podemos imaginar una consola de gama alta funcionando con un mecanismo así. Pero existe algo que contradice por completo dicha afirmación. Bueno, que teoricamente lo contradice por completo.
La última GPU que va a salir bajo arquitectura GCN por parte de AMD es Navi… No lo digo yo, lo afirma la propia AMD.
Siendo Navi la última revisión de las GPUs que se mencionaron en el famoso mapa de ruta en lanzamiento previo a Polaris.
AMD en dicha presentación hablo de un concepto llamado «Nexgen Memory» que parecía sustituir por completo a la HBM2… ¿Pero que es lo que puede sustituir a la HBM2? Dado que estamos hablando de una reducción de Vega a los 7nm de GF con alguna mejora leve… Si GF al final hace el chip para PC estamos hablando de una reducción teórica del consumo en un 60%. Pero es que además AMD ya nos ha mostrado al menos Navi en un documento.
La idea que tendría AMD sería eliminar por completo el sustrato/interposer y montar la memoria HBMn encima del procesador y vender ambos juntos en una misma solución. ¿Donde hemos visto esto? En el documento acerca del Exascale Heterogenous Processor que presentaron hace unos meses. En el cual se puede ver en el concepto a varios procesadores (CPU y GPU) montados sobre un sustrato/interposer común, no formando un SoC sino una unidad MCM o NoC.
Si os fijáis encima de la GPU esta la memoria montada en modo 3DIC, no nos interesa el EHP en global sino el hecho de que estamos ante la integración de memoria RAM en la GPU y quien dice una GPU en un futuro SoC también porque esto también sería viable. En el EHP tenemos un total de… ¡8 GPUs! No nos vamos a ir a tanto porque el EHP es un concepto para gama muy alta. ¿Entonces como sabemos que AMD ya lo ha intentado? Pues porque AMD en dicho documento presenta una serie de fotografías con una configuración 3DIC funcionando.
Aquí tenemos la medida de temperatura de dos GPUs con memoria en 3DIC (HBMn supuestamente) y por tanto colocada encima del procesador, dado que tenemos unas 8 GPUs tenemos que interpretar la configuracion de 320 CUs como 40 CUs por GPU y la de 384 CUs como 48 CUs por GPU. En una combinación 3DIC no se pueden superar los 85º de temperatura en total por lo que hace falta un sistema de refrigeración añadido al sistema para mantener la temperatura de la combinación de manera estable en nuestro futuro sistema. La velocidad especificada en las GPUs del documento son inferiores a las de la Xbox One X como podreis haber asumido al hacer un simple cálculo. Luego tenemos además que colocar una sola pila de memoria HBMn es un paso atrás si tenemos en cuenta que por ejemplo el AMD Vega tiene dos, a simple vista parece un poco bajo de cara al futuro.
La clave de todo nos lleva al problema del inicio, la velocidad de un procesador dependerá siempre de donde se encuentr el dato a calcular, por lo que los ciclos por instrucción que no es otra cosa que una medida contable de la latencia por instrucción dependerá siempre de donde se encuentren los datos. Si los datos se encuentran cercanos al procesador entonces dicho tiempo se acortará, si se encuentran lejanos entonces se alargara. Procesadores como las GPUs que tienen altas latencias tienen mecanismos de enmascaramiento de la latencia en su funcionamiento que más bien son paliativos. Este es el segundo motivo por el cual AMD busca colocar la memoria HBMn o una similar montada en formato 3DIC en Navi, porque además el cableado en 3DIC es mucho más corto que en el 2.5DIC utilizado en Vega y la latencia por instrucción sería un poco más baja.
AMD en el documento afirma que la mejor solución es una configuración de 288 CU a 1100Mhz, esto son 36 CUs… ¿Os suena la cifra? Si, es la misma que la de la GPU del SoC de PS4 Pro pero a un poco más de velocidad, se trata de solo de 5 TFLOPS y no podría competir contra Xbox One X a simple vista. Pero para AMD hay un elemento del AMD Vega que es sumamente importante y que por el momento no se utiliza pero que deriva del uso de la memoria HBM en Vega.
El High Bandwidth Cache Controller le permite a la GPU no solo tener acceso a la RAM local de la GPU sino además tener acceso a toda la jerarquía de memoria del sistema, tanto la RAM del sistema (por lo que estaríamos hablando de un sistema completamente coherente en cuanto a memoria) como a la NV RAM (almacenamiento Flash, es decir Discos Duros SSD por ejemplo). ¿Que significa esto? Un cambio en la jerarquía clásica de memoria.
Según cada necesidad el sistema escogería utilizar la RAM clásica y por tanto fuerza del procesador o la RAM cercana que es de la que estamos hablando.
Ahora bien, el concepto PIM aplicado a las CPUs es también interesante, las CPU son muy pero que muy vulnerables a la latencia y es por ello que los procesadores más modernos tienen enormes Caches de tercer nivel ocupando un espacio considerable del procesador.
¿Que sería lo ideal? una configuracion 3DIC para una CPU significaría que esa enorme cache de tercer nivel desaparecería para ser sustituida por una enorme memoria apilada encima del procesador… ¿Y que ocurre cuando tenemos que dicha memoria apilada encima del procesador es común en un SoC? ¿Que ocurre si cambiamos la CPU o la GPU por un SoC al completo con la memoria montada encima? Pues que vais viendo el concepto al que me estoy refiriendo, pero claro, nos encontraríamos que un sistema así no tendría la suficiente densidad de memoria para ser viable y tampoco las especificaciones serian muy allá.
¿Entonces? La idea sería en principio la de ir montando el sistema en una composición de varios PIM bajo un sustrato común, algo así como lo que hemos visto con el AMD Epyc.
Pero esto tiene un problema, realmente no es así porque necesitamos acceder a toda velocidad a toda la memoria que hay en el sistema (ya que sería coherente) y la distancia de un procesador a su memoria no sería la misma que la de un procesador a la memoria de otro. Esto es porque una solución del tipo AMD Epyc/Threadripper no se basa en un sustrato activo que absorbe el cableado de comunicación del sistema sino que se basa en una serie de comunicaciones en serie utilizando la interfaz Infinity Fabric para comunicar.
La solución de colocar 2 SoC con memoria coherente entre ellos no nos sirve porque la comunicación entre ambos en este caso es lenta… ¿Como lo solventamos? Volviendo a la presentación del EHP hay otra pista de ello.
Los interposers activos no son fundamentalmente diferentes que otros planteamientos de apilado 3D considerados en investigaciones pasadas (2) y se han contruido y demostrado prototipos preliminares (21).
…
(2) El punto primario de la diferenciación, la cual no es un problema fundamental, es que buena parte de la investigación del apilado 3D consideraban las pilas verticales de chips identicos o similares en tamaño, mientras que un interposer activo implica chips de diferentes tamaños (por ejemplp el interposer contra los chiplets) y algunos chips se pueden colocar uno al lado del otro, en vez de tener una organizacion estrictamente en vertical.
(21) [21] P. V. et al., “A 4x4x2 Homogeneous Scalable 3D Network on-Chip Circuit with 326MFlit/s 0.66pJ/b Robust and Fault- Tolerant Asynchronous 3D Links,” in Proc. of the Int’l Solid-State Circuits Conference (ISSCC), 2016
Si os dais cuenta es el mismo concepto que el del EHP, pero hay una patente asociada a AMD donde se comenta de este tipo de configuraciones. La comente en su día y define exactamente lo mismo, aunque no es algo exclusivo de AMD pero si es hacía donde vamos a ver avanzar las cosas en un futuro. La idea de tener 2 SoC en una consola de siguiente generación sobre un interposer activo no os debería sorprender en absoluto.
Dentro de la patente podeís encontrar la siguiente definición que nos confirma de que estamos ante el mismo concepto:
Ahora bien, hemos de tener en cuenta que la memoria HBMn que iría encima de los chips no podría bajar de una pila de 4 porque sería lo mínimo necesario para la interfaz de 1024 bits por SoC de la que estamos hablando. La densidad por el momento de la HBM2 es de 1GB por chip en la pila pero creo que cuando una hipotética PlayStation 5 este lista podremos hablar de pilas de 2GB cada una por lo que entre ambos chips sumarian unos 16GB… ¿Haría falta memoria externa para una configuracíón de este tipo? ¿No se vería demasiado limitante una configuración de solo 16GB en total?
Hay indicios muy fuertes de que PS5 continuaría teniendo una arquitectura de AMD, ya los comente en su día y las arquitecturas de AMD estan evolucionando a esto. En el concepto del que estoy hablando no tendríamos dos niveles de memoria RAM sino solamente uno ya que toda la memoria serían los 16GB incluidos de serie en ambos SoC en configuracion 3DIC por lo que el espacio ocupado sería bastante compacto. ¿Pero a que viene no realizar un solo chip con memoria alrededor o en su defecto lo unimos todo en un solo PIM? En primer lugar un chip con 8 núcleos Ryzen y 72 CUs en conjunto es algo que directamente asusta por el tamaño que tendría, la idea de subdividir el SoC en 2 SoC simétricos tiene sentido con tal de que la cantidad de chips buenos que salen por oblea sea mayor…
Pero también para evitar el ahogamiento termal sobre la memoria. El otro motivo y que tiene que ver con lo que he comentado antes esta en el hecho de que si en el caso del Ryzen eliminas la necesidad de la Cache L3 al casi pegar la memoria al procesador eliminas el espacio ocupado por la misma y te puedes plantear unos 8 núcleos Ryzen por SoC (Si, 16 por sistema) por lo que en modo retrocompatibilidad con PS4 Pro desactivas uno de los 2 SoC del sistema y utilizas solo 1 (36 CUs, CPU de 8 núcleos) mientras que en modo PS5 activas todos los recursos del sistema.
#2 ¿Es necesario una CPU con 16 núcleos?
Seguro que muchos lo han visto como un overkill pero os voy a confesar una cosa… Actualmente las consolas de siguiente generación se están planteando como «Consolas para el Juego como Servició» y esto implica que la CPU no puede ser débil en ningún momento. El hecho de saltar de 8 ridículos núcleos Jaguar a 16 núcleos Ryzen es un salto que a simple vista impresiona y parece exagerado, en unos años no os lo parecerá para nada, pero es que todo esto tiene una explicación muy clara y para ello tenemos que volver a un concepto de Sony en el pasado que tiene relación con cierta patente también de Nintendo.
Seguro que os suena la siguiente diapositiva.
Nintendo nunca ha hecho realidad este concepto, pero la idea era tener un sistema que cediese parte de su potencia junto a otros sistemas para un sistema global.
Un sistema distribuido se define como: una colección de computadoras separadas físicamente y conectadas entre sí por una red de comunicaciones distribuida; cada máquina posee sus componentes de hardware y software que el usuario percibe como un solo sistema (no necesita saber qué cosas están en qué máquinas).
¿Cuál es la gracia? Que la computación «distribuida» fue propuesta en 2003 en relación a la que por aquel entonces era una futura consola de videojuegos, por lo que no es algo que venga nuevo, el problema es que nunca se materializo en algo concreto en el mercado.
Veamos… ¿Os acordáis del CBEA en su concepto original? Si, la CPU de PS3 pero el concepto original no el que termino en la consola, pues bien… Hagamos memoria de lo que en el 2003 le dijo Kutaragi al prestigioso periodista tecnológico Hiroshige Goto:
El concepto del Cell Computing en si mismo no es algo que resulte difícil de explicar, Ken Kutaragi lo explica de la siguiente manera: “Pese a que la vieja red es una red de información, se convertirá muy pronto en una red de comunicación punto apunto. El procesamiento de paquetes a tiempo real no se puede aplicar en la presente computación en cuadricula. El concepto de la computación en cuadricula realizada a tiempo real, es el concepto del Cell Computing.
¿Que es la computación en cuadricula? A menudo se confunde con la computación en la nube, dado que ambas usan la red, pero son distintas.
El principio de toda aplicación es que tiene dos sistemas, uno es el sistema interno que es como procesa la información y el otro es el sistema externo que es como se comunica el sistema con el usuario y el usuario con el sistema. ¿Un ejemplo de ello? OnLive por ejemplo era “Cloud Computing”, el dispositivo que distribuían a la gente se encargaba de recoger los datos que nosotros damos pulsando los controles como entrada y como salida reproduce el juego, el cual no es más que un video que vamos recibiendo a través de la red dado que la computación ha sido realizada desde un ordenador externo, otro ejemplo más claro de Cloud Computing es WordPress, cuando estoy escribiendo una entrada me aparece un editor de textos que es la interfaz con la que puedo interactuar pero el procesamiento de la información que no tiene que ver con la interfaz no se hace desde el ordenador cliente. Pero como he dicho antes, se ha llegado al punto en que llamamos computación en la nube a todo aquello que supone el uso de una red a gran escala a través de internet.
El otro concepto es el de “computación en cuadricula/Grid Computing”, al igual que la computación en la nube se basa en una red descentralizada pero con una diferencia esencial, en este caso cada uno de los componentes de la red dejan parte de su potencia independientemente de donde se encuentren los recursos para alcanzar un objetivo común, en este caso no es solo el procesamiento de la interfaz de lo que se encarga el sistema cliente sino que el sistema cliente también forma parte de la computación pesada. La idea que tenían en SCEI y que bautizaron como “Cell Computing” no era otra cosa que computación en cuadricula para aplicaciones a tiempo real.
La idea del Grid Computing es que cada uno de los dispositivos que forman parte de la de la red cedan parte de su potencia para procesar los paquetes que les van llegando, si tienes una red muy amplia de dispositivos puedes dividir los paquetes a procesar en tamaños muy pequeños que se procesen en poco tiempo. Si lo aplicamos esto a una futura PS5 tenemos que podemos dividir la acción de un mundo complejo entre los diferentes sistemas que se encuentren dentro del ecosistema en un Juego como Servicio haciendo que no sea necesaria la implementación de una cara infraestructura online porque los propios usuarios entregarían su infraestuctura doméstica de consola+infraestructura de red por lo que estaríamos hablando de una consola que estaría «Siempre Conectada» para esos juegos como servició.
Todo, absolutamente todo lo que hemos ido viendo en los últimos años en videojuegos ha sido la ejecución lenta de un mapa de ruta que no se ha visto frenado por nada más que por el «lento» avance de la tecnología. Ya os comente hace poco como el objetivo de Microsoft es eliminar a Sony del mercado, esto es algo que escribí en su día también pero en global viene a explicar porque Sony se convirtió en su día en una potencial amenaza para Microsoft y explica también muy bien cual puede ser su mapa de ruta de cara al futuro.
Para ello deberemos ir al año 2000…
Veamos ahora unas cuantas noticias de la época:
En 1999 Sony planeaba la creación de estaciones de trabajo utilizando la tecnología de PlayStation 2 que acababa de ser preentada, profundicemos más en la noticia.
¿Cual es ese plan en tres fases? A continuación nos las describen:
Es decir, esto:
Me gustaría más que nada que le echaseis un vistazo a la «Phase III» … ¿no os suena de algo esta definición? El punto y final de la idea de Kutaragi por aquel entonces es lo que en Sony llamaban Networked Real-Time Digital Entertainment, el nombre de ello es una definición en si misma. La gente en la época se quedo solo con las palabras sobre la potencia, pero esto era la primera vez que hablaban de lo que llamarían Cell Computing con el tiempo.
El plan de Kutaragi y por tanto de SCEI por aquel tiempo era colocar los chips de su consola en cualquier parte de tal manera que el concepto de consola se diluyera.
Sabemos que esto no ha ocurrido en ningún momento, pero… La idea final de Kutaragi era transformar SCEI en un sentido muy concreto.
La última afirmación es cuanto menos sorprendente porque nos lleva al concepto del que estamos hablando. «Si el creciente pozo de sistemas PlayStation 2 estuviesen todos conectados, crearía una plataforma en la red instantanea». Todo esto se dijo en el año 2000 y SCEI se paso un buen tiempo hablando de dicho concepto antes de volver a la consola tradicional al ver como Sony Electronics lo rechazaría, pero ya llegaremos a esto.
En el 2001, el concepto del EE2 y el EE3 había sido reemplazado ya por el Cell. Aquí vemos de nuevo el concepto de tener varios sistemas interconectados entre si para crear un sistema conjunto mayor.
¿Que es eso de la “Broadband Era? ¿Por qué Kutaragi hablaba de que una banda de CELL acabarían asumiendo el trabajo de un ordenador y que sería una potencia agregada? Kutaragi cambió por completo la visión a partir del desarrollo del Cell para la adopción del Grid Computing. Kutaragi empezó a relacionar dicha idea con el futuro a partir del año 2002:
La idea del Grid Computing es que cada uno de los dispositivos que forman parte de la de la red cedan parte de su potencia para procesar los paquetes que les van llegando, si tienes una red muy amplia de dispositivos puedes dividir los paquetes a procesar en tamaños muy pequeños que se procesen en poco tiempo. Este concepto fue llevado en la realización de la arquitectura del Cell Broadband Engine pero Sony jamás llego a aplicar esto. ¿El motivo? La negativa de Sony Electronics en ese tiempo en aplicar el Cell dentro de los televisores… ¿Que sentido tenía a principios de los 2000 colocar una CPU de ordenador además ultracompleja? Esto es del libro Sony vs Samsung
¿Estaba loco Kutaragi? Mirad lo que ha acabado haciendo Apple y el éxito que tiene en estos momentos han hecho exactamente lo que SCEI proponía a principios de los 2000 y era de dominió público. No es que Steve Jobs sea un genió como muchos intentan pintarlo sino que… haciendo uso de «Los Grandes Artistas Copían y los Buenos Robán» acabaron por copiarle el mapa de ruta a SCEI mientras Sony Electronics les iba diciendo que nanai a SCEI sobre el futuro.
¿Queréis una prueba de ello? ¿Que tal estas diapositivas de una presentación del año 2000?
Lo gracioso es que ahora tenemos en el mercado televisores que cumplen con el concepto del que Kutaragi hablo en su día, se llaman SmartTVs.
El plan de SCEI a futuro no pasaba la distribución física por aquel momento, es algo en lo que se vieron atrapados tan pronto como vieron que la velocidad de las redes no era tan alta como para implementar su visión. Pero el concepto era el de integrar PlayStation en cualquier dispositivo siendo el más claro el televisor para convertirlo en una especie de ordenador, habían empezado a ejecutar su amenaza a través del Kit Linux de PS2 pero el objetivo de Sony a largo plazo era que el hardware de PlayStation se integrase de serie en cualquier televisor, pero ya en el año 2000 hicieron que Microsoft entrase en pánico por esto:
Imaginaos la perspectiva por aquel entonces de que cada televisor tuviese una PlayStation dentro que para colmo pudiese funcionar como un ordenador. ¿Para que comprar un PC si con el televisor les valdría a la gente? Obviamente los costes hacían imposible la cosa por aquel entonces pero hoy en día esto ya no se ve tan imposible. Pero hagamos un avance al año 2003, a una entrevista de Hiroshige Goto con Kutaragi que sería el punto y final antes de que Sony tuviese que retractarse sobre estos planes e ir una idea más tradicional de consola que es lo que hemos visto con PS3 y con PS4.
El concepto del Cell Computing en si mismo no es algo que resulte difícil de explicar, Ken Kutaragi lo explica de la siguiente manera: “Pese a que la vieja red es una red de información, se convertirá muy pronto en una red de comunicación P2P (punto a punto). El procesamiento de paquetes a tiempo real no se puede aplicar en la presente computación en cuadricula. El concepto de la computación en cuadricula realizada a tiempo real, es el concepto del Cell Computing.
Tenían pensado realizar el plan en tres etapas:
Nunca llegaron a pasar de la primera étapa que es lo que vimos en PS3, la segunda etapa era que cada componente del hogar tuviese un Cell compartiendo potencia en la red local. Es por ello que Kutaragi quería convertir a SCEI en la Intel de la electronica de consumo.
La negativa de Sony Electronics fue clara como bien sabemos.
Te das cuenta que la introducción del “Cell Computing” y el hacerla posible a través de internet tiene una obstáculo muy caro, esto era la gran pregunta y Kutaragi la respondió e la siguiente manera: “Se vuelve más interesante cuando dos Cells en una casa están conectados punto a punto”. “Pienso que lo primero es que el “Cell Computing” debería ocurrir en los hogares”. “El interior del hogar estando conectado a través de una red de banda ancha, y que el Cell Computing se pueda realizar”.
“La propuesta realista es hacerlo primero en una red doméstica y luego en internet.”
Una vez hecha esta explicación… volvamos al presente donde nos encontramos que ha aparecido algo llamado «Juego como Servicio» y se ha popularizado entre «La Industria» y requiere que los usuarios estén siempre conectados. No digo que Sony vaya a hacer esto, pero creo que el concepto de Sony no va a ser utilizar el Cloud Gaming sino ofrecer una infraestructura compleja compuesta por todas las PS5 en el mercado que combinarán su potencia, no para renderizar el juego remotamente sino para calcular a nivel de CPU los millones de instancias de lo que ocurre en el mundo del juego sin tener que depender de una infraestructura online compleja porque los usuarios otorgarían parte de la potencia de sus sistemas.
El concepto que Sony llamaba Cell Computing en su día… Hoy en día recibe el nombre de Volunteer Computing.
Volunteer computing is a type of distributed computing, «an arrangement in which people, so-called volunteers, provide computing resources to projects, which use the resources to do distributed computing and/or storage».[1] Thus, computer owners or users donate their computing resources (such as processing power and storage) to one or more «projects».
Volunteers are frequently members of the general public in the possession of their own personal computers with a Internet connection, but also organizations can act as volunteers and provide their computing resources.
La idea es bien simple, Sony va a intentar mantener la consola viva y ofrecer (muy probablemente) esta solución de cara al juego como servició mientras que Microsoft se va a basar en una plataforma de puro streaming. Sony tiene un enorme poderió con la marca PlayStation y van a ofrecer una consola de videojuegos tradicional, compatible hacía atrás con la familia PlayStation 4 pero con la capacidad de funcionar como una consola para el juego como servició pero con un planteamiento muy distinto al que ofrecerá Microsoft.
#3 Streaming a la Inversa
Quedaos con la idea de un servició de streaming de juegos similar donde no recibamos en forma de video lo renderizado en forma remota sino los datos de lo que estaria en los datos del juego via Streaming. ¿Es imposible? El BluRay de PS4 tiene un bitrate de 27MB/s por lo que no esta muy lejano de lo que podrán hacer las redes en unos años. El concepto que vamos a ver va a ser que vamos a recibir via streaming los datos del juego, los cuales se irán almacenando en el almacenamiento masivo de la consola para ser accedidos de manera más rapida después (pensad en ello como en la cache de un navegador de internet).
Sony no tiene el interés de crear una red de computación en la nube como Microsoft ni ofrecer algo que destruya su producto más popular. Es algo completamente ilógico para Sony y no entra dentro de su ADN, además que si el planteamiento les falla tendrían una consola convencional en la recámara. En todo caso preparaos para ver juegos donde la mitad de los datos se encuentren en el disco y la otra mitad en la red o donde no se pueda progresar sin pagar el servicio a internet asociado a la consola o quien sabe si Sony con el tiempo vendera TVs con PlayStation integradas.
El último párrafo da miedo de verdad, no digo que Sony lo haga ¿pero sabemos a quién le va a encantar? a EA, hasta me lo toman como chiste, pero nunca se sabe con esta vida donde la realidad supera la ficción; ¿juegos a medias? ya me imagino transfiriendo el juego por red aprovechando la fibra óptica ¿se guardará durante el tiempo que paguemos el servicio? ¿pero se borrará todo cuando nos atrasemos en el pago? y ahora sí a llorar de nuevo, porque pagamos con un día de atraso, es sábado y a esperar se baje de nuevo el juego, los amigos a punto de linchar al anfitrión por no haber pagado cuando debía, ahora a ver con que se divierten porque habían quedado para jugar un torneo en la sala del anfitrión.
Esto puede terminar muy mal de verdad, no me sorprende el éxito de la Switch, en tanto es portátil y se acerca al mundo de los móviles, es lo que se lleva hoy con la gente moviéndose a todos lados.
Sony estará bien con una PS5 tradicional, ganas dan de ver cuanta potencia tendrá, si vemos los avances de hoy día en tecnología, esperemos no exageran con locuras de servicios llevados al extremo.
Me gustaMe gusta
pues no me extrañaria nada, una combinacion del
http://www.amd.com/es/products/ryzen-threadripper
del cpu de intel amd + lo que dicen tu de la memoira
yo pensaba que ps5 tendria 8 nucleos ZEN, es los rumores, las supociciones y la opcion «» mas logica
pero despues de leerte , veo ahora mas logico una cpu de 16 nucleos en 2 soc, y como dices en la retrocompatibilida con ps4 desabilitar un soc
en 2019, o finales 2018, que ya en finales 2018 ya sony tendria que tener casi el 100% de ps5 finalizado para mandar en marzo-abril de 2019 a empezar a fabricacion para en noviembre 2019 tenerlas listas para su venta
y en 2018 finales cpu de 16 nucleos creo que sean muy factibles para ps5, en base no le veo utilidad 100% a no ser como comentas hacer mas que de cpu base
ya que un ryzen 8 nucleos 31 generacion que seran los que esten en finales 2018, serian suficientes para mover ps5
estoy intrigado de que mejora ser NAVI vs VEGA en tema potencia grafica…. , y ya ni cuento vs POLARIS.. que eso seria mayor aun que vs vega
yo espero que
1º ps5 tenga una cpu BUENA potente y que ps5 no tenga el porblema de una cpu deficinente y que lleve a tope la gpu que tenga ps5, y no como ps4 que lastra …
2º la gpu (potencia) tiene que ser MINIMO 3 veces la de ps4pro, como l apor es 3 veces ps4… ps5 tendria que ser minimo 3 veces pro.. vamos 4,2 x 3 = 12,6 teralops esto MINIMO MINMO… seria el doble que xonex en potencia bruta base.. ya .. ya sabemos que no solo de potencia es el tema si no que otras cosas tiene que estas bien implementadas etc.. pero tener una potencia bruta base mas alta tb ayuda ;), para mi lo ideal sera 4 veces ps4pro, en torno ps5 a 18 teraflops…
para que el salto ps4 y ps5 se note lo mas possible una gpu como digo y una cpu que no lastre
Me gustaMe gusta
Oh, hola, Nolgans, ¿cómo va Nintendo en tu planeta después de que Switch fracasó?¿Ya desarrolla para PS4?
Me gustaMe gusta
JAJAJAJAJAJAJAJAJAJA en youtube Nolgan está más conspiranoico que nunca contra Nintendo.
Me gustaMe gusta
@argonauta, me gusta tb los juegos y tb enterarme de lo que pasa real en el mundo… jejeje que le vamos a hacer… jajajajaj
a
@Snaglon
y piensas que no es asi??? bien que vives en el mundo de la piruleta 😉
en serio piensas que switch no es un fracaso…???
te voy a repetir lo qeu dije en su dia en su lanzamiento.. cuando nintendo DECIA que iva a vender 16 millones el 1º año
cuando la comunidad nintendera fanaticos que esos si viven en el mundo de la piruleta, mas bien en SU mundo de la piruleta que es PEOR aun…
esa gente decia que nintendo iba a vender 130 millones en su vida, o que venderia mas que ps4, o que en nada superaria en ventas a ps4
esa gente que se jacta con noticias manipuladas de que switch a sido la consola mas vendida en eeuu estas navidades…, cuando la noticia es de x gente que ELLOS dicen.. bajo… su… pensamiento… con x datos
cuando lo que se sabe es que ps4 SE AGOTO en TODO EEUU
y algunos que sabemos algo.. sabemos que sony su produccion es muchisimo mayor que nintendo y las ps4 que puso sony a la venta en eeuu vs nintendo switch a sido muchisimo mayor
y aun si ps4 se AGOTO en eeuu
esto NO lo digo por tema ps4 osny vs nintendo.. lo digo para dar algunos ejemplos de tonterias que se dicen para decir que nintendo es un exito
como dije te voy a REPETIR lo que YO dije en el lanzamiento de switch cuando leia cada estupidez de la comunidad nintendera
dije
– nintendo switch no va vender mas que ps4
– nintendo switch el 1º año vendera 5-6 millones como mucho, + «MAS», las ventas de navidades y mario odisey, que salvaran el año de que switch venda = que WIIU, vendiendo sobre 7 a 9 millones
que a pasado??
EXACTAMENTE lo que yo dije, con las ultimas ventas actuales de navidades, BF, y mario odisey
uiiii
cuanto a vendido switch???
veamos…
a finales de octubre casi 30 de octubre ya con la 1º semana de lanzamiento de mario odisea…
http://www.vgchartz.com/
ui 7,9 millones de switch???
donde esta lso 16 millones de nintendo…
donde esta sueprar a ps4, que segun los ultimos datos sony pensaba que iba a vender 16 millones y a subido a 20 millones en ESTE AÑO!!!!, ya que ya a vendido 16 millones
o sea que ps4 a vendido el DOBLE que switch
una consola que va teminando su 4 año vs una consola que esta de año de lanzmaiento que es CUANDO MAS VENDE y aun asi ps4 vende el DOBLE!!!
aun piensa que es un exito switch, y despues te digo alguna cosa sobre esto
tb dije
– dejaros de pajas mentales, y switch vendera como mucho como el FRACASO de cube que vendio 35 millones + –
todo lo que sea vender MENOS de 40 millones para nintendo es un AUTENTICO FRACASO, y mas cuando es la sustituta de 3ds y de wiiu JUNTAS
por el camino que va 8 millones mas pon tu 2 millones en este BF y navidades juntas de lso 2 ultimos meses, pontu que switch en su 1º año venda 10-11 millones
no le queda NAAAAA para superar al FRACASO de CUBE de 35 millones
o sea , si en su 1º año que es el que mas debe vender supuestamente vende 10 millones + –
nesesitaria como 4 años para superar al FRACASO de CUBE
en serio piensas que switch va a durar 4 años en el mercado???
entiendes porque digo que las ventas de switch son un FRACASO
para que no pase HOY tendria que haber 20 millones de switch, y en su 2º año superar al FRACASO de CUBE
eso sn contar el patetico catalogo hoy de siwtch en su 1º año el catalogo es paumperrimo…
un mario odisey que la wiiu podira haberlo movido con los ojos cerrados, y zelda tanto lo mismo que fue retrasado solo para que siwtch vendiera mas en su lanzamiento y asi DISIMULAR en ventas un posible fracaso de ventas inicial
cosa que no lo han conseguido.. si no DISIMULADO
y depues catalogo de relleno los juegos que alne en siwtch multis que ya estan mas pasado en las otras, y mucho relleno de juegos de eVITA
vamos se esta llenando la switch de juegos que salen y salien en VITA, y que decia los nintenderos de los juegos de VITA??? que eran basura, que vita no tenia juegos
por esa regla de 3, entonces ahora que LOS JUEGOS DE VITA, ahora salen en switch, la switch sus juegos son BASURA y no tiene catalogo, no???
pero eso se omite… la gente tiene memoria de pez, y se olvida lo que dice la comunidad nintendera, que cada dia da MAS ASCO
hay esos tiempos que llamarse nintendero esa binomio de SABIDURIA, hoy llamarse nintendero es binomio de FANBOY TROLL NIÑATO RATA, con cultura de videojuegos -0
pero bueno estamos hablando del fracaso de switch
como te dije mas arriba, te voy a dar mi opinion… despues del 1º año de switch
me REAFIRMO es MAS los DATOS de ventas me estan DANDO LA RAZON… ni con zelda de lanzamiento ni con mario odisey a final de año han superado los 20 millones… ya ni 15 millones
que a vendido un poco mas que wiiu, al final de año porque salio mario odisey???, ya wiiu no tuvo zelda de lanzmaiento… es mas casi NO sale ni el zelda…
y aun asi wiiu y switch sus ventas eran muy cercanas el 1º , salvo el ultimo empuje del mario odisey
asi que ya me diras tu donde ves el exito. cuando es al REVES,
como0 DIJE no va a vender menso que wiiu, peor estara vendiendo como el OTRO FRACASO , nintendo cube que vendio 35 millones + –
nintendo a tenido 2 fracasos, n64 y cube, y como no cambie la cosa… switch no va a superar a n64 ni a cube… y eso se llama FRACASO en mi pueblo!!!
si para vender mas tiene que pasar 5 años????, cuando sabemos que switch NO VA A DURAR 5 años en el mercado!!!! ni loco, apuesto a que como mucho en 2019 tenemos switch 2 vamos.. lo huelo
porque switch tien un problema gordo, es una ps3 un pelin mejor.. yata.. y ni la ps3 ni la siwtch pueden mover los juegos de xone…. cosa que es la menos potente… y los port de xone a switch son nulos…. casi… ya de ps4 menos aun, de ps4pro ya ni de coña, y de onex menos aun de ps4pro…….
y ern 2019 saldra ps5 dando otro salto
de que MULTIS de va a nutrir switch,??? pues de los que se nute ahora de los juegos de psVITA, pero ya en 2018 ya vita dejara … y 2019 mas aun,
entonces 2019 switch tiene un panorama, de que NO PODRA TENER MULTIS, a no ser de recortes mastodonticos en el juego, vamos el mismo panorama de wiiu….
a lo mejor nintendo hace un wiiu, alargar la vida de switch como un muerto viviente como paso con wiiu….los 2 ultimos años
pero vamos se esta cumpliendo casi exactamente lo qeu dije… asi que ya me diras tu
pero tu tranquilo tu sigue pensando que es un exitazo… jajajjaaj es que da una risa…. ajajajjaja
Me gustaMe gusta
Dude todavía no ha pasado un año desde que se lanzó Switch, quedan 4 meses y en el medio esta temporada navideña de la cual no tienes ni un solo dato para corroborar tu conspiranoia antinintendo. Sacas datos de VGChartz que ni siquiera están actualizados porque son los mismos que dio Nintendo en SEPTIEMBRE! Es decir, que de esos cerca de 8 millones no sabemos qué más se ha vendido desde octubre hasta ahorita (y lo que se sabe es que ha vendido muchísimo).
Dices que los datos son irrelevantes porque me los saqué de un sitio nintendero. Pues revisa los enlaces a las fuentes originales que están en esos artículos y verás que no es información tergiversada, sino contrastada. Pero nada, andas en negación y crees saber todo.
En lo de Skyrim y NBA 2K18 quedaste retratado completamente y lo sabes, pero haces un damage control supremo para no decir que estabas completamente equivocado y lo sigues estando.
Me gustaLe gusta a 1 persona
«donde esta sueprar a ps4, que segun los ultimos datos sony pensaba que iba a vender 16 millones y a subido a 20 millones en ESTE AÑO!!!!, ya que ya a vendido 16 millones»
????
Pienas que Switch va a superar a PS4 cuando tenían hasta hace nada serios problemas de stock (todavía en Japón es complicadísimo conseguir una Switch) y aparte es el año de mayor ventas de PS4? Las consolas no vende el máximo de unidades en su primer año. Wii el primer año vendió bien, pero fue el segundo cuando despegó. DS igual. El próximo año si no hay problemas de stock, Switch venderá más de 20 millones de marzo 2018-marzo 2019. Marca este comentario si quieres.
«dejaros de pajas mentales, y switch vendera como mucho como el FRACASO de cube que vendio 35 millones + –»
Gamecube vendió 22 millones. Es probable que este año llegue a la mitad de esa cifra o la supere (15 millones por ejemplo, solo en el primer año).
«todo lo que sea vender MENOS de 40 millones para nintendo es un AUTENTICO FRACASO, y mas cuando es la sustituta de 3ds y de wiiu JUNTAS
por el camino que va 8 millones mas pon tu 2 millones en este BF y navidades juntas de lso 2 ultimos meses, pontu que switch en su 1º año venda 10-11 millones
no le queda NAAAAA para superar al FRACASO de CUBE de 35 millones
o sea , si en su 1º año que es el que mas debe vender supuestamente vende 10 millones + –
nesesitaria como 4 años para superar al FRACASO de CUBE
en serio piensas que switch va a durar 4 años en el mercado???
entiendes porque digo que las ventas de switch son un FRACASO»
Ningún analista o empresa de análisis de datos le pone menos de 80 millones de consolas vendidas hasta el final de su vida. Pero claro, tú te sacas datos del gorro de aluminio que llevas puesto. También te respondí más arriba que ninguna consola vende el máximo el primer año. Eso te lo estás inventando tú. Además, con problemas de stock, mucha gente tendrá que esperar el próximo año para comprársela. ¿Dónde está el fracaso?
«eso sn contar el patetico catalogo hoy de siwtch en su 1º año el catalogo es paumperrimo…»
¿Paupérrimo? No sé, pero hay varios títulos first y third parties. Veamos:
First parties: Zelda, MK8D, Arms, Splatoon 2, Snipperclips, 1,2 Switch, Mario Odyssey, Xenoblade 2. 9 títulos first en un año
Third parties: exclusivos hay pocos, pero tienes FE Warriors, Bomberman, Mario Rabbids, Pokken y varios indies más en eshop. Luego tienes multiplataformas como Doom, Rocket League, Minecraft, Skyrim, Fifa, NBA, WWE, etc.
¿Qué consola en el primer año tiene todos estos títulos first de calidad y un apoyo third tan bueno? No diré que ninguna, pero muy pocos lanzamientos han sido tan buenos.
«vamos se esta llenando la switch de juegos que salen y salien en VITA, y que decia los nintenderos de los juegos de VITA??? que eran basura, que vita no tenia juegos
por esa regla de 3, entonces ahora que LOS JUEGOS DE VITA, ahora salen en switch, la switch sus juegos son BASURA y no tiene catalogo, no???
pero eso se omite… la gente tiene memoria de pez, y se olvida lo que dice la comunidad nintendera, que cada dia da MAS ASCO»
La Vita es una consola con un mal catálogo porque básicamente no tiene juegos first party que hagan que el público la compre. Vamos! que no vale la pena porque pocos exclusivos tiene. Switch desde el principio ha sido diferente. Los juegos de Vita ahora salen en la Switch sí, pero aparte tienes juegos que una Vita jamás correría como Rocket League o Skyrim en portátil. El catálogo de Switch desde el inicio se nota que será mil veces superior y más completo que el de VIta. No sé si solo eres miope o el odio hacia una marca te tiene tan ciego. Parece que Nintendo te quitó la casa amigo, te recomiendo que busques ayuda.
«si para vender mas tiene que pasar 5 años????, cuando sabemos que switch NO VA A DURAR 5 años en el mercado!!!! ni loco, apuesto a que como mucho en 2019 tenemos switch 2 vamos.. lo huelo
porque switch tien un problema gordo, es una ps3 un pelin mejor.. yata.. y ni la ps3 ni la siwtch pueden mover los juegos de xone…. cosa que es la menos potente… y los port de xone a switch son nulos…. casi… ya de ps4 menos aun, de ps4pro ya ni de coña, y de onex menos aun de ps4pro…….
y ern 2019 saldra ps5 dando otro salto»
¿Dime en qué generación ha importado una mierda la potencia de la plataforma? Literalmente en ninguna. Y si la consola vende bien, ten por seguro que los juegos llegarán, independientemente de los recortes o compromisos que haya que hacer. La DS era una basura a nivel técnico y tuvo hasta su propia versión de GTA y de Call of Duty. Pero Switch tiene la diferencia de que podría manejar perfectamente GTA V de PS3/360 con incluso mejores gráficos y CoD a nivel de los que salieron en Wii U que están bastante bien para los estándares actuales. Jugar esto en portátil es lo máximo y cualquiera que haya soñado con GTA V o Skyrim en una consola portátil le parece un grandísimo logro la Switch y es un producto atractivo para ese público.
«pero vamos se esta cumpliendo casi exactamente lo qeu dije… asi que ya me diras tu
pero tu tranquilo tu sigue pensando que es un exitazo… jajajjaaj es que da una risa…. ajajajjaja»
Lo que me da risa es que es increíble que haya una persona con tan poco tino, que tenga tanto resentimiento por una empresa que ni sabe que él existe, que se crea tanta pajas mentales y que de paso no sea capaz de darse cuenta del ridículo que hace por las redes sociales con sus extraordinarios análisis (nótese el sarcasmo). Pero en el mundo real, Switch está vendiendo millones y la demanda no baja, se proyecta que supere a WiiU a final de este año comercial (marzo 2019), Gamecube probablemente hacia finales de 2018 y N64 en 2019.
Me gustaLe gusta a 2 personas
Madre mía, se puede ser más tonto sí, pero hay que entrenarse para ello.
Para empezar, diles a los del psiquiátrico que te aflojen un poco la camisa de fuerza, que lo de teclear con la cabeza se te da fatal.
Ahora al tema. ¿El primer año es cuando más se vende una consola? Urian ha puesto mil veces el gráfico de ventas de una consola, en su 2º y 3º año es cuando más venden.
Las estimaciones iniciales de Nintendo eran 8 millones de consolas en su primer año. Año que termina en marzo, pero parece que ni los meses del año te conoces. Luego visto éxito de la consola las estimaciones se hicieron a 12 millones.
La Switch es el producto más vendido del BF, no la consola, el producto más vendido. y todavía queda la campaña navideña, que visto lo que ha presentado SONY de cara a navidad a Nintendo no le hace falta nada para llevarse la campaña navideña al bolsillo. Los 12 millones de ventas en el primer año están más que asegurados.
Por cierto, Nintendo, esa que tanto fracasa en tu universo paralelo, es la empresa más rica de Japón. Y solo se dedica a videojuegos.
PD: aunque parezca increíble se te echaba de menos, en serio.
Me gustaMe gusta
Has vuelto Nolgan, gracias, siempre te amare.
Me gustaLe gusta a 1 persona
+1
Me gustaMe gusta
¿De verdad este Nolgan se cree lo que dice? Es una prueba de que existe el analfabetismo videojueguil y comercial.
Me gustaMe gusta
Nolgan es la mascota del blog
Me gustaLe gusta a 1 persona
Nolgan, si se tratara de otra sobremesa te daría la razón, pero no es así, Switch es una portatil que se conecta a la TV. Actualmente casi todos sus AAA tienen mecánicas de sobremesa Zelda, Mario (aunque tambíen se juega bien en partidas cortas), Xenoblade, Arms, Splatoon, Mario Kart, etc. En cuanto saquen un Pokemon o un Monster Hunter (que terminará saliendo 100% seguro unos meses más tarde), venderán lo que no hay escrito y más. (yo llevo comprados más de 5 juegos desde que salió).
Me gustaMe gusta