Comentario#1:

Ya se que no viene a cuento urian, pero mas rumores de ps5 y xbox

.https://gizmodo.com/a-story-about-two-tiny-fuzzy-photos-of-a-playstation-5-1837594238

Me ha parecido curioso como en lazan los nombres en clave que se manejaban de ariel y gonzalo con el nombre del devkit de ps5 “prospero”.“

According to our tipster, earlier PS5 prototypes have been in the hands of developers since 2018, but Prospero, the current dev console, was first delivered to developers early this summer.The console shares its name with the central character of William Shakespeare’s The Tempest. In the play, Prospero is a moody wizard supported by characters like the magic spirit Ariel, and the kind nobleman Gonzalo. That’s curious because Ariel and Gonzalo aren’t just characters in The Tempest: They’re also the codenames for unreleased AMD products that were discovered by geeks and are thought to be guts for next-gen consoles.”

Supuestamente toda la información les llego tiempo antes junto a unas imagenes, que después han coincidido con la filtración del diseño del devkit de ps5 de hace unos meses y dado a las declaraciones dadas por ese informador han querido hacerlas publicas.

Sony no suele darle nombres en clave a sus Devkits, pero si que suele dar nombres en clave a los chips, lo que ocurre es que las diferentes iteraciones evolutivas del SoC han recibido nombres de personajes de «Sueño de una noche de verano» de Shakespeare, siendo Prospero la última versión del chip y seguramente la que esta preparada para la fabricación en masa para los SDK definitivos.

Tendría sentido que el nombre en clave de la consola fuese Midsummer, de la misma manera que el nombre en clave de PS4 fue Orbis.

Comentario#2:

El artículo de Gizmodo parece un copia y pega de lo dicho por Urian en varias entradas. Además yo es que no creo que aporte nada nuevo el artículo. Crean más dudas si cabe.

El artículo de Gizmodo sinceramente me ha dejado bastante…

En realidad no aporta nada si vas ordenando ideas de todos los rumores, la gente piensa ahora que hay 1001 chips cuando en cada iteración evolutiva hasta llegar al chip final, AMD le ha puesto un nombre distinto a cada iteración del mismo chip en el proceso de testeo antes de tener el chip final, pero los diferentes nombres han hecho que mucha gente y parte de la prensa…

Yo lo que quiero preguntar a Urian (si es que no le aburre) comentar si vería factible que PS5 lleve un Ray Tracing de PowerVR y lo de Scarlett sea lo que AMD va a llevar al PC.Mi forma de verlo es que Scarlett va a ser como comprar un PC integrado con el RT de AMD por un módico precio y en esta ocasión Sony va a intentar parecerse más al ecosistema Apple con su hardware y su software.Aunque hace no mucho si mal no recuerdo leí que Imagination Technologies no estaba económicamente muy bien por los pagos que supuestamente Apple tenía que hacer. Si esto de Sony es cierto seguro que ayuda al negocio. Y sobre todo puede tener sentido cuando su tecnología podría funcionar en un móvil y tienen mucha experiencia en el tema.

No, no lo veo practico, AMD ha creado su propia implementación que es casi idéntica a la de Nvidia. No les hace falta colocar la implementación de Imagination y no nos podemos olvidar que estáis comparando arquitecturas Inmediate Renderer con una arquitectura Tile Renderer.

¿Cual es la diferencia? En un Tile Renderer como ya he explicado muchas veces la geometría queda ordenada según su posición en el espacio y es convertida en listas de pantalla donde la geometría ya pre-procesada es procesada a nivel de Tile donde cada Tile es tratado como una pantalla, esto significa en teoría que tenemos un Mini-BVH como estructura de datos espacial en cada tile para realizar la intersección, al ser un espacio muy pero que muy pequeño esto hace que dicha estructura de datos sea muy pequeña y se recorra más rápido… ¿Cierto? Pues no…

Pues no, la unidad RTU y el resto de unidades para el Raytracing están fuera de las unidades de los shaders, esto significa que el arbol BVH por un lado y el recorrido de esto se generan no por tiles por lo que es una solución sumamente lenta, de haber evolucionado Imagination hubiese colocado como mínimo una unidad RTU en cada USC como mínimo.

En el caso de Turing tenemos una unidad RTU, aka RT Core, por cada unidad SM.

La única ventaja que tiene la GPU de Imagination es la unidad llamada Scene Hierarchy Generator que es una unidad que es la que a partir de la información de la geometría almacenada genera el BVH. El RTU lo único que hace es atravesar el BVH e ir calculando las intersecciones de los rayos con lo objetos.

Independientemente de cual sea la GPU, la única unidad dentro de cada SM/CU/EU o como narices quieran llamarla que tiene acceso a los diferentes niveles de cache es precisamente la cache L1 de datos, que es donde está conectada la unidad de texturas y las unidades Load/Store de la CU, las ALUs de los shaders en si mismas solo ven sus registros y el planificador invoca a las unidades L/S para cargar los datos+instrucción desde la cache de datos del SM/CU/EU a los registros. Dado que el BVH se almacena en niveles inferiores necesitamos como mínimo la capacidad de la unidad de intersección de acceder a la cache de datos dentro del SM/CU/EU y por tanto tiene sentido que este geográficamente muy cercana o justo al lado.

Pues esto es cuando menos curioso:

Fuente: https://www.flickr.com/photos/130561288@N04/

¿No os suena de algo? Pues si nos atenemos a la patente de AMD van a hacer lo mismo que Nvidia.

Esto tiene que ver con la rasterización por tiles implementada a partir de Maxwell en Nvidia (Tile Caching)y Vega en el caso de AMD (DSBR). El BVH de la escena no cabe entero en la cache, pero dividiendo la escena por tiles y creando un sub-BVH por cada tile si que podemos hacerlo, aparte que esto hace que el árbol sea mucho más pequeño a la hora de recorrerlo.

El problema es que las GPUs son muy malas para recorrer árboles, por eso es importante hace el árbol lo más pequeño posible. Volviendo al tema de Imagination su RTU puede realizar 1/2 intersección/rayo por Mhz y esto son 300 millones de intersecciones por segundo, una TU106 (que es lo que más se va a parecer a la next gen a nivel de GPU) puede realizar unos 6000 millones de intersecciones por segundo, vale que las unidades son menos complejas y el rendimiento de cada RT Core es inferior al de la RTU por si solo pero en conjunto es una solución muy superior.

Espero que hayáis podido entender la explicación de por qué la solución de Imagination no es la mejor.

Comentario#3:

Si te sirve de algo la autora ha comentado esto en Resetera pero sinceramente creo que la están troleando.

“Unfortunately, it’s too vague. For example, I read the tipster’s comment as suggesting the Sony device would do lots of real-time ray tracing from occlusion to shadows to full bounce reflections and the Microsoft device would rely on tricks to emulate ray tracing. But another colleague read the exact same comment and interpreted it as how ray tracing might appear in titles re-released for the new system. Game devs I passed it along too all had opinions that ranged the gamut from mine to my colleagues’. So until we get a little more detail I’m afraid it’s all hearsay.”

No tienen ni puta idea de lo que están hablando… El párrafo es un enorme sinsentido y eso lleva a sinsentidos mayores. Me hace gracia lo de que «El dispositivo de Microsoft se basará en trucos para emular el Raytracing»… Es que es de risa, emular el Raytracing dicen… No entienden que el Raytracing es un medio para renderizar una escena y en el caso del renderizado híbrido para solventar ciertos problemas de la iluminación indirecta, lo ven como un efecto especial, como un fin.

¡Es que es sumamente patético! No se han informado de nada, pero allá van con su arrogancia… ¿Y dices que es una redactora? Espera, espera, entonces peor porque entonces si le dicen que esta errada y por tanto desinformando va a soltar lo del Mansplaining y blablabla…

No tendría sentido usar una especie de programación de shaders cuando tienes hardware dedicado para ello.A no ser que veamos una especie de Path Tracing al estilo Reshade y veamos juegos Xbox 360 con fake Ray Tracing como digo al estilo de Reshade.

Eso no tiene ningún sentido, todos sabemos que e el Raytracing el calculo de la inteseccion de los rayos con los objetos es esencial y todo lo que ello conlleva. El aplicarlo en una GPU sin unidades tipo RT Core es un suicio en cuanto a rendimiento…

¿Path Tracing dices? Eso esta muy lejano y necesita muuuchaaa potencia…

Hablar de Path Tracing a tiempo real a estas alturas es cuanto menos no tener ni idea, hablar de ello utilizando solo los shaders y sin unidades especializadas… Ufff, no se como le dais credibilidad a la mierda que ha publico Gizmodo, en serio.

De todas formas varias cosas tienen pinta de ser fake news. Microsoft ha contestado a la periodista y esta ha actualizado la noticia.

“Update: A Microsoft spokesman denied any camera technology is in development and that none has been delivered to developers in any form. The orignial post remains as originally written.”

Vamos.. que hacer un Kinect versión Scarlett hubiese sido para cerrar Xbox.Aunque sigo sin entender que está pasando con las filtraciones de Xbox y que yo sepa no sabemos nada de las revisiones de sus chips para Scarlett. Muy raro. Ya lo ha comentado Urian muchas veces pero tiene pinta que Microsoft empezó tarde con el diseño del chip.

Es que es obvió, después de lo ocurrido con Kinect pues… Aunque tiene más sentido para Sony implementar una cámara de serie en PlayStation 5… ¿Motivo?

Creo que Sony no va a lanzar el PSVR 2 hasta más adelante pero va a re-lanzar el actual modelo como una introducción barata a la VR y este es del tipo Outside-In en cuanto al tracking, obviamente tiene sentido para Sony incluir de serie una cámara en la parte frontal de la consola que lo que haga es el trabajo de la PS Camera pero con una mayor resolución y precisión.

Es curioso que Gizmodo no diga en ningún momento que Sony es la que esta desarrollando estas tecnologías y se centre en Microsoft. Es de una ignorancia supina, pero en fin, mejor repasar un poco, porque hace casi un año comente una patente de Sony donde se veía la cámara claramente dentro de la unidad.

La pagina inicial de la patente es la siguiente:

Nos habla de la generación del mapa de profundidad de la escena, tened en cuenta que las actuales PS Camera no funcionan por mapa de profundidad ni tampoco son cámara del tipo Time of Flight (ToF)

La idea es utilizar el Deep Learning… ¿Como aplica AMD actualmente el Deep Learning? Pues utilizando el SIMD sobre registro y subdividiendo las ALUs, esto no esta aplicado en RDNA/Navi 10 (RX 5700) pero como dije recientemente si que lo veremos en futuras iteraciones de RDNA/Navi.

Es también posible que utilicen una «unidad neural» basada en ALUs de manera espacial aunque esta unidad sería uno de los aceleradores incluidos en la unidad y no formaría parte de la unidad GFX, liberando a los shaders de la GPU de dicha tarea.

Pero todo empieza en el cámara y como bien sabréis las cámaras tipo «Kinect» se han implementado en los móviles en los últimos años.

Con una pequeña cámara como la de los móviles se puede implementar la funcionalidad de la PS Camera de serie, bien que se puede utilizar para hace streaming de los juegos tambíén como si fuese una especie de webcam, pero la idea principal sería el de hacer el tracking pero entremedio hay un proceso de interpretación de la imagen con algoritmos de IA, que bien se puede ejecutar vía Shaders o en su defecto con una unidad especializada en forma de acelerador que realice dicha tarea.

¿Con que solución para la IA nos podemos encontrar? Pues sinceramente…

Pero viendo los precedentes anteriores, Sony no es muy dada en crear aceleradores internos en el SoC hechos a medida, eso es más cosa de Microsoft realmente. Sony no suele tocar mucho los diseños de AMD, es que no los toca realmente, en la lista de dispositivos Ariel no se ve nada que nos haga pensar en un acelerador para la IA y diría que en el caso de que se implemente la cámara Sony va a utilizar el pipeline de computación de la GPU pero aprovechando el soporte para el «Deep Learning».

El otro punto de la PlayStation Cámera es el microfono integrado que es utilizado también para el tracking. Pues bien, esto me ha llamado poderosamente la atención.

Si tiene un asistente de IA entonces es que la consola tiene un microfono y tiene todo el sentido que aparte de la cámara este el micrófono para el tracking por un lado, aparte de los comandos de voz.

Esto es todo, como siempre tenéis el Discord y los comentarios de la misma entrada para comentar el contenido de la misma.