He leido numeros contraictorios respecto a los flops de wii u. Tu dices que rinde 180 mas o menos o sea como ps3 segun nvidia hoy en dia (cuando lanzó ps3 decia que rendia 2 tflops ahí su polla). Sin embargo cuando se lanzó se hablaba de que la triplicaba.
Lo mejor es tirar de fuentes primarias y que mejor que… ¡La documentación del Kit de Desarrollo oficial de la propia consola!
Y las especificaciones son:
Estas son las especificaciones del SDK oficial, en cuanto al número de FLOPS lo podemos saber utilizando la velocidad de reloj… ¿Cual es?
La GPU funciona a 550 Mhz por lo que en el tema de los shaders la potencia sería de:
160 Stream Processors (32 ALUs x 5)*550*2 (FMADD)= 176 GFLOPS.
¿Pero que hay del resto de la GPU? Si miramos la tabla de arriba veremos que hay dos render backends y 2 texture pipes pero antes de nada tenemos que reconocer cual es la arquitectura de la GPU, Nintendo en el SDK nos deja la siguiente información:
La gente de failoverflow, a la que pertenece Marcan42 hizo ingeniería inversa sobre la consola y pudieron sacar la arquitectura de la GPU, teniendo en cuenta la información de que es una GPU de AMD/ATI compatible con Direct3D 10.1/OpenGL 3.3 deberíamos tener suficiente pero lo mejor es cruzar la información:
Sabido esto lo mejor es ir al grano, en el diagrama de arriba podemos ver como cada una de las unidades SIMD esta conectada a un pipe de texturas, aquí se ve con más detalle:
Tenemos dos unidades de texturas… ¿Pero cual es la configuración de estas unidades de texturas? No hay mucha información en el SDK por no decir ninguna pero ya que sabemos la arquitectura de la GPU por lo que solo tenemos que buscar información sobre GPUs de la misma arquitectura y buscando un poco nos encontramos con esto:
Si nos acercamos a la unidad de texturas
Es decir, tenemos cuatro unidades de texturas… ¿Por qué cuatro? Son las unidades de filtraje de texturas, y por cierto si hacemos un simil con las CUs de la arquitectura GCN…
y re-ordenamos el diagrama de la misma manera tenemos lo siguiente:
No es la misma arquitectura pero nos ayuda a hacer un símil comparativo, en cuanto a los Render Backends su configuración es la siguiente:
Es decir, tenemos unos 4 ROPS en total por RBE y por lo tanto la configuración del sistema es de 8 ROPS.
¿Como es que Wii U tiene una GPU tan poco potente?
El motivo de ello es muy sencillo, las GPUs escalan con la configuración de memoria, es decir con el ancho de banda del bus de memoria, existe el error común de hablar de una configuración de 320 Stream Processors para la consola en muchos lugares que es la misma configuración que la Radeon HD 4650 y esta confusión es común, sin ir más lejos habéis colocado en los comentarios el siguiente gráfico que identifica a Wii U con la HD 4650 Mobile.
Veamos las especificaciones:
He resaltado lo del bus de memoria de 128 bits porque es importante y porque es ese elemento el que hace que solo hayan 160 Stream Processors en el caso de la GPU de Wii U… ¿Como? Muy sencillo, si miramos el interior de la consola veremos que hay cuatro chips de memoria subrayados en amarillo:
Los chips DDR3 tiene una interfaz de 16 bits cada uno, es por ello que sabemos que la interfaz de memoria es de 64 bits, debido a ello el ancho de banda es de un 50% y de ahí que la cantidad de Compute Units sea la mitad por el hecho que la interfaz de memoria no puede alimentar con los datos suficientes como para mantener 320 Stream Processors a todo rendimiento. Si Wii U tuviese una interfaz de 128 bits tendría 8 chips de memoria en su placa base y la GPU tendría suficiente flujo de datos para la configuración de 320 Stream Processors pero resulta que no es así y la información del propio SDK lo desmiente.
Yo sigo desorientado. Se supone que WiiU en un principio prometía juegos de (en ese momento) actual generación y al ver estos datos pareciera ser que fuese todo lo contrario ya que si no estoy mal X360 tiene 240 Gfps… como iba a WiiU mover juegos pensados para un sistema con una cantidad mayor de flops de una generación pasada? Yo creería que por ese motivo no pudimos ver un GTA V en WiiU aunque estoy hablando desde el pozo de mi ignorancia.
Me gustaMe gusta
No entiendo mucho de cuestiones técnicas, pero creo que el mayor problema para llevar un GTA a Wii U es la CPU, y que por ser un tipo de juego que tira mas de inteligencia artificial, físicas, mundo abierto, etc, es mas demandante de CPU que otros juegos, que en general parece que rinden mejor en Wii U:
Claro que yo también estoy un poco medio perdido como tu con eso de los flops, y que a pesar de todo muchos juegos rindan un poco mejor en Wii U, supongo que tendrá que ver la cantidad de RAM y otros aspectos de hardware
Me gustaMe gusta
El GTA V en PS3 rinde un poco mejor que en xbox 360, y eso que tiene una cpu inferior.
El watch dogs rinde un 30% menos que en la consola de sony, pero, solo miren la distancia de renderizado y efectos de lluvia en la wii u:
3:37 por lo de la distancia de dibujado.
El principal problema es su cpu mierdosa, con un 4to nucleo hubieran solucionado muchas cosas o al menos hubiera sido mas humano.
El tema es que la gpu7 es equivalente a DirectX 10.1, y eso le brinda una muy buena ventaja en eficiencia, que permite que esos 176 Gflops rindan mas que los de gpu´s DX 9, ademas no sabemos cuanta optimizacion habra hecho nintendo en su api gx2.
………..
…………………
Pero que CARAJOS importa esto?!?!? La consola, aunque hubiera tenido un 50% mas de potencia sigue siendo un DESASTRE TECNICO y una verguenza para una consola del 2012.
Es INDEFENDIBLE lo que hizo nintendo, hubieran agarrado un APU A-3300, le ponian 4gb ddr3 1600 en 128 bits si estaban TAN traumados en consumo, o 2gb GDDR5 5000 en 64 bits en modo clamshell (40 gb/s) y LISTO! Al menos no tenes cuello de botella en la cpu y tenes DirectX 11, podrias tirar de gpgpu de paso…
Me gustaMe gusta
….O al menos dejar sacar el Vsync :v
Me gustaMe gusta
¿Y la conclusión final del artículo cual es?
Me gustaMe gusta