Fuente:

NVIDIA presentó hoy NVIDIA DRIVE AGX Orin ™, una plataforma altamente avanzada definida por software para vehículos autónomos y robots.

La plataforma está impulsada por un nuevo sistema en un chip (SoC) llamado Orin, que consta de 17 mil millones de transistores y es el resultado de cuatro años de inversión en I + D. El Orin SoC integra la arquitectura de GPU de próxima generación de NVIDIA y los núcleos de CPU Arm Hercules, así como nuevos aceleradores de aprendizaje profundo y visión por computadora que, en conjunto, ofrecen 200 billones de operaciones por segundo, casi 7 veces el rendimiento de Xavier SoC de la generación anterior de NVIDIA.

200 billones de operaciones por segundo= 200 Teraops.

Hace eones que nos hablaron de Orin como el sucesor de la Nvidia Xavier…

Nvidia aparte de eso ha compartido un render de la litografía…

Si la organización es la misma que la de Xavier en lo que al orden de los componentes se refiere hay elementos muy pero que muy interesantes que merece la pena destacar.

¿Cuales son esas cosas?

  • Parece ser que en primer lugar tenemos una GPU con 16 nucleos en vez de los 8 núcleos del Nvidia Xavier.
  • Hay cuatro GPUs como la de Volta en Orin. Un total de 32 SM… Es decir, la potencia de una RTX 2060 en un SoC. Nvidia nos habla de un salto 7X pero no sabemos si es via velocidad de reloj u otros medios.
  • No puedo adivinar el tipo de memoria, pero dado que el timing de lanzamiento es para automóviles en 2022 no hay duda que tiene que ser LPDDR5.
  • No creo que el SoC sea pequeño, diría que es del mismo tamaño que Xavier, unos 350mm^2 aproximadamente y por tanto no esta pensado para ir a una tablet y a un menos un smartphone.
  • Una RTX 2060 en Int8 tiene una capacidad aproximada de 110-120 Tensor Ops con precisión de 8 bits. Esto nos indica que de cara a Ampere Nvidia habría mejorado los Tensor Cores o simplemente que esto es producto del paso a los 7nm EUV y en consecuencia hay una subida en la velocidad de reloj y realmente no hay cambios en la unidad.
  • No podemos olvidarnos que las unidades especializadas en el Deep Learning también suman en la cantidad de Tensor ops.

Esto es todo, como siempre tenéis el Discord y los comentarios de la misma entrada para comentar el contenido de la misma.