Nvidia presenteert Jetson AGX Orin-module voor robots en AI-toepassingen

Nvidia introduceert een nieuwe versie van zijn compacte Jetson-module voor AI-toepassingen. De Jetson AGX Orin heeft een Ampere-gpu met 2048 CUDA-cores en een Arm-cpu met 12 cores. Het systeem kan tot 200 biljoen berekeningen per seconde uitvoeren.

Met een piekprestatie van 200Tops bij int8-berekeningen is de Jetson AGX Origin tot zes keer sneller dan zijn voorganger, de Jetson AGX Xavier, zegt Nvidia. Dat geldt overigens alleen voor deze specifieke berekeningen met een lage precisie, die gebruikt worden in neurale netwerken.

Voorganger Jetson AGX Xavier had een Volta-gpu met 512 cores, het nieuwe model heeft een Ampere-gpu met niet alleen 2048 CUDA-cores, maar ook nog eens 64 Tensor-cores. Het systeem is voorzien van 32GB aan LPDDR5-geheugen met een doorvoersnelheid van 204,8GB/s.

Nvidia levert de Jetson AGX Orin als een module en een developer kit. Het losse bordje heeft afmetingen van 100x87mm en is bedoeld voor integratie in robots of andere apparatuur die autonoom moet kunnen functioneren. De fabrikant noemt voorbeelden als systemen in fabrieken, robots voor logistiek en grote industriële drones. De module verbruikt 15W tot 50W, afhankelijk van de instelling. Meer technische details heeft Nvidia gepubliceerd in een pdf.

Nvidia brengt de Jetson AGX Orin in het eerste kwartaal van 2022 uit. Een prijs noemt de fabrikant niet.

Nvidia Jetson AGX Orin
Nvidia Jetson AGX OrinNvidia Jetson AGX OrinNvidia Jetson AGX OrinNvidia Jetson AGX Orin

Medische toepassingen

Nvidia introduceert ook Clara Holoscan, een computing platform voor de medische industrie, dat werkt met de Jetson AGX Orin-module. Volgens Nvidia is dat platform geschikt voor het realtime verwerken van informatie van medische apparaten.

Specificaties Nvidia Jetson AGX Orin
AI-prestaties 200Tops (int8)
Gpu Nvidia Ampere met 2048 CUDA-cores en 64 Tensor-cores @ 1GHz
Cpu 12 Arm Cortex-A78AE-cores @ 2GHz, 3MB L2, 6MB L3
Deeplearning-accelerator 2x NVDLA v2.0
Vision-accelerator PVA v2.0
Geheugen 32GB 256-bit LPDDR5 @ 204,8 GB/s
Opslag 64GB eMMC 5.1
Camera Serial Interface Tot 6 camera's (16 via virtual kanalen)
16-kanaals MIPI CSI-2
D-PHY 1.2 (tot 40Gb/s) | C-PHY 1.1 (tot 164Gb/s)
Video Encode 2x 4K60 | 4x 4K30 | 8x 1080p60 | 16x 1080p30 (H.265)
Video Decode 1x 8K30 | 3x 4K60 | 6x 4K30 | 12x 1080p60| 24x 1080p30 (H.265)
Netwerkaansluitingen 1x GbE
4x 10GbE
Schermuitvoer 1x 8K60 multi-mode DP 1.4a (+MST)/eDP 1.4a/HDMI 2.1
I/O 4x USB 2.0
4x UART, 3x SPI, 4x I2S, 8x I2C, 2x CAN, DMIC & DSPK, GPIOs
Stroomverbruik 15W | 30W | 50W
Afmetingen 100mm x 87mm

Door Julian Huijbregts

Nieuwsredacteur

09-11-2021 • 11:52

12

Reacties (12)

12
12
5
0
0
7
Wijzig sortering
Wat een gave gamecube emulator!
Even op de GPIO Header een connector printje maken en klaar is kees!
Dit soort berichten worden door producenten achter de hand gehouden puur voor marketing doeleinden.

nieuws: AMD brengt Instinct MI200-accelerators uit met multi-chip-ontwerp en ...


Leuk detail,
Nvidia houd hier vast aan Tops (want in principe een soc met eigen CPU) en bij gpu is dat nog (t)Flops, alleen bij AI kunnen die minder precies en dus sneller.


Marketingtechnisch word er vaak een snelle vergelijkt gemaakt met “snelheid” en prijs, maar dat kan en mag je niet zomaar vergelijken.
Dat is het eerste wat ik dacht. AMD heeft gisteren nieuws naar buiten gebracht. En Nvidia had dit al op de plank liggen om te "counteren". Kan me niet voorstellen dat Nvidia dit nieuws precies voor vandaag gepland had om naar buiten te brengen.
voorganger was al behoorlijk aan de prijs. Je kan beter een echte gamecube kopen.
Of even wachten, wellicht komt een variant hierop in de volgende Switch.
Raspberry pi of lattepanda met dolphin is ook al zeer geschikt voor zoiets. Met dit bord kun je denk ik nog veel meer.
Software support voor de Jetson reeks is best slecht. De Nano zou al een top emulator kunen zijn maat er zijn gewoon geen devs
Kan er iemand uitleggen hoe ze hier met:
32GB 256-bit LPDDR5 @ 204,8 GB/s

Kunnen komen terwijl de max Data transfer rate van LPDDR5 6400 Mbps is?

Volgens mij gaat dit over de data transfer van de CPU/GPU en niet over de RAM. Zie pdf die Tweakers ook naar linkt:
High speed IO, 204 GB/s of memory bandwidth, and 32 GB of DRAM enable the
module to feed multiple concurrent AI application pipelines.
Dus het gaat wel om degelijk aparte componenten. Tenzij ik het verkeerd zie?
In je PDF staat ook letterlijk:
32GB 256-bit LPDDR5
204.8 GB/s
en
enabling 32 GB of 256-bit LPDDR5 and 64 GB of eMMC. The DRAM supports a max
clock speed of 3200 MHz, with 6400 Gbps per pin, enabling 204.8 GB/s of memory bandwidth
Jij hebt het over 6400Mbps per kanaal.

AMD EPYC (en ongetwijfeld Intel-varianten) halen ook gewoon meer dan dat met DDR4: https://www.anandtech.com/show/14694/amd-rome-epyc-2nd-gen/6
Meer kanalen = bredere snelweg = meer transfers.
Thanks! Ja ik vond het al vreemd vandaar mijn vraag. Ik heb eroverheen gelezen, maar bedankt voor de uitleg en de link!
Uit de LPDDR5 spec:

• 16-bit interface per die @ 6400MT/s = 102Gbit/s peak bandwidth per LPDDR5 die

256 bit bus / 16 bit LPDDR5 = 16 dies. 16x 102Gbit/s = 1632Gbit/s = 204GB/s
Hee cool dat deed lang. Dit (of een cut down versie ervan) zal waarschijnlijk ook in de nieuwe Switch gaan. De Switch draait nog op de 2016 TX2

Op dit item kan niet meer gereageerd worden.