Universiteit Antwerpen toont Nvidia DGX-2-supercomputer met piek van 2 petaflops

De Universiteit Antwerpen en het Belgische onderzoeksinstituut Imec tonen een nieuwe supercomputer. De instituten hebben de Nvidia DGX-2 gekocht, een supercomputer die een piek van twee petaflops haalt en deze rekenkracht combineert met zestien gekoppelde gpu's.

Volgens Imec is dit de eerste supercomputer van de nieuwste generatie. Steven Latré, hoogleraar informatica, zegt dat de universiteit er met de nieuwe computer 'enorm op vooruitgaat qua rekenkracht'. Hij zegt dat de computer twee petaflops aan berekeningen per seconde aankan. De DGX-2-supercomputer komt binnenkort te staan bij IDLab, een imec-onderzoeksgroep aan de UAntwerpen.

Ten opzichte van de bestaande supercomputer die de universiteit al een tijdje bezit, de CalcUA, is de nieuwe DGX-2 ongeveer 8,3 keer zo snel. De CalcUA-supercomputer heeft een rekenkracht van 240 teraflops. De zogeheten City of Things-teams van Imec gebruiken al sinds eind 2017 de DGX-1, de eerste versie van Nvidia's DGX-supercomputer. Deze voorganger van de DGX-2 heeft een rekenkracht van 960 teraflops, die onder meer wordt ingezet voor deep-learningtoepassingen met camerabeelden.

De grotere rekenkracht die de DGX-2 met zich meebrengt, is volgens Latré nodig omdat we 'in het tijdperk van artificiële intelligentie en deep learning zitten'. Hij legt uit dat de onderzoekers voor het trainen van ai-systemen nu nog vaak uren wachten op resultaten.

Latré stelt dat bij dergelijk onderzoek een goede combinatie van cpu's en gpu's cruciaal is. Dat is waarop de Nvidia DGX-2 zich vooral onderscheidt. Volgens Nvidia is deze supercomputer het eerste systeem dat een rekenkracht van twee petaflops combineert met zestien volledig verbonden gpu's, waarmee de deep-learningcapaciteiten aanzienlijk vergroot worden.

Volgens Jonathan Berte, de ceo van de Gentse ai-onderneming Robovision, is de DGX-2 'de eerste single server ter wereld met een rekenkracht van twee petaflops'. Hij stelt dat de supercomputer van Nvidia een deep-learningverwerkingskracht heeft van meer dan driehonderd conventionele computerservers samen. Berte benadrukt dat dit de eerste nieuwe-generatiesupercomputer is voor een universiteit in de Benelux. Robovision gaat de nieuwe computer onder meer gebruiken voor onderzoek naar het bestrijden van malaria, waarbij de DGX-2 het trainen van de algoritmen aanzienlijk zal versnellen.

Nvidia DGX-2Nvidia DGX-2

Door Joris Jansen

Redacteur

23-01-2019 • 13:55

61

Submitter: Nistel

Reacties (61)

61
57
23
2
0
19
Wijzig sortering
Iemand enig idee wat zo'n ding verstookt?
Ik heb voor de gein eens de verhouding performance / power consumption vergeleken met de nr. 1 supercomputer. Geen idee of het een eerlijke vergelijking is in verband met randsystemen/ koeling/ etc., maar:

Deze NVIDIA DGX-2 heeft 2 petaFLOPS / 10 kW = 0,2 petaFLOPS/ kW = 200 teraFLOPS/kW. De Summit heeft 200.794 teraFLOPS / 9783 kW = 20.5 teraFLOPS/kW. Je krijgt dus relatief veel kracht voor je stroom met de NVIDIA.

[Reactie gewijzigd door g0tanks op 25 juli 2024 02:24]

Waarom zou je tegenwoordig eigenlijk nog CPU's gebruiken voor dit soort berekeningen?
Alleen maar bepaalde type berekeningen kunnen op een videochip worden gedaan.
Cpus zijn veelzijdiger gemakkelijker te programmeren upgradebaar velen malen goedkoper dan een nvidia chip.

World comunity grid / bionic. Doet trouwens al jaren onderzoek naar malaria.
Cool. Voor zo een klein boxje. Herinner mij in lang vervlogen tijden dat we systemen ter grootte van een rack installeerden. 1 keer zijn de mannen van het datacenter komen kijken wat er aan de hand was want het verbruik van de zaal was plots enorm omhoog geschoten. Dingen konden tot 20KW verstoken als ik me goed herinner. Dat viel toen (15 jaar geleden toch) dus wel op :X
Er zitten 16 NVLink Tesla 32GB in, deze hebben een TDP van 300watt dus maximaal een 4800watt

https://www.nvidia.com/en-us/data-center/dgx-2/
https://www.nvidia.com/en-us/data-center/tesla-v100/

Hier staat nog wat meer info:
https://www.nvidia.com/co...vidia-dgx-2-datasheet.pdf
System Memory: 1.5TB
NVIDIA Cuda Cores: 81920
NVIDIA Tensor Cores:10240
GPU Memory: 512GB
Max PowerUsage: 10Kw
Total Storage: 30TB

[Reactie gewijzigd door Brilsmurfffje op 25 juli 2024 02:24]

ik vermoed dat je minimaal bedoeld :p Zoals hierboven al aangegeven is het werkelijk verbruik 10kW :)
Nope, maximaal voor de GPU's en dan is dit al zeer royaal gerekend. Al de rest is dan CPU, RAM, I/O, MOBO, Cooling. Trekt dit nog 5000W?

CPU's hebben een TDP van 205W en er steken er 2 in is 410W TDP.

Dus dan komen we aan 5210W. Zonder RAM IO MOBO en FANS. Reken daar nog 200W (weer enorm overdreven) voor. Dan denk ik dat we er bijna zijn. Nog eens +10% verlies op je voeding = 5951W

Meer als 6000W lijkt me zeer sterk.

[Reactie gewijzigd door BlaDeKke op 25 juli 2024 02:24]

De datasheet zet de max van verbruik op 10 KW, dat is meer dan het dubbele van wat jij zegt.

http://www.fluidyna.com/s.../dgx-2-datasheet-en_0.pdf
Eindelijk eens deftig op 4k gamen :+
Leuke server van NVidia, maar je kan er geen monitor op aansluiten :-)
behalve dan voor het configureren van de server.
Nvidia heeft toch streaming techniek ?
4800 W zijn alleen de GPU's..
Volgens de datasheet van de NVIDIA DGX-2 is de Maximum Power Usage 10kW
(bron)
Grappig, zelf begin van de week door de site van Nvidia gesnuffeld en kwam deze ook tegen. Het meest spectaculaire vind ik nog dat deze supercomputer in een relatief kleine behuizing zit. Hij heeft eerder de grote van een tafel dan van een hele kamer.
En volgens de datasheet wordt hij helemaal niet zo warm

http://www.fluidyna.com/s.../dgx-2-datasheet-en_0.pdf
Er staat niets in die datasheet over hoe warm dat ding word ?
Maar tenzij je hem actief koelt, word het met 10KW. heel snel heel warm :)
Ik wilde bijna dit noemen: Operating Temperature Range: 5°C to 35°C (41°F to 95°F)

Maar dat is het temperatuurbereik van de ruimte waarin ie mag staan....
mss gewoon thuis in de living zetten dan :D
Er staat in binnen welke temperaturen je hem moet houden zodat hij blijft werken. Energie gaat niet verloren dus 10 Kilowatt verbruik door dat ding geeft uiteindelijk erg veel restwarmte die je gaat moeten afvoeren.
Ik vraag me alleen wel af inhoeveere je hier van een "super computer" kan spreken. Het is nog niet eens een rack. Het is zeker een snel ding dat zondermeer. En hij kan ook niet alles wat een conventionele super computer wel kan (aangezien je daar ook heel veel X86 of andere CPU's hebt die je werk kan laten verrichten) De Xenon Platinums die hier in zitten zijn vooral bedoelt om de GPU's van data te voorzien.

[Reactie gewijzigd door Astennu op 25 juli 2024 02:24]

Ik vraag me alleen wel af inhoeveere je hier van een "super computer" kan spreken. Het is nog niet eens een rack. Het is zeker een snel ding dat zondermeer. En hij kan ook niet alles wat een conventionele super computer wel kan (aangezien je daar ook heel veel X86 of andere CPU's hebt die je werk kan laten verrichten) De Xenon Platinums die hier in zitten zijn vooral bedoelt om de GPU's van data te voorzien.
Het hele begrip "super computer" heeft geen enkele betekenis meer, anders dan "hoort bij de top van de wereld". Meestal zijn die computer vrij gespecialiseerd op één specifiek taak, en stellen op andere gebieden dus niet zo veel voor.
Hoeveel Petaflops hangen er in een rack in een normaal datacenter? Dat komt niet hierbij in de buurt...
De super computers die nu in de top 100 staan zijn volgens mij ook in staat hele andere bewerkingen te doen. CPUs kunnen bepaalde zaken die GPUs niet goed kunnen. En GPUs kunnen bepaalde dingen heel veel sneller dan CPU's. Dus pure flops optellen zegt niet alles.

De prijzen van een normale super computer die uit meerdere racks bestaat ligt ook vele malen hoger. Als dit de holy grail en de oplossing van alles zou zijn zouden die bestaande super computers meteen omruild worden voor 2 van deze doosjes en dan bespaar je nog steeds bakken met geld. Maar zo simpel is het niet.

[Reactie gewijzigd door Astennu op 25 juli 2024 02:24]

Laten we het anders stellen, hoeveel gpu power heb je thuis staan?
Tientallen terra flops aan GPUs in de vitrine kast :) maar geen Peta flop nee. Mja ik heb ook geen 400K aan een DGX2 uitgegeven :P
Beetje vreemd nieuwsbericht. Het is gewoon een product van Nvidia wat iedereen kan kopen. Kost (afhankelijk van je contract met nvidia) tussen de €250k en €400k. Waarom is het zo speciaal dat deze uni er een gekocht heeft? Iedereen kan het kopen.

Tijdens de keynote van NVIDIA GTC Europe 2018 liet CEO Jensen Huang precies zien wat je er mee kan doen.

https://youtu.be/G1kx_7NJJGA?t=4089

Erg impressive.
Omdat niet iedereen er eentje koopt en er een persbericht over uitstuurt ;)
Hou er rekening mee dat ik hier niets van ken en dit een serieuze vraag is omdat het op de één of andere manier mijn nieuwsgierigheid prikkelde.

Ik zie op de foto een printplaat met iets wat voor mij op een CPU lijkt. Die printplaat ligt op een doorzichtige buis/cilinder. Wat is die buis/cililnder ? Dient dit enkel als een verhoging ? Ik zie niet meteen een andere verbinding naar/vanuit deze printplaat...

Veel vraagtekens, misschien een eenvoudig antwoord voor iemand die er wel iets van kent.
Ik denk dat het enkel voor de foto is.
Er rondom heen zijn grote koelblokken te zien, ik denk dat de glazen cilinder is om de GPU-PCB te laten zien die normaal dus in het moederbord geprikt is met zo'n grote koeler er opgeschroefd...
Wij hebben zelf een tijdje een afdeling van de UA gesponsord door middel van gratis gebruik van onze test AWS omgeving. Ze gebruikten het in combinatie met zelf geschreven software (in assembler!) voor het uitrekenen van het potentieel van allerhande molecules voor practisch gebruik in een bepaald veld.

Toen zij met ons in contact kwamen was de wachttijd voor het gebruik van de toenmalige supercomputer aan de UA opgelopen tot een jaar... deze nieuwe toevoeging is dus broodnodig en volledig terecht!
vraag me al een lange tijd af wat je nou met zo'n supercomputer nou moet?
Neurale netwerken trainen. Daar dienen deze supercomputers voor. Op een "ordinaire" GTX 1080 Ti kan het dagen duren om een netwerk te trainen dat de DGX-2 op een klein uurtje doet. Je spaart zo kostbare tijd uit van je onderzoekers en kan veel sneller itereren. Onmisbaar in modern AI-onderzoek.
Supercomputer-in-a-box :)
But will it run 4K RTX ON?

Anyway, ben benieuwd naar het prijskaartje.
But can it run crysis ;)
It will.

$399,000
In theorie zou hij dit heel goed moeten kunnen (als een game meerdere gpu's ondersteund), denk alleen wel dat de drivers van deze kaarten zich aanpassen om gameprestaties.

Zou wel heel vet zijn als nVidia een variant zou maken met 4 rtx2080ti's en een i9 als ultiem game monster. (al zal nvidia liever graag business 2 business werker denk ik om dit soort dingen)
Een tesla v100 heeft nagenoeg dezelfde prestaties als een 1080ti in gaming van wat ik kan vinden op het web.

Dus ja hij kan zeker uit de voeten ermee, maar het is natuurlijk niet zo dat deze opstelling je opeens monsterlijke framerates gaat bezorgen, SLI opstellingen schalen niet 1 op 1 , vaak voegen ze zelfs niets toe.
Een Titan V (V100 chip) is toch wel een stukje sneller dan een 1080 Ti. De Titan V zit meer in de richting van de 2080 Ti.
Alleen ondersteund vrijwel geen enkele developer meerdere GPU's.

Het was al jarenlang huilen met SLI en CF wat hit or miss was voor die paar games die dat fatsoenlijk ondersteunde. En zelfs nu DX12 dit native ondersteund, zelfs EPIC of DICE nemen de moeite niet meerdere GPU's te ondersteunen...

En dit komt weer omdat vrijwel niemand multiple GPU's gebruikt om te gamen. De 2de GPU in de meeste laptops is niet krachtig genoeg om een aanwinst te zijn, en de warmte ontwikkeling is dan ook vaak een issue.
But can it run Crysis?
Ondergewaardeerde comment.
Star Citizen in iedergeval wel :+
Crysis is amper multi-threaded, dus dat zal niet zo snel draaien :). Alle AI zit daar op 1 core bijv.

Op dit item kan niet meer gereageerd worden.