Nvidia-supercomputer met 80 DGX A100-accelerators moet krachtigste van VK worden

Nvidia wil dit jaar de krachtigste supercomputer van het Verenigd Koninkrijk bouwen, die 8 petaflops aan rekenkracht moet leveren. Hiervoor gaat het bedrijf tachtig DGX A100-systemen gebruiken. De supercomputer komt in Cambridge en wordt beschikbaar voor medisch onderzoek.

De Cambridge-1-supercomputer wordt volgens Nvidia ingezet voor AI-onderzoek naar medische problemen, zoals het coronavirus. Het bedrijf verwacht dat de supercomputer nog eind dit jaar ingezet kan worden en dan acht petaflops aan rekenkracht bij de Linkpack-benchmark kan leveren. Daarmee zou het plek 29 op de Top 500-lijst van 's werelds krachtigste supercomputers innemen en de derde plek in de Green500-lijst. Nvidia stelt dat de AI-rekenkracht op ruim vierhonderd petaflops zal liggen.

Dankzij de modulaire DGX SuperPOD-architectuur, waarbij de DGX A100-systemen worden geclusterd, zegt Nvidia de supercomputer binnen enkele weken te kunnen installeren en werkend te krijgen. Normaliter duurt het bouwen van een dergelijk krachtige supercomputer volgens het bedrijf jaren. De DGX A100 bestaat uit acht A100-accelerators met een totaal van 320GB geheugen. De tachtig DGX A100-systemen worden gekoppeld via Nvidia Mellanox InfiniBand-netwerkapparatuur.

Met Cambridge-1 en de Clara Discovery-software wil Nvidia onderzoekers helpen onderzoek te doen naar medische problemen. De software combineert volgens het bedrijf 'de kracht van radiologie, genomica en medische beeldvorming' om AI-applicaties te ontwikkelen die helpen bij medisch onderzoek. De software kan onderzoek naar medicijnen en vaccinaties ondersteunen, schrijft Nvidia.

Het Amerikaanse bedrijf investeert voor omgerekend 44,1 miljoen euro in Cambridge-1. Tegen CNBC zegt Nvidia vice-president voor gezondheidszorg Kimberly Powell dat het geen 'commercieel plan' is. Meerdere farmaceutische bedrijven, start-ups en academici hebben volgens Nvidia plannen voor Cambridge-1. Onder meer GSK, AstraZeneca en het King's College London met Cambridge-1 willen werken. Cambridge-1 wordt onderdeel van Nvidia's AI Center of Excellence, waar Nvidia ook een supercomputer met Arm-cpu's wil bouwen.

Nvidia Cambridge-1

Door Hayte Hugo

Redacteur

06-10-2020 • 11:04

31

Lees meer

Reacties (31)

31
30
10
5
0
15
Wijzig sortering
Britse overheid moet nog toestemming geven op overname van ARM dus helpen ze met het beslissen door een leuke investering daar te doen.
Het is moeilijk voor te stellen dat men met slechts 80 'off the shelf' units binnen enkele weken de krachtigste supercomputer van het VK kan bouwen, met 400PFlops. Als dat zou kloppen heeft NVidia heeft hier echt hele sterke technologie neergezet.

Ter vergelijking, de huidige snelste supercomputer in het VK is een Cray XC40 met 16PFlops, en het VK werkt momenteel (sinds begin dit jaar) aan een opvolger daarvan die 96PFlops moet krijgen en die in 2022 klaar moet zijn. Die zou uit te breiden zijn naar 288PFlops (klaar in 2028). Zie hier. NVidia zou dus in een paar weken meer rekenkracht neerzetten dan dit project dat pas over 8 jaar klaar is.

[Reactie gewijzigd door Cocytus op 24 juli 2024 21:45]

Die 400 AI PFlops zijn niet te vergelijken met normale super computer PFlops, waarvoor ze trouwens zelfs zeggen dat die 8 PFlops zijn.
De AI FPlops, zijn zeer beperkt inzetbaar voor training neural networks.
Bovendien zijn deze niet 64 bit double precision maar 19 bit floating point (TF32).
Ik zie ook wel dat een XC40 al in 2013 werd geïnstalleerd, dus de basis van de architectuur is al relatief oud.

Als je het linkje van nVidia bekijkt zie je ook:
system capable of delivering more than 400 petaflops of AI performance and 8 petaflops of Linpack performance,
Dus in vergelijking met de rest van de top500 lijst hebben ze maar 8PF. het bericht suggereert ook dat dit de "Rmax" waarde zou zijn, niet de peak. Dit is gebaseerd op het volgende stukje.
which would rank it No. 29 on the latest TOP500 list of the world’s most powerful supercomputers
Die 400PF gaat dus specifiek over AI instructies, waar nvidia specifieke dedicated functionaliteit voor in de chips steekt. Ik weet er niet veel van, maar lijkt me dat die ook maar specifiek ingezet kan worden. Tenslotte: de linpack benchmark kan er geen gebruik van maken.
Modulaire bouw gecombineerd met een applicatie die daarmee on kan gaan geeft dus hele grote snelheidswinst in de installatie. Alleen vind ik het wel weer marketingtaal om nu te gaan schermen met inzetten voor “het coronavirus”. Die vaccins die het moeten gaan doen zijn al lang in ontwikkeling en ergens in het productieproces tegen de tijd dat deze machines online komen. De tijd zit niet in vinden wat werkt, maar maken wat werkt. Veel andere problemen kunnen natuurlijk prima, zoals beoordelen of behandelingen (kosten)-effectief zijn. Jammer eigenlijk dat je nooit wat hoort over de resultaten van dit soort onderzoek.
Is geen marketingtaal kan ik je vertellen, zelfs ver na de productie van een 'corona vaccin' of andere medicatie blijft onderzoek lopen. Denk hierbij aan verschillende strains, zie ook influenza vaccins welke elk jaar 'geupdate moeten worden om zo een bepaalde dekking te kunnen blijven geven, of bijvoorbeeld nieuwe indicatiegebieden. Een soort kankermedicijn kan bijvoorbeeld op meerdere type kankers werken maar daarvoor is een hoop getest nodig. Daarnaast kunnen deze clusters ook ingezet worden voor simulatie van dit soort modellen.

Je stelling waarin je stelt dat 'vinden wat werkt' sneller is dan maken wat werkt is onjuist. Het grootste gedeelte van de tijd zit hem juist in het vinden, ontwikkelen en testen. Denk hierbij aan fase 1-3 trials welke normaliter jaren duren (Gemiddeld 5-8 jaar) voor je productie kan beginnen (Dit is nog exclusief pre-clinical!). Als er een kink in de kabel is tijdens de trials kun je vanaf 0 beginnen of scrappen (wat eerder regel dan uitzondering is). Na de fase 3 en goedkeuring gaat een medicijn of vaccin in productie en fase 4 in, farmacovigilence (doorlopend veiligheidsonderzoek).

Behandelingen die in Nederland ingezet worden dienen kosten-effectief te zijn anders krijgen ze geen vergoeding. Zie ook het ZIN (Zorginsituut Nederland) waar dit soort dure geneesmiddelen in een 'sluis' komen voor ze op de markt/vergoed zijn. https://www.zorginstituut...alistische-geneesmiddelen

Disclaimer: werkzaam in deze tak van sport

Kijk ook voor de grap eens naar de pipelines van bijvoorbeeld AstraZeneca en GSK:
https://www.gsk.com/en-gb...development/our-pipeline/
https://www.astrazeneca.com/our-therapy-areas/pipeline.html

O/T: Mooie ontwikkeling voor de R&D!

[Reactie gewijzigd door Mauritio op 24 juli 2024 21:45]

Je praat over klinische fases 1 t/m 3, dat is allemaal met tests op mensen. Het werkt al (want dat is in het lab op cavia’s en muizen uitgeprobeerd) maar nu wordt er op mensen getest. Het molecuul wijzigt in dit stadium niet meer en AI kan dit niet inkorten. Het enige wat nog wil variëren is de dosering.
Voor het griepvaccin komt er voor de stam selectie gewoon een halfjaarlijkse bijeenkomst van de WHO met een paar laboratoria bijeen. Geen AI, tenminste niet volgens het CDC. https://www.cdc.gov/flu/prevent/vaccine-selection.htm

Ik heb wel eens gezocht naar papers met een correlatie tussen predicted tumor responsiveness and laboratory correlation en kon eigenlijk niets vinden wat me overtuigde van de meerwaarde van computational development voor large molecule pharmaceuticals. Misschien is dat intussen anders, maar ik heb het nog niet gelezen.
Fijn om eens duidelijke taal hierover te lezen!
+2 van mij
Wat ik me nu echt afvraag! Worden die systemen 24u/24u ingezet om berekeningen te maken?
We horen nu al 20j+ over supercomputers voor simulaties van het heelal of medische toepassingen.
Maar lossen ze ook echt dingen op? In hoeverre helpen die zoektochten naar het vinden van de juiste medicijnen?

En ook als we 15j geleden simulaties konden maken die bepaalde ziektes konden oplossen, waarom kunnen we nu dan niet 10x of 20x zoveel ziektes oplossen met deze rekenmonsters?

[Reactie gewijzigd door multipasser op 24 juli 2024 21:45]

Ze zijn wel bijna 24/7 beschikbaar, maar er worden ook testjes op gedraaid om de 'echte' software te ontwikkelen. Dus er worden niet voltijds 'echte' berekeningen gedaan.
Er zijn heel veel (onderzoeks) resultaten gebaseerd op rekenwerk op dit soort computers, maar het levert niet altijd spectaculaire resultaten op. Dat weten de onderzoekers niet van tevoren: als het resultaat al bekend is hoeven ze het onderzoek niet te doen...
Heel vaak zal 'niets nuttigs' gevonden worden, waar dan iemand een boekje over schrijft waarna hij (of zij) zich doctor mag noemen en dat is ook resultaat.
Moet de top500 van de supercomputers niet een verdeling krijgen tussen cpu en gpu? En misschien ook AI performance? Een cpu heeft een veel uitgebreidere instructieset dan een gpu, de ene flops is niet echt vergelijkbaar met de andere flops en cpu's en gpu's in supercomputers hebben andere doeleinden. Het halen van vele flops met een gpu gaat relatief makkelijk, maar dat wil niet zeggen dat het perse sneller en beter is dan een lager geplaatste supercomputer die weer meer gebaseerd is op cpu's.
Wat precies zou die verdeling moeten zijn? Een A100 heeft geen HDMI poort of Displayport. Het is een vectorprocessor, net zoals de AVX eenheid in een Intel CPU. En supercomputers hebben al sinds het Cray tijdperk vectorprocessoren.
Hoe die verdeling er precies uit moet komen te zien laat ik aan de knappe koppen over, ik vraag het mij alleen af, daarom de vraagteken op het eind van de zin. ;) :P
Of heb ik het mis dat een cpu flops niet zomaar te vergelijken is met een gpu flops, dat kan natuurlijk ook. Is de vectorunit van een cpu goed vergelijkbaar, in instructies en mogelijkheden, met wat een gpu voor instructies en mogelijkheden heeft, dat weet ik zo niet uit mijn hoofd. Nogmaals, ik vraag het mij af.
De Linpack benchmark is helemaal 64 bit FLOPS, dat hoeft natuurlijk niet indicatief te zijn voor de performance ranking wanneer je het soort applicaties in beschouwing neemt. Dat zie je ook terug in de specs, 8PFLOPS Linpack en 400PFLOPS AI, wat dat dan ook mag betekenen. Het CPU/ GPU onderscheid waar @Rudie_V het over heeft is natuurlijk arbitrair, maar naast FLOPS, 64 bit is er ook een hele wereld aan complexere berekeningen die in het silicon zijn georganiseerd waarvoor andere indicatoren een andere beeld geven over de relatieve prestatie. Ik denk dat er, zeker met Qbits, een heel andere set aan performance indicators is die veel meer kan vertellen over wat je goed met een HPC kunt doen. Voor het top500 lijstje niet handig, maar wel relevant voor selectie van het best beschikbare cluster voor een vraag.
400 PFLOPS AI is niet zo mysterieus. Elke moderne AI is een neuraal netwerk, de performance van een neuraal netwerk wordt gedomineerd door de matrixvermenigvuldigingen, en die worden weer gedomineerd door de multiply-add instructie. 400 PFLOPS AI is dus 400 biljoen multiply-adds per seconde.
Ja en toch kan dit cluster 50 keer zoveel Flops in Multiply add doen dan in Linpack. Die schaking zie ik niet, want dat is meer dan kwadratisch. Is het op basis van FP16?
Biljoen is 10^12. Peta is 10^15. Dus 400.000 biljoen multiply-adds per seconde.
Maar de hamvraag is natuurlijk:
Can it run Crysis?
of een spreadsheet in excel zonder dat 16.000 besmettingen worden vergeten...
Nee. Grotere, snellere computers verhelpen de limiet van (ruim) een miljoen regels niet.
FS2020 is the new Crysis toch?
Ik denk het niet, Crysis was ontwikkeld met het oog op het steeds sneller worden van CPU's, in plaats van het steeds groter worden van het aantal cores.
Het kan zelfs crysis van een gpu ram drive spelen. ;)

Gamer draait Crysis 3 vanaf het videogeheugen van een RTX 3090
https://nl.hardware.info/...geheugen-van-een-rtx-3090
(ja ik weet dat dit een rtx3090 is en de supercomputer a100's bevat)
Dit is precies wat ik bedoelde.

Mooi dat tegenwoordig de vraag eigenlijk niet: "Can it run Crysis" is, maar "What parts of this thing can run Crysis?". Daarom ook mijn (beetje flauwe) comment, maar het is wel altijd leuk om dit soort memes te zien evolueren tot best gave hardware-experimenten.

Cool voorbeeld Rudie!
Ook altijd leuk om te zien waar ze doom uit 1995 weer op weten te spelen. :)
https://www.gamesradar.co...un-on-literally-anything/

Over 10 jaar crysis op je slimme koelkast of thermostaat of .... :)
Can it run a Bitcoin mining detection script........?
Beetje excessieve specs voor Excel 2003 :+
Ahhh, Daarom kan nvidia de RTX3080 kaarten niet leveren ze hebben alle chips zelf nodig om in hun super computers te steken :)
Allemaal mooi maare can it run Crysis ? }>

Op dit item kan niet meer gereageerd worden.