Grote matrixcalculaties gaan vet sneller op GPU's.
Sterker nog daar heersen ze en delen de lakens uit op de grootste supercomputers ter wereld.
De bandbreedte van een tesla naar de CPU's is ook vrijwel gelijk aan de bandbreedte van de RAM van de CPU node (rond de 20+ GB/s) dus daar is ook geen bottleneck meer zoals aantal jaar geleden wel was, dus elke submatrix kun je supersnel offloaden naar de 6GB ram die een GPU heeft en daar voltooien.
Dus de GPU heeft vrijwel dezelfde bandbreedte naar de CPU ram als de CPU cores zelf hebben; logisch dat dan het bewijs simpel is dat voor matrixcalculaties gpu's dus sneller zijn.
Enige quantummechanica zaken waar je echt vet RAM voor hebt en nog wat uitzonderlijke zaken waar RAM echt nodig is, daar is RAM overheersend.
Hoewel ik ook niet altijd geloof dat dit 100% correct is en klopt, want toen ik er een paar hielp met het optimaliseren van zo'n berekening die zogenaamd alleen single core zou werken en wel de maximale RAM moest krijgen, kreeg ik het ook prima geparallelliseerd.
Dat lukte nota bene binnen 1 middagje. Het ging om een fluid dynamics berekening...
(parallelliseren is 1 van mijn expertises)
Wat wel vaak gebeurd is dat veel instituten niet verder dan hun neus lang is kijken en gewoon een 'specificatie' schrijven van programma 1,2,3,4,5 moet op deze machine lopen.
Logisch dat als daar wat niet-gpu software bijzit dat je dan niet uitkomt op een GPU, zo zal het hier ook wel gegaan zijn
Het is vaak al heel wat als ze geleverde machines ueberhaupt testen op dat hij kan wat er afgesproken is... ...een probleem dat ik in 2003 ook bij SARA constateerde. Dus de Belgen beschuldigen van het nog moeten doorlopen van een leerproces hoe je werkt met supercomputers is niet geheel eerlijk, ze leren veel sneller dan de Hollanders!
Experts inhuren om iets te parallelliseren zie ik Belgie niet doen overigens, dus die specificatie kun je in steen schrijven voorlopig en over aantal jaar weer uit de kluis halen en hergebruiken bij de specificatie van de volgende computer. Belgen geven namelijk nooit kado's weg aan een ander op dit soort nivo, want den Belg legt wel uit dat het tenslotte onmogelijk is om over je schaduw heen te springen.
Bij de NCSA zie je dat ze dan kiezen voor een hybride oplossing. Naar ik aanneem de FFT's van priemgetallen en matrixcalculaties kiezen ze voor de GPU en voor andere toepassingen waar de code gewoon nog alleen voor de CPU er is, of snelle experimentele programmaatjes, waarbij het coderen de zwakste schakel is en gezien de 'run once and test what outcome is' gewoon de moeite niet genomen kan worden de zaak goed te optimaliseren naar GPU code.
Anyway, het is al heel wat dat Belgie ook wat supercomputers bouwt. Lijkt me een enorme vooruitgang voor Belgie!
Aantal jaar geleden had Belgie hoegenaamd geen publieke supercomputers.
Dus de bouw van deze supercomputers is een goede start. Nadat ze die dingen dan een aantal jaar gehad hebben worden ze dan wat meer volwassen in de keuze wat dan wel te bouwen en wat niet handig is.
Dat Gent weinig doet met GPU's verbaast mij. Ik herinner mij om de tafel gezeten te hebben met de hoofddocent bij SARA zo rond de opening van Huygens in NL en het leek me dat het soort software wat ze daar draaien ook voor gedeelte sterk zou moeten profiteren van gpu's, net als bij NCSA.
Zeker niet op het idee gekomen dat je ook hybrids kunt bouwen
Maar goed, echt volwassen zijn ze op dat vlak ook niet bij SARA/NCF/NWO zelf. Komt nog wel.
[Reactie gewijzigd door hardwareaddict op 29 juli 2024 20:30]