Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Aad Offerman

Freelancer

Razendsnel rekenen op je grafische kaart

Cuda versus Cell

Cuda

Op dit moment is Nvidia het verst in de ontwikkeling van gpgpu. Hun Cuda-toolkit is inmiddels de de facto standaard om grafische processors aan het werk te zetten. De Tesla-producten, gebaseerd op de GeForce 8 GPU's, zijn speciaal voor deze toepassing ontwikkeld. Ze beschikken over meer lokaal geheugen en hebben geen video-uitgang. Ook voor de normale videokaarten is echter Cuda-ondersteuning. AMD biedt vergelijkbare mogelijkheden met zijn Stream Technology, dat voorheen bekend stond als Close to Metal.

De afgelopen jaren heeft Nvidia zijn gpu's steeds beter geschikt gemaakt voor general-purpose toepassingen. Zo is de programmeerbaarheid verbeterd en werd shared memory toegevoegd. De belangrijkste uitbreiding voor wetenschappelijk gebruik is echter de ondersteuning van floating-pointberekeningen. Daarbij gaan single-precision-berekeningen inmiddels al behoorlijk snel, maar de double-precision-prestaties zijn nog beroerd. Zo levert de Tesla Personal Supercomputer, voorzien van vier gpu-modules, respectievelijk 933Gflops en 78Gflops. Dat scheelt meer dan een factor tien.

Cell

De grootste concurrent van Nvidia in de gpgpu-markt is IBM. Samen met Sony en Toshiba ontwikkelde dit bedrijf de Cell-processor voor de PlayStation 3. Nadat grootverbruikers van rekenkracht stapels PS3's begonnen te bundelen tot grote rekenclusters, kwam IBM met Cell-processors op een blade. De PS3-systemen concurreren immers direct met IBM's Blue Gene-hardware.

Astron, het Nederlandse Instituut voor Radioastronomie, onderzoekt momenteel bijvoorbeeld of ze hun huidige IBM-supercomputer voor de Lofar-telescoop moeten vervangen door een op Cuda of Cells gebaseerd systeem. De huidige Blue Gene heeft een capaciteit van 42Tflops. Tien ATI 5970-kaarten zouden, als ze optimaal kunnen worden benut, dezelfde verwerkingskracht kunnen leveren.

Dat Astron deze afweging kan maken, heeft te maken met het algoritme voor de verwerking van de rauwe data. Lofar levert enorme hoeveelheden gegevens - met 200Gbps is dit project een van de grootste dataverwerkers ter wereld - maar het gaat daarbij om single-precision-elementen die grotendeels onafhankelijk van elkaar bewerkt moeten worden.

 Prestaties van het LOFAR correlator algoritme op verschillende platforms. [Rob van Nieuwpoort] Verwerkingskracht (in GFLOPS) en geheugen-bandbreedte (in GB/s) voor verschillende nVidia GPU's. [ICG]

Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Auto

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True