Nieuwe top 500-ranglijst van supercomputers gepresenteerd

De 27e editie van de supercomputer Top 500 is vandaag gepresenteerd op ISC2006 in Dresden, Duitsland. De eerste drie posities zijn onveranderd gebleven ten opzichte van een half jaar geleden: het volledig door IBM gebouwde trio Blue Gene/L, Watson Blue Gene en ASC Purple bleek sterk genoeg te zijn om de tand des tijds te doorstaan. Laatstgenoemde verbeterde zijn score zelfs nog van 63 naar 75 teraflops. Er zijn drie nieuwe binnenkomers in de top tien: op vijf vinden we de Franse Tera-10 met 8.704 Montecito-processors (42,9 teraflops), op zeven de Japanse Tsubame grid cluster met 10.368 Opterons (38,2 teraflops) en op positie acht is de Duitse JUBL met 16.384 Blue Gene-processors (37,3 teraflops) nieuw binnengekomen. Neerlands trots Stella is hierdoor afgezakt van de negende naar de twaalfde positie. De gecombineerde rekenkracht van de hele lijst is op dit moment maar liefst 2,79 petaflops, een toename van 65% ten opzichte van een jaar geleden.

Aan de verdeling tussen de soorten processors is duidelijk te zien dat het clusteren van goedkope x86-machines steeds populairder begint te worden voor supercomputertaken. Meer dan de helft van de x86-clusters op de lijst is inmiddels voorzien van 64-bit-extensies en AMD is met zijn Opterons terug te vinden in 23% van de x86-machines, oftewel 16% van het totaal. De enige alternatieve architectuur die de laatste tijd nog succes lijkt te hebben is Power, waar de Blue Gene-machines van IBM op gebaseerd zijn. Maar liefst 240 van de 500 systemen zijn door IBM gebouwd en het bedrijf drukt dan ook een duidelijke stempel op de lijst. Intels Itanium heeft een flinke tegenslag te verwerken gekregen. De reden hiervoor is dat de HP Superdomes van de eerste generatie inmiddels niet meer snel genoeg zijn voor een plaatsje op de lijst, en de dualcore Itanium 'Montecito' officieel pas volgende maand op de markt komt.


ProcessorfamiliesJuni 2003Juni 2004Juni 2005Juni 2006
x86111259 up279 up345 up
...van AMD10%12%9%23%
...met 64-bit extensies10%12%36%57%
Power10278 up77 up83 up
Itanium2059 up79 up37 up
PA-RISC13057 up36 up19 up
Cray109 up94 up
Alpha3916 up5 up4 up
SPARC103 up5 up4 up
NEC129 up7 up4 up

Door Wouter Tinus

28-06-2006 • 13:01

70

Bron: Top 500

Reacties (70)

70
69
34
8
1
25
Wijzig sortering
Op wat voor os draaien die dingen eigenlijk?
unix of linux? en zelf geschreven of gecompiled?
Linux: 73,4%
Unix: 19,6%
Mixed: 4,8%
MacOS: 1,0%
BSD: 0,8%
Windows: 0,4%
De grootste machines in de top500 draaien uitsluitend op gemodificeerde linux kernels.

Mac heeft wel een publiciteitsstunt uitgehaald, maar dat betreft de nodes ervan, de kernel is gewoon linux in principe.
Intel doet het dus toch niet zo heel erg slecht:

8.704 Montecito-processors (42,9 teraflops)
10.368 Opterons (38,2 teraflops)
16.384 Blue Gene-processors (37,3 teraflops)

Minste aantal processors meeste teraflops.
Montecito is wel dual-core he ;)
En de Opteron niet dan?
Montecito wordt nog niet verkocht, laat staan geleverd.
wordt wel geleverd alleen niet aan iedereen. SGI / Bull krijgt ze .
Minste aantal processors meeste teraflops.
Aantallen processors zegt weinig. Je kunt beter kijken naar energiegebruik of prijs.
Energie verbruik lijkt me nou niet een van de meest belangrijke criteria bij het aanschaffen van zulke systemen. Als je al geld genoeg hebt om 9000 itaniums te kopen (a 4000 euro per stuk) dan maakt die energie rekening je ook niet zo heel veel meer uit. Voornamelijk de hoeveelheid rekenkracht per besteedde euro is wat belangrijker.
Juist wel, je hebt een gigantische verbrandings oven in je kantoor staan op deze manier. Als je nou een wat duurdere maar net wat zuinigere berekenaar koopt haal je dat er d.m.v minder energie verbruik weer uit.
Misschien koop je dan juist wel duurdere proc's zodat je op langere termijn kosten bespaart in de hoek van de energieverbruiken?

Dit soort apparaten wordt niet aangekocht om slechts een jaar of twee jaar gebruik van te maken denk ik...
Bij de kleine clusters is energieverbruik natuurlijk een factor.

In de telecommunicatie is energieverbruik zelfs doorslaggevend.

Maar bij de grote supercomputers is het eigenlijk geen factor of dat 1 node nu 1000 watt vreet of 200 watt, daar ze de stroom factor 20 goedkoper inslaan.

Zie tarieven grootgebruik van de energiemaatschappijen.

p.s. natuurlijk waren de oude cray machines wel buiten proporties. per 4 processors rond de 500 kilowatt meen ik me te herinneren: 500 KW = 500000 watt

p.s. de meeste supercomputers zijn 3 jaar goed bruikbaar en dan min of meer al afgeschreven.
Ik denk niet dat bij dergelijke computers energie of prijs de doorslaggevende factor is. Aantal processoren tov prestatie is wel een graadmeter.
integendeel.

die 416 processor machine van onze overheid met 1.3Ghz itanium2 processors zal rond de 15 miljoen dollar gekost hebben.

Die levert maar 2.2 teraflop en dat op *papier*.

Wat in Groningen/Dwingeloo staat kostte zover ik genoemd zag rond de 5 miljoen euro en heeft tegen de 40 tflop en 12288 ibm processoren.

Wat heb je liever?
Eigenlijk gaat het niet meer om de supercomputer zelf, maar om de hoeveelheid geld die men wil besteden aan het aantal processoren... Hoe groter je grid, hoe meer teraflops :Z

Misschien moeten ze maar eens een ranking maken van een supercomputer met 1 processor? Die zal inderdaad niet de waanzinnig hoge snelheden halen, maar dat is tenminste een computer :).
Hoe groot je Grid is maakt niet uit, het gaat erom uit wat voor soort onderdelen het bestaat, zoals HighwayDevil al zegt, maar let wel... Grid betekent multi-domein, multi-user, heterogene omgevingen en gebaseerd op standaarden.
De top500 lijst bestaat momenteel alleen nog maar uit individuele supers of clusters :)

edit:
Een goede reden waarom je niet de individuele CPU wil testen is omdat de efficientie van het hele systeem afhangt van alle componenten. Ook de interconnects tussen twee CPUs.
Op een moederbord gaat het vaak vrij hard tussen 2 CPU's, maar je kan je voorstellen dat de communicatie naar een andere CPU in een ander deel van het systeem een andere performance ratio heeft.
Dus hoe je het systeem getweakt heb is duidelijk afhankelijk op je performance.
Interessant staatje.

Wat mij altijd een beetje stoort is de term "64 bits extensies". AMD64/EMT64 is namelijk gewoon een volledig 64 bits architectuur. Dat de processor terug kan schakelen naar 32 bit doet daar m.i. niets aan af.

Wel interessant verder dat er een Montecito systeem bijstaat in de hoogste regionen terwijl deze proc nog niet eens geintroduceerd is door Intel.
Intel heeft inderdaad een speciale regeling getroffen met Bull om dat systeem op tijd af te krijgen, ondanks het uitstel van Montecito voor de rest van de wereld. Wat betreft de 64 bit extensies: AMD64/EM64T is een superset van x86 en dus wel degelijk een uitbreiding zoals het woord extensie ook suggereert. Niemand zegt dat het niet 'volwaardig' is of wat dan ook.
Die bull supercomputer is een enorm monster van een computer. Het wordt gebruikt om in Frankrijk kernproeven te simuleren.

Het netwerk is geniaal. Quadrics QM500 kaarten, dubbele rail zelfs.

Iedereen heeft het over rekenkracht, maar bij die grote supercomputers telt alleen het netwerk. Bij die grootte loopt de kostprijs van het netwerk snel op naar 4000 dollar per port (dubbele rail).

Welke processor er dan inzit is minder belangrijk. Dat wordt pas belangrijk *nadat* er een goed netwerk inzit.

Op dit moment schalen bij de megasupercomputers alleen infiniband en quadrics goed. De overige netwerken zijn vrij matig.

one way pingpong latency van quadrics voor kleine messages zit rond de 1.33 us versus infiniband claimt nu rond de 2.5 us voor hun nieuwste kaart (maar wat is de PRIJS van die kaart?).

Overigens is mij de prijs ontgaan. Het is goed mogelijk dat de Franse overheid gewoon een open bid gedaan heeft en dat intel die processoren bijna gratis weggegeven heeft aan ze (want met de normale prijs van die itanium2 processoren kun je natuurlijk geen supercomputer bouwen, dat wordt VEEL TE DUUR per node).

Elke node in die bull is overigens een QUAD machine. Dus ik wil HEEL GRAAG weten wat de Franse overheid betaald heeft per processor. Mogelijk maar 1/8e deel van de werkelijke prijs als je ze per 1000 officieel zou inkopen.
Jammer dat de nummer 1 puur wordt gebruikt voor het uitvoeren van simulaties van kernexplosies door de Amerikaanse overheid.

Ze hebben dat ding alleen amar neergezet omdat het minder commotie veroorzaakt en goedkoper is dan het uitvoeren van ondergrondse kernproeven in de woestein van arizona
Wat een verschrikkelijk slecht doel zeg, het simuleren ipv uitvoeren van kernproeven. Straks gebruiken ze zo'n systeem nog om simpele en goedkope dier en mensproeven overbodig te maken. :Z :Z
Misschien bedoelt DKasemier wel dat al die Teraflops voor betere doeleinden gebruikt kunnen worden.
Idd, zoiets zou ik veel beter gebruiken, bijvoobeeld om BF2 met 30000 frames te spelen en te hosten :Y)
Dat lijkt me een heel nuttige toepassing omdat op die wijze er geen echte atoomtesten te hoeven worden gedaan.
Andere supercomputers doen net zo nuttige dingen zoals het voorspellen van het weer en Pi berekenen, lekker boeiend dus.
Welke supercomputer in de top500 voorspelt enkel en alleen het weer of is alleen bezig pi te berekenen?

Geef eens een voorbeeld.

Ik ken er geen.
Er staat er 1 in Duitsland die alleen het weer berekent. In de USA (ik meen bij Los Alamos) hebben ze een partitie alleen aan een nauwkeurigere reperesentatie van Pi gewijdt.

Bij het KNMI in de Bilt staat ook een Shared Memory systeem die alleen weer voorspeld en weersimulaties doet. Althans ... die weersvoorspellingen hebben in ieder geval prioriteit boven het meterologische onderzoek (er wordt immers geld mee verdient).
65% meer rekenkracht dan vorig jaar. Denk daar eens over na.

Dat is bij benadering de wet van Moore!!! en dat vind ik echt bizar. Die man heeft echt een serieus ingenieuze stelling neergezet!
Moore had het toch niet over rekenkracht maar over het aantal transistors op een computerchip?
wikipedia: "De Wet van Moore stelt dat het aantal transistors op een computerchip door de technologische vooruitgang elke 18 maanden verdubbelt."
Ik bedoelde het ook als opmerkelijk dat een dergelijke regel ook van toepassing is op zaken die indirect betrokken zijn bij de wet van moore. Aangenomen dat het fysieke volume van supercomputers gelijk blijft, is blijkbaar de rekenkracht gelijk everedig aan het aantal transistors per inch2
Helaas niet :) Zijn stelling is nu meer regel dan stelling geworden, voldoe je niet aan de wet van Moore... dan lig je er simpel wel gewoon uit.
ok, dan heb ik de oorzaak-gevolg een beetje omgedraaid ;)
AMD doet het goed.

ik vraag me af wat voor systemen achter de vr simulatoren van us defensie zitten. wat voor grafische kaarten, :9
Gewoon Quadro FX 3400 kaarten, maar dan wel 260 van die kaartjes in een visualisatiecluster van Dell Precision workstations, dual Xeon, 4GB RAM. Dat wordt iig bij Sandia gebruikt. En het leuke is dat je dezelfde visualisatie software ook thuis kunt gebruiken, het is namelijk opensource (paraview). Kun je je eigen visualisatiecluster bouwen :).

http://www.nvidia.com/object/IO_19962.html
http://www.paraview.org
Jeej, mn stageplek staat op 12... Stella doet het nog wel aardig :)
Mijn werkgever op de 1e 2e en 3e plek :P
Waarvoor gebruiken ze al die computers eigenlijk?
Misschien kunnen we ze op een idee brengen, }:O anyone? :D
wetenschap
geologie
natuurkunde
medische berekeningen
kern simulaties

al dat soort dingen. Niet echt iets waar je wat aan hebt als gewone mens zijnde :)
En codes kraken.....
De grootste machines worden met name gebruikt om kernexplosies te simuleren. Dus die machines zijn uitermate nuttig en milieuvriendelijk, want ze voorkomen enorme ellende in 't milieu.

Daarna is het zo dat enorm veel rekentijd gaat naar allerlei berekeningen waar electronen in materialen zitten en de weermannen hebben zelf weliswaar kneusachtig slechte machientjes in hilversum, maar ze zouden in theorie ook enorme rekenkracht kunnen gebruiken.

Voor simulaties in die richting wordt veel uitgetrokken.

Extreem weinig gaat naar medische berekeningen. Minder als 0.5% systeemtijd; dit ofschoon veel machines gepresenteerd worden als zodanig.

Daar komt bij dat in Europa veel onderzoek in die richting natuurlijk verboden is; lijkt me ook geen fris gezicht om te experimenteren met apen en hun hersenen terwijl ze nog leven zoals bijvoorbeeld in Ramat-Gan gedaan wordt (maak je geen zorgen, Greenpeace zit daar al bovenop en heeft niets weten te bereiken aldaar) alsmede allerlei genetisch onderzoek is verboden en niet elders in de wereld, dus de totale systeemtijd die nodig is voor de medische wereld alhier is lachwekkend weinig.

Daar komt verder bij dat het gros van deze machines enorm prijzig zijn per node. Al snel rond de 5000 tot 6000 euro per node. Alleen in NL ligt dat bedrag nog veel hoger per node wegens gekneus der heren ambtenaren.

Belachelijk veel, ofschoon je natuurlijk voor 4000 dollar nu bij dell een 5160 compleet geconfigureerd kunt kopen.
Hij zit ruim onder de 3000 als je een niet al te snelle woodcrest erin pompt. Dan nog eens rond de 2000 dollar per port en je bent klaar natuurlijk (als je goed onderhandelt). Dat is dan 5000 dollar, oftewel minder als 4000 euro momenteel per node.

Laat staan dus als je er 1000 van inkoopt, dan ben je nog veel goedkoper uit.

PDSH installeren krijgt elke hobbyist wel voor elkaar en systeembeheerders zat om de zaak te replacen.

Als gevolg hiervan hebben we extreem weinig gflops ter beschikking in Nederland, dus is het een enorm gevecht om wat van de brei te krijgen.

Dit is het grote probleem simpelweg bij die grote machines. Op 1 of andere manier krijgt men het voor elkaar in Europa, een enkele uitzondering daargelaten, om des te groter de machine is des te meer geld te uit te geven per gflop.

Voor hetzelfde geld koopt men in USA een systeem met factor 10 meer processors en geen enkele wetenschapper heeft problemen dan om wat rekenkracht in te slaan, zonder al te veel commissies die moeten studeren op je aanvraag.

Men bespaart daar gewoon elk jaar een paar miljoen op commissies.

Als je je dus afvraagt waarom ons weerbericht dagelijks niet klopt, dan weet je dus waarom.

Tekort aan rekenkracht :)
Als je je dus afvraagt waarom ons weerbericht dagelijks niet klopt, dan weet je dus waarom.
Tekort aan rekenkracht :)
Het is allang aangetoond dat snellere computers het weerbericht niet nauwkeuriger maken, integendeel.Dit komt omdat het weer een chaotisch dynamisch systeem vormt.Kleine oorzaken (rand -en beginvoorwaarden) hebben grote gevolgen (butterfly effect).Je kunt de resolutie wel verhogen door nóg meer rekenkracht te gebruiken, maar dan heb je ook fijnere rand -en beginvoorwaarden nodig (meetpunten etc.) en op een gegeven moment loop je tegen een grens op, je kunt niet elke vierkante meter een temperatuursensor neerzetten of een drukmeter etc.Bovendien worden de onzekerheden in je eindresultaten steeds chaotischer (groter dus), dus moeten de sensoren ook veel nauwkeuriger worden.Dat is practisch en financieel niet haalbaar.Dan kun je wel een kekke IBM neerzetten, maar je voorspelling wordt er geen drol beter van omdat je meetpunten niet fijner kunnen :)
De eigenaars die een toepassing voor hun systeem hebben opgegeven vulden de volgende dingen in: Aerospace, Automotive, Benchmarking, CFD, Database, Defense, Electronics, Energy, Finance, Geophysics, Image Proc./Rendering, Information Processing Service, Life Science, Medicine, Media, Research, Telecomm, Weather and Climate Research, Weather Forecasting, Digital Content Creation, Semiconductor, Digital Media, Gaming en Retail.

Maar van meer dan de helft van de systemen (316) is niet bekend wat ze doen, en het is publiek geheim dat er organisaties zijn (o.a. veel overheden) met krachtige supercomputers die helemaal niet op de lijst verschijnen, om zo niet te onthullen aan de hele wereld c.q. de concurrentie wat ze in huis hebben.
Ach dat valt reuze mee in werkelijkheid.

Bij SGI is berekend was in totaal 1 machine 'zoekgeraakt' van 512 processors. Dit waar ze in totaal enige honderdduizenden processors verkocht hebben aan totale rekenkracht. Minder als een procentje.

Voor het voorspellen van het weer ligt het anders. In sommige landen (ik meen ook Italie) valt de weerdienst onder het leger.

Hoe geheim is iets als je precies weet wat op die machine berekend wordt?

Houdt rekening met veel verkeerde voorspellingen komende tijd als Iran mot maakt :)

Systeemtijd krijgen op van die overheidsmachines is simpelweg niet eenvoudig in Europa, daar ze weinig van die machines inslaan. Ze stellen liever een commissie in, om een vrind een goed salaris te gunnen.

Wat overheden meestal doen als het gaat om encryptie is gewoon een eigen chip bouwen. Dat is factor 10000 sneller als een normale processor. Dat doet men niet in Nederland, want die gaan nooit een goed salaris betalen aan goede programmeurs met goede ideeen.

"je kunt tenslotte niet meer verdienen als de baas".

Overigens vind ik dat in hardware stoppen vrij overdreven, want van een slim nieuw algoritme, daarvan zou ik het liever eerst op een quad aan de praat zien en werkend zien, alvorens het direct maar in hardware te gieten. Erg efficient gaat het er dus niet aan toe.

Daar kan natuurlijk geen supercomputer tegenop.

Ook zijn er veel speciale kaarten om matrixvermenigvuldigingen te doen die veel naar die instanties gaan.

Zo kreeg ik in mijn brievenbus weer een berg emails te verwerken van het bedrijf daniel.kidger@clearspeed.com

Die nu een kaart hebben die tegen de 100 gflop haalt op DGEMM. Ik meen dat de kaart tegen de 8000 dollar zit ofzo. Eind 2005 was er een ander bedrijf dat mij spamde met een kaart die rond de 30 gflop haalde voor ik meen rond de 6000 dollar.

Die prijzen kun je fiks op afdingen als je er 1000 van inslaat natuurlijk.

Die snelheden haal je natuurlijk niet met een supercomputer, laat staan pc'tje, terwijl zo'n kaart achteloos in een pci-x 133Mhz slot gegooid kan worden.

Een bedrijf dat dus echt rekenkracht nodig heeft komt er veel simpeler vanaf als de overheid.

Een goedkoop 8 node clustertje van rond de 40k euro (bij voorkeur quadrics, anders infiniband want dat zijn de enige 2 netwerken waar die switch goed van is als het hele netwerk goed is), met 2 kaarten per node, dan zit je dus al direct aan 1.6 teraflop effectief inclusief een massief groot SATA raid10 array.

Dat voor in totaal ruim onder de 2 ton. Dat is inclusief systeembeheerder.

Dat is dan niet echt een supercomputer, maar simpel clustertje.

Dat is dus effectief sneller als een lompe supercomputer van de overheid, neem nu Aster bij SARA. Die haalt dus op *papier* slechts met het supercluster:

256 processors * 5.2 gflop = minder als 1.6 Tflop

Let wel dat van die Itanium processoren is theoretisch en er vallen nog een berg cpu's uit wegens dedicated tasks (i/o cpu's etc). Verder is de prijs bij de overheid aanzienlijk meer. Dan hebben we 't niet over dat je weer een jaar kwijtraakt aan aanvragen voor systeemtijd en dat je die volledige 256 cpu's gewoon NIET krijgt, of de machine is weer eens down en kan ZEKER niet nonstop 3 maanden voor je iets uitrekenen, want hij crasht geheid in die tijd.

Dus voor 2 ton heb je iets stabiels wat factoren sneller is als wat de overheid heeft voor 10+ miljoen euro, zonder dat enig wetenschapper ooit exclusief kan rekenen op dat ding. In werkelijkheid draaien er allemaal van die 4 processor batchjobs op die supercomputer. Die kunnen natuurlijk stukken sneller thuis op een dual woodcrest dual core machine draaien ($4000 bij DELL voor de 3.0Ghz versie inclusief 4GB ram).

Het enige wat die mega supercomputers hebben dat je zelf niet even snel thuis bouwt is dus mega veel RAM dat je tot je beschikking hebt.

Enige nieuwe generatie algoritmes om 't weer te berekenen kunnen stevig gebruik maken van RAM.

Het budget dat echter uitgegeven wordt aan 't weer berekenen is uitermate zuinig. Effectief berekent men dus op totale outdated hardware in Hilversum iets.
Waar staat mijn PIII 600 512mb 20 GB hd 16 mb tnt2 vga ??? :+
In de top-500 van 1990 zou 'ie waarschijnlijk bovenaan staan ;)

ff nagekeken; eerste lijst komt uit juni '93 (http://www.top500.org/lists/1993/06), snelste computer toen was die van de LANL (http://www.top500.org/system/651) met een peak van 131 GFlops. De nieuwe XBox 360 zou theoretisch een peak van 115 GFlops moeten hebben (http://en.wikipedia.org/wiki/Xbox_360). Nét niet genoeg om in '93 bovenaan te staan, maar ruim voldoende om de tweede plaats in te nemen, stond toen een traag ding met een lachwekkende "peak" van nog niet eens 70 GFlops.
Bedenk wel dat de gigaflops in de lijst gemeten zijn en dus niet zomaar vergeleken kunnen worden met theoretische cijfers. Vooral met gameconsoles worden die nogal eens overdreven. Een Woodcrest op 3GHz kan in theorie 24 gigaflops halen, wat ook nogal mager lijkt t.o.v. die Xbox-chip, maar ik betwijfel toch echt dat hij de praktijk >4 keer zo traag is.
Voor de top500 telt double precision flops met name.

Een XBOX chip haalt in theorie op papier rond de 10 gflop.

In vergelijking de CELL processor die in de PS3 zit haalt rond de 30 Gflop double precision in theorie.

Natuurlijk is gflop een onzinnige maatstaf, maar je zult er toch 1 moeten nemen.

De onzin zit hem hierin dat het gros van de supercomputers voornamelijk matrixvermenigvuldigingen of invariant berekeningen doen en een vermenigvuldiging op de meeste chips is zeer traag. Vaak heb je eigenlijk alleen een snelle 'vermenigvuldiging + add' nodig. Dus "load, vermenigvuldig, add, store'. Die sequence.

Juist die sequence is vrij traag op x86. Het traagst op de P4. Opteron is hij ook nog vrij traagjes. Effectief ben je snel 4 cycles kwijt en er is maar 1 execution unit die vermenigvuldigen kan (op zowel k8 als woodcrest); 1 cycle = 1 clocktick en een 2.4Ghz opteron genereert er 2.4 miljard per seconde.

Dus in plaats van dat je dan tot 3 instructies per cycle uitvoert, of in geval van woodcrest 4 per cycle, dat is natuurlijk wel een verschil van factor 12 tot 16. De oplossing die men snel verzint meestal is om dan de zaak al vroeg te issuen, waardoor die factor 12 tot 16 wel behoorlijk terugloopt.

Nu is het wel zo dat je vaak natuurlijk continue memory loads aan 't doen bent. Een flop = floating point operation. Dus memory loads worden niet meegerekend. Echter in dat soort code, elke paar instructies doe je er wel een of meerdere.

Een erg belangrijke benchmark is dus bijvoorbeeld de DGEMM benchmark.

Die meet gewoon hoe snel je enorme matrice vermenigvuldigt.

Op dit item kan niet meer gereageerd worden.