Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties
Bron: AMD

Eind mei maakte we al melding van een Supercomputer opgebouwd met AMD units welke samen het PRESTO III cluster vormde. Deze cluster vinden we nu terug in de Top 500 van de supercomputers. Het systeem is opgebouwd met 78 AMD Athlon CPUs geklokt op 1.33GHz. Met een LINPACK score van 77.4 weet het cluster de 439ste plaatst te bemachtigen. De supercomputer doet zijn werk in Tokyo met onder andere als taak berekeningen uit te voeren ten behoeve van wetenschappelijk onderzoek:

The PRESTO III is employed at the Matsuoka Laboratory of the Global Scientific Information and Computing Center and the Department of Mathematical and Computing Science. It runs simulation and scientific applications such as operations research, high-energy physics, and neuroscience. "Upon launching the project, we evaluated many solutions and concluded that the AMD Athlon processor was the best choice in terms of performance and stability. We are delighted that our PRESTO III cluster has become the first AMD Athlon processor-based computer to make the Top 500 list," said Dr. Satoshi Matsuoka, who led the PRESTO III supercomputer initiative. "We are grateful to our research sponsor, the Japan Science and Technology Corporation, for support throughout the PRESTO program, and to AMD for providing the processor technology. Our hope is to move up on the Top 500 list for the second half of 2001."

Volledige bericht vind je terug bij AMD.

Moderatie-faq Wijzig weergave

Reacties (55)

Ik vind de naam 'supercomputer' eigenlijk een beetje misleidend, omdat we eigenlijk te maken hebben met een cluster van computers.

Vandaar dat de #1 in het rijtje (de comp van IBM) een gymzaal vol computers is.

Bij een supercomputer denk ik meer aan zoiets, ondanks het feit dat hier waarschijnlijk ook wel een aantal clusters in gebouwd zijn lijkt het toch meer 1 computer...
Hmm... Volgens mij is het vrijwel nutteloos om systemen te bouwen met zo'n massaal aantal CPU's op 1 enkel platform (dus veel CPU's, maar niet in cluster-opstelling). De reden is dat de verschillende CPU's dan mooi beheerd moeten worden (qua memory-access en zo meer) en dat de tijd besteed aan dat beheer toeneemt met het aantal CPU's dat parallel draait.

Op den duur kan men verwachten dat een CPU toevoegen geen nuttige bijdrage meer levert aan de performantie van het systeem.

Beter is dan de CPU's te groeperen in aparte groepen (clustering) die volledig parallel laten draaien. Dan kunnen ze "beperkt" met elkaar communiceren... Dat is, volgens mij, de reden dat clusters vaak betere prestaties leveren (tegen een pak minder poen en met een veel makkelijker onderhoud) dan monoliete systemen.
Ze leveren alleen betere prestaties als je het vergelijkt met de poen die er tegenaan gegooid wordt hoor.

De netwerkvertragingen in een cluster zorgen gewoon voor een groot verlies.
Als je die echter op weet te vangen met een slimme programma-structuur (zo min mogelijk communiceren tussen processen, wat overigens erg moeilijk is) dan maakt het verder weinig uit.
Als je dnetc als voorbeeld pakt, dat zou inderdaad waarschijnlijk sneller draaien op een cluster van 1024 p3's, dan op een supercomputer van 1024 p3's (als dat technisch mogelijk zou zijn natuurlijk)
Wat maakt 't nou uit of het losse nodes zijn of dat de hardware in n grote kast is ondergebracht. Met een Beowulf cluster van simpele x86 nodes worden tegenwoordig erg goede resultaten gehaald terwijl de prijs veel lager is. Het cluster functioneert als n grote [super]computer.
Dat maakt best nog wel wat uit.

Bij de software ontwerp voor een cluster moet je meer rekening met "traag netwerk" (dus zo min mogelijk en liefst zo veel mogelijk tegelijk communicatie tussen de nodes hebben) houden.

Bij een grote supercomputer, is het interne netwerk vaak een heel stuk sneller, waarbij je meer en makkelijker intern kan communiceren.
Maar ook traditionele supercomputers maken gebruik van dit soort ontwerp. Maar omdat ze proprietary hardware kunnen maken, kunnen ze de communicatie tussen processoren optimaliseren en daar wat minder verlies op draaien. Ook hier moet je trouwens rekening houden met het feit dat het op meerdere processors draait. Of eigenlijk doet je compiler dat.

Volgens mij kan dat ook voor een beowulf cluster, dat de compiler hem optimaliseert
Volgens mij moet je toch echt zelf ervoor zorgen dat je programma op meerdere cpu's _kan_ worden uitgevoerd.
Dat dit dan vervolgens via MPI (of iets dergelijks leuks) doet, is inderdaad weer wel "onafhankelijk"van het feit of het een cluster of een supercomputer is.
Echter, moet je je niet vergissen in de verschillen in snelheid van de netwerken in die computers.
Een beowulf draait normaliter met een 100Mbits netwerkje terwijl een supercomputer vaak enkele gigabits kan versturen, ook nog es met vaak veel minder hops (switches ertussen) en zowiezo kortere afstanden.
Daarnaast nog es met betere protocollen (geen tcp/ip dat is veel te sloom voor hoge snelheden op een zeer betrouwbaar netwerk).

Je kunt en hoop grappen met je compiler uithalen hoor, maar een programma zomaar ineens op een cluster laten draaien is daar echt niet bij.
Zelfs niet, als het programma wel multithreaded/multiprocessed ontworpen is.
al je een 100 Mb netwerk neemt is dit (standaard) even snel als de interne verwerking van de gegevens van een suppercompu. (8>
Nou Femme, aan de ene kant klopt dit maar aan de andere kant niet. Een normale supercomputer (zeg maar een super SMP bak) kan bepaalde taken wel uitvoeren die een cluster duidelijk niet kan. Ik noem hier bijvoorbeeld realtime hele gedetailleerde 3D beelden genereren. Met een cluster levert dit veel te veel vertraging op en is 1 computer sneller.
Een voordeel van een cluster is dat het veel stabieler is. Als er eens een node uitvalt, ja ach dan heb je er nog een heleboel over. Je fixt de kapotte even en het draait allemaal lekker verder. Maar een aantal applicaties zijn dus uitstekend geschikt voor clusters. Wetenschappelijke berekeningen en modellen enzo zijn ook zeer lastig op een cluster te doen, omdat de ene computer uitkomsten van anderen nodig heeft. Dit kan dus zo;n gigantische opstopping op het netwerk veroorzaken dat het geheel voor geen meter meer werkt. De allerbeste toepassing van een cluster is natuurlijk de database en webservers (Google, Tweakers, etc...).

BTW: ik vind het wel een supercomputer, maar toch minder ;)
Je gaat er vanuit dat een supercomputer 1 processor heeft, maar zodra hij er meer heeft gaan andere dingen spelen.
2 PIII's zitten bij MP op een 100Mhz bus, als je 2 single systemen koppelt met een +1 Gb link is het verlies aan snelheid relatief gering.
Zolang je niet hoeft te wachten op de verbindingen tussen de systemen maakt het niks uit.
Real-time dingen doen is op een cluster altijd lastig, maar is eigenlijk nooit nodig. Zelfs bij tv is een vertraging van een seconde helemaal geen probleem. Kijk alleen maar eens naar die straal verbindingen.
Jullie hebben wel grote gymzalen ;)
PRESTO IV project:

100 1,4 Athlon 4 MP procs
50 Tyan K7 Thunder in 50 1U racks...

Deze zal nog wat beter worden denk ik zo.. ;)
en kleiner...jammer dat het net iets meer is dan in een standaard rack past (iets van 46 geloof ik)
meestal 42 of 21 .

neem nou de ds10l , de 1u alphaserver van compaq,

er staan in nederland tientallen opstellingen met 42 van die dingen hoor, dus 42x alpha in een rack ..
Leuk, in al deze topics komt de }:O wel weer aan de orde.

Info: En supercomputer met 78 Athlons op 1,33GHz zal per dag zo'n 110.000 blokjes kraken (grove schatting). Dat is minder dan sommige deelnemers/teams per dag weten in te leveren. Nog altijd leuk meegenomen, maar echt veel zoden zet het niet aan de dijk.

Als je het omdraait, klinkt het wel weer leuk: AT heeft een kudde van 8-10 van deze supercomputers nodig om op gelijke voet met DPC te komen.

MetalStef
Nou, waar wacht je dan nog op: ASSIMILEREN DIE HAP :P }> :)
Toch gaat dit ding nooit in de top 50 staan:

Een supercomputer zoals een Origin 3000 van SGI bijv. bestaat uit heeel veeel CPU's (vanaf 50 tot enkele duizenden volgens mij), deze maken samen gebruik van een shared memory pool (een gieg ram kost je wel zo'n ton ofzo...) en een gigantisch snel interface tussen elke processor met een soort centrale bus (hoe dit is opgelost ligt heel veel aan het type supercomputer). Hoe meer processoren je hebt, hoe meer je dus afhankelijk bent van de maximale snelheid van de bus en de maximale snelheid van je geheugen. Die cluster hierboven maakt max. gebruik van een gigabits netwerk en elke node heeft ook zijn eigen ongedeeld geheugen, (je hebt dus ook heel veel traffic op je netwerk door het syncen van geheugen van je nodes. De "processor bus" van een "simpele" vector bak kan makkelijk het 8 voudige aan. Een cluster kan dus volgens mij nooit een grote vector bak als bijv. een Cray T3E of een Origin 3000 verslaan.
Griebels:
deze maken samen gebruik van een shared memory pool (een gieg ram kost je wel zo'n ton ofzo...)
Valt wel mee met dat memory, ik heb momenteel 512 Mb een half jaar geleden voor ongeveer 520 gulden gekocht. een gieg is maar 2 x zoveel. Op onze computers kost 't ongeveer 5000 per gieg (ECC!!) dus een ton :?

't Duurste zal het design en de ontwikkeling van het MB zijn: hoge propriety gehalte vanwege de speciale tricks die worden uitgehaald die je normaal niet zult of hoeft te gebruiken.

Inderdaad hoe meer processoren hoe meer administratie, op een gegeven moment zijn er in een cluster netto 10 processoren aan het werk met de administratie, en wat dan nog? Je plugter dan toch ff 11 bij (een extra voor de overhead) en dan is dat ook weer gedekt.
\[off-topic]
Noop.. ik heb gelijk ;)

Origin 3000 geheugen is onbetaalbaar duur, het is wel wat anders dan geheugen dat je in je huis-tuin en keuken pctje stopt hoor... het is ook niet te vergelijken met geheugen uit een high end workstation... 1 GB kost dus snel een ton! Let wel: dag geheugen moet honderden gigabits per seconde kunnen pompen en dat met 200 processoren o.i.d. tegelijk... dat verwacht je niet van je SDRAM geloof ik. Het ziet er ook wat anders uit dan SD-RAM of whatever je gebruikt tegenwoordig in je PC.

Maar als je al een origin 3000 in je garage hebt staan, dan heb je sowieso al heel veel miljoentjes uitgegeven en maakt een ton meer of minder ook nix meer uit...
\[/off-topic]
Dit hangt in zeer sterke mate van je probleem af wat je wilt oplossen...
Er zijn genoeg problemen te vinden waarvoor slimme algoritmes beschikbaar zijn, waarmee weinig communicatie tussen de nodes nodig is.
Je kunt ook bv de communicatie tussen de nodes verminderen door extra aannames te doen... Bv bij md simulaties niet voor iedere tijdstap alle posities, snelheden etc updaten, maar om de X stappen.... Je kunt dan langer lokaal blijven rekenen.
Een beowulf-achtige aanpak maakt 'super-computers' beschikbaar voor kleinere groepen, omdat de hardware zo ontzettend goedkoop is ten opzichte van een SGI...
Even ter informatie wat prijzen...
Een sgi origin 200 nieuw fl 44.000,- (nu aanbieding 29.000,-)
Een sgi origin 200 (4 nodes) fl 123.000,- (nu aanbieding 80.000,-)

Ik geloof dat je daar een redelijk clustertje standaard pc-tjes voor aan kunt schaffen...
Zeker hangt dat veel af van wat je ermee wilt doen, je kunt berekeningen optimaliseren zodanig dat het meeste lokaal kan worden afgehandeld, toch zie je dat bij de meeste berekeningen veel sync boodschappen moeten worden gestuurd en ook heel veel data heen en weer wordt gepompt... Volgens mij blijft het een feit dat de snelste "echte supercomputer" altijd sneller is dan bijv. een cluster van "eenvoudige pc's". Ik ben er zeker niet op tegen op dit idee, want het is factor 10 goedkoper als je het een beetje goed aanpakt, echter is de bruikbaarheid als supercomputer een stuk beperkter. Het is trouwens ook veel moeilijker om efficiente software te bakken voor een cluster. Er zijn trouwens ook zaken waarbij een cluster veel beter is dan bijv. een vector machine... het renderen van een intensief 3D filmpje bijv. Dan laat je elke machine een eigen frame renderen... een cluster is gewoon altijd dan beter als je veel totaal van elkaar los staande operaties moet uitvoeren.
Ja dus? Dat is toch ook geen vergelijking? Een Fiat Panda van 20k zal een Ferrari van 300k nooit bij kunnen houden.. So What.. :?
Misschien moet onze nieuwsposter maar eens hier gaan kijken: http://www.tweakers.net/reviews/227
Persberichten

Oeverloos geblaat van bedrijven waarin ze vol trots uitleggen hoe geweldig ze zijn en hoe perfect hun producten wel niet zijn. Vaak worden deze teksten opgesteld door marketingjongens die absoluut geen idee hebben waar ze over praten. Het "Wauw Jim, is dat niet gewldig" call-tv effect. Nee, het is niet geweldig. Als je door de wollige teksten heenprikt blijft er vaak bagger weinig over om trots op te zijn. Zelfs grove fouten weet men in dit soort teksten nog om te toveren tot geweldig positieve evenementen. Natuurlijk gaat het om de informatie die achter de tekst zit, maar veelal zijn dit slechts een paar zinnetjes in plaats van twee pagina's.
Waarom moet ik daar gaan kijken? Ik snap deze nutteloze quote niet echt.

Het is gewoon een melding van een cluster welke in de Top 500 van Supercomputers komt. Wat blaast AMD hieraan op volgens jou? En dit is ook nog eens gemeld en getest door de onafhangkelijke organisatie die de Top 500 in beheer heeft.

* 786562 Rene
Dit is geen nieuws voor de frontpage, dit is een grappig topic voor het forum.
Sinds wanneer bepaal jij dat? We hebben niet allemaal dezelfde intersses als jou....
Zijn toch echt de woorden van Wouter :P
Dus elk nieuwtje wat een Persbericht als bron heeft moeten we niet plaatsen? Dat was trouwens ook niet de kern van het stukje van Wouter. Was alleen als waarschuwing bedoelt...

Daar komt bij dat AMD in dit bericht weinig onwaarheden kwijt kan, plaats 439 blijft 439. Anders lees je even wat je quote..
Het trieste serieuze antwoord:

heel weinig ;(

Omdat deze supercomputer cluster alleen geschikt is voor een soort distributed.net aanpak van berekeningen is het niet mogelijk om snelle low latency en high bandwidth berekeningen te maken zoals 3Dmarks dat eist.

Het netwerk, waarmee deze computers zijn verbonden, zou de immense datastroom van realtime 3D berekeningen niet aan kunnen. Verder zou je alle berekende fragmenten weer moeten assembleren op een hele snelle machine en er bovendien voor zorgen dat alle cluster units perfect gesynchroniseerd zijn.
Als er geen DirectX op geinstalleerd is waarschijnlijk 0
Toch leuk: Nederland op de 7e plek !!!
"We are grateful to our research sponsor, the Japan Science and Technology Corporation, for support throughout the PRESTO program, and to AMD for providing the processor technology. Our hope is to move up on the Top 500 list for the second half of 2001."

Moet ik hier uit opmakken dat AMD de cpu's gegeven heeft? of ze er toch mooi voor hebben moeten betallen. goed voor AMD trouwens goede reclame, als het eerste schaap eenmaal over de dam is volgt de rest vanzelf
Nu even de echt relevante informatie }:O

Het aantal keys/s dat dit clustertje ongeveer kan halen is:
1333 Mhz x 78 CPU's x 3,54 keys/mhz ~ 368Mkeys/s

En dat is ongeveer 118K aan blokjes per dag!!! :9 B-)

Nog ff je zakcentjes sparen jongens en dan kunnen we vast wel zoiets kopen.
Met korting op naam van een Non-profit organisatie (dus BTW vrij) en omdat je zoveel koopt vast ook nog korting!

Kan iemand uitrekenen hoeveel dit kost? En hoeveel elke DPC member dan zou moeten doneren? :P
Draait ook nog met linux!! zie pic
Letten we op de centjes met onze supercomputer.
:)
Draait volgens mij 9 van de 10 keer op Linux/Unix... Zo niet altijd :?

Beowulf is een linux project dacht ik...
En de naam van de redhat 6.1 distributie :)
Is eigenlijk wel een goedkope boel hierzo
met ventilatoren aan de zijkant om frisse lucht toe te blazen

maar doet het vast goed als ze naast de gewone software ook nog een }:O
gingen draaien
Wat zou dat ding in games doen....

En wat kost zo'n ding eigenlijk ongeveer....
Wat zou dat ding in games doen....
Niks waarschijnlijk want er zit geen videokaart in en spellen werken niet in clusters. Is de zoveelste die dat opmerkt, maar het kan gewoon niet.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True