Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 52 reacties
Bron: Yahoo! News, submitter: timdeh

Reuters bericht dat vier Europese instellingen hun supercomputers in een grid gaan zetten. Het grote voordeel hiervan is dat op deze manier een snelle computer gebouwd kan worden zonder grote investeringen. Dankzij het samenknopen van de supercomputers ontstaat één nieuwe supercomputer die genoeg rekenkracht heeft om de vierde plek van de supercomputer top 500 op te eisen. IBM verbindt de computers met elkaar door middel van slimme software en een snel netwerk waardoor de software het systeem ziet als één enkel systeem. Verwacht wordt dat het supercomputergrid begin 2005 in gebruik kan worden genomen. Na de zomer zal het grid verder uitgebreid worden met vier andere supercomputers van verschillende Europese instellingen, waaronder de Nederlandse SARA.

Supercomputer van de SARA (Aster)
Moderatie-faq Wijzig weergave

Reacties (52)

Lijkt me wel aardig hoor. Het is vooral interessant voor grand challenges, zoals bijvoorbeeld die van het knmi vorig jaar (60 keer het klimaat van de komende 50 jaar door rekenen op extremen, kostte ongeveer half SARA om dat te doen in 3 maanden). En voor mij is het ook wel tof om met een job van 128 processoren niet in de queue in Amsterdam te hoeven staan terwijl z'n vriendje in Barcelona uit zijn neus staat te bikken :)
Bij veel rekenjobs is communicatie niet extreem belangrijk. Leg er een 10-gigabit netwerkje tussen en je bent klaar .

edit:
Die vierde plek is niet zo moeilijk, de barcelona compu staat al op 4 of 5 dacht ik. En als je een benchmarkje runt en je bent inclusief communicatie de snelste - en da's het criterium - dan heb je gewonnen :)
(60 keer het klimaat van de komende 50 jaar door rekenen op extremen, kostte ongeveer half SARA om dat te doen in 3 maanden)
Valt wel mee hoor... 256 CPUs in een periode van 2 maanden... dat is een kwart van TERAS, dus nog geen tiende van de huidige supercomputer capaciteit die daar totaal staat...

Oh, en het was over de periode 1940 - 2080, dus iets langer. Goed voor bijna 8.5TB aan data...
256? ik dacht 512. Maar goed, dit was op het moment dat aster nog niet goed in gebruik was, en dan was het nog altijd een kwart van teras. (En het was maar een voorbeeldje, natuurlijk.)
Het is toch zo dat het hele super-computer idee om de lage latency's draait.
Veel snelle nodes die snel en efficient op elkaar aangesloten zijn hoge trhoughput en lage latency.

Het lijkt me niet zo dat deze supercomputers super-efficient zullen gaan werken, maar ondanks de hogere latency over (inter)nationale verbindingen zal er zeker een snelheidswinst zijn bij complexe taken.
In principe zou je taken kunnen verdelen over die 4 supercomputers. Dat zou ongeveer hetzelfde zijn als de methode om een video te coderen door verscheidende pc's in je netwerkje te gebruiken.

Overigens ben ik het eens met de stelling of je op deze manier wel de 4de plaats verdiend, het mag dan wel kunnen, maar voor mijn gevoel is het niet volledig eerlijk.
Op die manier kun je dat koeienspul en SETI@home inderdaad ook wel bij de supercomputers gaan tellen
En zo moet je dat ook zien. Reken maar eens uit wat voor supercomputer je krijgt als je al die onnuttige projecten bij elkaar optelt van berekeningen/sec.
Alle huidige supercomputers zijn verzamelingen van losse computers. Het enige echte verschil is dat ze nu de kabel tussen de verschillende nodes wat langer maken :) Dus ja, dit is inderdaad één supercomputer
Nee, maar je kan ze wel deelopdrachten geven en de uitkomsten op 1 centrale plek binnenhalen en analyseren..
zonder grote investeringen??
een snel netwerk aanleggen over honderden kilometers is niet goedkoop hoor.

Oke tuurlijk kost het minder dan de bouw van een nieuwe supercomputer, maar inplaats van dat je 4 supercomputers hebt, heb je er nu nog maar 1 :S. Het is ook een truc om hoger op die top500 te komen.


Als je de kosten van het clusteren vergelijkt met de meeropbrengsten qua rekenkracht, zal het denk ik niet veel beter zijn dan de aanschaf van een nieuwe supercomputer
Het is dus puur een truc om hoger op die top500 te komen.
Denk je echt dat die mensen het interesseert op welke plaats ze in de top 500 staan?? Ze willen rekenkracht hebben. Daar kun je iets mee, met een 1e plaats geen zak.
-zeikmodus-
de eerste plaats betekend automatisch de meeste rekenkracht!!
imho zijn er twee mogelijkheden: ofwel maken ze gebruik van het bestaande netwerk, wat het meest waarschijnlijk is aangezien ze begin volgend jaar al online willen zijn, ofwel kaderen ze de aanleg van het netwerk binnen een groter project (het is immers zinloos voor zo 1 projectje een hele glasvezelinfrastructuur de grond in te rammen). Ook in het laatste geval worden de hardware-kosten gespreid over de (potentiële) gebruiekrs, waardoor het kostenplaatje binnen zo'n project nog redelijk meevalt.
Natuurlijk gaat het hier sowieso om een project van vele duizenden euro's... alleen al de prijs van de ontwikkeling en de bijkomende switching en routing apparatuur telt snel op. Maar je mag niet vergeten dat ze voor zulke projecten in net iets andere grootordes denken dan de gemiddelde tweaker voor z'n pc'tje ;) weinig voor die mensen is nog steeds heel veel voor onze portefeuille ;)
zonder grote investeringen??
een snel netwerk aanleggen over honderden kilometers is niet goedkoop hoor.
Dat kan zijn, maar er ligt nog altijd heel erg veel ongebruikte glasvezel onder de grond. Ik denk niet dat ze speciaal nieuwe kabels gaan leggen, maar gewoon capaciteit zullen huren op bestaande snelle verbindingen.
Waarop baseer je die stelling van clusteren....meeropbrengsten...en aanschaf nieuwe supercomputer ?
De enige motivatie die ik ken om in de top 500 te komen is bijvoorbeeld voor IBM om hun superbakjes te promoten. Daar is hier geen sprake van

XoloX
een snel netwerk aanleggen over honderden kilometers is niet goedkoop hoor.
Er is niet per definitie een snel netwerk nodig om een snelle computer te bouwen die bestaat uit meerdere losse computers.

Lijkt mij dat je juist zo min mogelijk netwerkverkeer wilt hebben, om zo efficient mogelijk te kunnen rekenen...
Het zal vast niet beter zijn dan het aanschaffen van een neiwue supercomputer?

Waarschijnlijk heb je gelijk, ik ga er tenminste vanuit dat jij beter kan hoofdrekenen dan de mensen van o.a. het nationale rekencentrum SARA :+

Sorry hoor, maar je klinkt behoorlijk stom...
Hoofdrekenen? Zou jij nog hoofdrekenen met zo'n rekenmachine voor je neus?
Worden die dingen ook nog eens voor wat nuttigs gebruikt, of staan die alleen maar stroom te vreten en nerderige berekeningen uit te voeren voor toepassingen waar niemand iets aan heeft.

Dat is toch allemaal belastinggeld wat daar staat, laat mij daar dan eens mee gamen, stelletje gierige corporate-megalomaniacs die alle power voor zichzelf houden.
Gister op de sara superdag geweest.... Praatje van de gasten van LOFAR, die met heel veel radioteloscopen het heelal afscannen, en tegelijkertijd er nog wat geologische sensoren op het netwerk hebben zitten, van CERN mensen (Hoge energie fysica), Vloeistofmechanica (zijn ze bij shell weer blij mee), farmaceutische industrie (welk stofje kan een enzym blokken, scheelt miljarden $$), en zo nog wat. Afgezien van de technische spin-off: Persoonlijk zou ik dus zeggen van wel :)
Is dit eigenlijk niet gewoon een supernetwerk dan?
Bedoel zo kan je aardig wat door blijven koppelen.

Naja, ben benieuwd wat ze ermee gaan doen.
Zal vast iets met pr0n te maken hebben ;)
Wat dacht je van onderzoek voor kerntechnologie (wapens en energie), kanker, overige ziektes, DNA e.d?
Nee. Geen supernetwerk en zo.
Wanneer je die analogie zou doorzetten, zou je ook kunnen zeggen dat DPC een supercomputer is.
Dat gaat niet op, omdat de DPC-clients zich niet bewust zijn van hun medestanders. Elke node werkt onafhankelijk, met eigen data. Bij een Grid ligt dat anders. Een Grid lijkt meer op een beowulf cluster, waar DPC het vele handen maken licht werk principe hanteert.
We hebben thuis 3 computers, is het dan ook niet mogelijk om die aan elkaar te koppelen? Dan zou ik lekker snel video kunnen encoden :) mja ik denk niet dat hier software voor is voor de particulier.
Kan en is ook gewoon software voor oa Beowulf als ik me niet vergis.

Maar of je er sneller mee gaat encoden betwijfel ik :)
Adobe After Effects heeft al tijdje zo een functie aanboord, maar het heeft ook zo z'n beperkingen..
Laatst was er een NL computerblad (gevonden: Chip 11-2004) dat hieraan een artikel had besteed. Speciaal daarvoor gekocht :)
Kon je per PC een deel van de video encoden en dan later automatisch samenvoegen. Moest wel rekening houden met UNC paden, ipv lokale paden.
Misschien wel aardig voor de mensen die wat meer willen weten over de netwerktechnologie die ontwikkeld wordt voor dit soort grids:

www.netherlight.net

Optische paden direct tussen de verschillende locaties waar delen van zo'n grid staan. Geen tussenliggende ('trage') routers, gewoon directe dedicated, 'platte', volledig glazen point-to-point verbindingen van meerdere gigabits waar je elk protocol op kunt draaien wat je wilt.
Ik ben benieuwd of de routers in dit geval veel uitmaken. Als vuistregel kan je stellen dit elke 200km afstand tussen de nodes voor 1ms vertraging zal zorgen. Voor een supercomputer is dit een eeuwigheid, die een ernstige belemmering is voor een aantal applicaties. Geef mij maar een "echte" supercomputer.
Op snelheden van 10G en meer, zijn routers in elk geval flinke energie-slurpers en erg duur. Daarnaast zal een actief netwerk-component altijd latency toevoegen, ookal is het weinig. Ik denk dat zeker op internationale verbindingen een packet door tientallen devices gaat (in traceroutes zie je alleen de routers); dan gaat het zeker aantikken.

Routers en switches worden wat dat betreft vaak vergeleken met broodroosters: in een sitiatie zoals deze doen ze eigenlijk niets meer dan warmte produceren (en veel!); Het is dus lonend een pad aan te kunnen leggen zonder 'broodroosters'. Door gebruik te maken van 'lambda networking' (zie link hierboven), kan een volledig glazen verbinding verkregen worden zonder tussenstappen (licht->electronisch->licht), maar puur licht (golflengte/lambda) switching.

Als je een dedicated link wil tussen twee locaties, is het dus wenselijk om dat niet door routers heen te hoeven leiden. Multi-gagabit routers zijn behoorlijk kostbaar en hebben een aantal nadelen; als je ze eigenlijk niet nodig hebt, kun je ze dus maar beter weglaten. Met Lambda-technologie kan dat, zonder dat je gebonden bent aan directe glasvezelverbindingen tussen beide locaties. Er kunnen dan redelijk dynamisch dedicated verbindingen tot stand gebracht worden over bestaande glasvezel-infrastructuur. Zie verder link hierboven.
Dit is wel interesant. Als ze die servers via "slimme software" aan elkaar kunnen knopen kan in de toekomst die "slimme software" wel gebruikt worden in het internet, misschien ter vervanging/verbetering van tcp/ip.
Die slimme software zal zorgen voor de interactie tussen de systemen zelf. Ik veronderstel niet dat deze nieuwe transport technieken met zich meebrengt.
Het zou even goed kunnen dat het op TCP/IP loopt. De snelheid van TCP/IP is trouwens afhankelijk van het medium waar het over gaat.
Misschien is dit op termijn wel de toekomst van het hele internet gebeuren, PC's worden steeds sneller en staan voor het grootste gedeelte maar te idlen. Misschien wordt dit ook wel zoiets als het DPC op het gathering forum, allemaal gekoppeld folden voor de "goede zaak".
Zal wel op veel manieren gaan gebeuren.
Met al die multi processoren gaan de programma's ook dat ondersteunen. Daarna is het nog maar een kleine stap naar echte distributed processing. :)

Dus niet alleen voor 'grote berekeningen', maar ook voor compilen of misschien zelfs Office.
A more powerful, faster computer, will allow scientists at the institutes to perform research that would otherwise have been impossible
Hoezo onmogelijk? Het duurt op een enkele machine alleen langer; misschien langer dan men er op wil wachten. Maar onmogelijk is wat anders.

Het betekent tevens dat de afzonderlijke machine niet (geheel) gebruikt kunnen worden voor andere toepassingen, op het moment dat ze samen aan één enkele toepassing werken.
Ik had toch het idee dat de meeste supercomputers weinig idle staan. Maar misschien ben ik niet genoeg op de hoogte ...

Het duidelijkste voordeel dat ik zie is flexibiliteit.
Ik denk dat je ook moet bedenken dat deze nieuwe supercomputer grid meer geheugen heeft. Dus als een gebrek aan geheugen het oplossen onmogelijk maakt kan meer geheugen het probleem wel oplossen

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True