Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties

De Japanse K Computer, een supercomputer die door Fujitsu is gebouwd en over 68544 octocoreprocessors beschikt, heeft de Chinese supercomputer Tianhe-1A van de eerste positie gestoten als snelste supercomputer van dit moment.

Op de nieuwe Top 500-lijst, die halfjaarlijks van een update wordt voorzien, neemt de Japanse K Computer met een rekensnelheid van 8 petaflops de eerste plaats in. De supercomputer van Fujitsu staat in het Riken Advanced Institute for Computational Science in Kobe.

Met een snelheid van 8 petaflops laat het rekenmonster de vorige koploper, de Chinese Tianhe-1A-supercomputer, achter zich. Dit systeem scoort 2,6 petaflops. Nummer drie op de herschikte lijst is de Jaguar-supercomputer, die bij het Amerikaanse Department of Energy staat en 1,75 petaflops scoort.

Om de supercomputers te benchmarken voor de Top 500-lijst, wordt de Linpack-benchmark toegepast, waarbij de processors een groot aantal lineaire vergelijkingen voor hun kiezen krijgen. De K Computer, de nieuwe lijstaanvoerder, weet de code te verwerken met in totaal 68544 octocore-Sparc64 VIIIfx-processors, met elk een kloksnelheid van 2GHz. Het totale verbruik ligt op 9,89MW. Of de K Computer lang nummer één blijft, is nog de vraag. Een Amerikaans onderzoeksinstituut krijgt van Cray een supercomputer met een potentiële rekensnelheid van 20 petaflops.

In de nieuwe Top 500-lijst zijn steeds meer supercomputers te vinden die deels gebruikmaken van gpgpu-technologie van onder andere Nvidia; in totaal gaat het om 19 systemen. Verder gebruikt 42 procent van deelnemers processors met zes of meer rekenkernen, terwijl 46 procent is uitgerust met quadcore-exemplaren. Intel heeft een aandeel van 77 procent in deze markt, terwijl veruit de meeste supercomputers door IBM worden gebouwd.

Moderatie-faq Wijzig weergave

Reacties (46)

Is het dan echt zo dat dit systeem om en nabij 3,5 x zo snel is dan de nr 2? Het komt op mij over als een echt enorm verschil maar misschien zijn bepaalde systemen beter in het uitvoeren van 1 type berekeningen?
Inderdaad gaat het maar om 1 type berekening namelijk een FLoating Point per Second (FLOPS) de efficientie is daarom eigelijk een veel belangrijker getal. Omdat de verschillende nodes ook onderling moeten communiceren wordt er daarom ook vaak gebruik gemaakt van een "low latency, high speed"clusterinterconnect netwerk (bijvoorbeeld Infiniband, Mirinet of Dolphin SCI) deze halen een snelheid van 40 Gb/sec bij een latency van <4 Ms. de efficiency bij bijvoorbeeld IB zal rond de 85-90% liggen, en bij Gbit zal dat ongeveer 55% zijn. zo hebben we in Nederland bijvoorbeeld de STELLA /LOFAR supercomputer van IBM die gekscherend wel eens de "linpack" machine wordt genoemd: erg goed in linpack draaien, maar in de praktijk vaak outperformd wordt door X86 architectuur. Tegenwoordig kijken ze ook steeds meer naar de performance/WATT ratio, deze wordt geheel terecht ok steeds belangrijker en eerlijker in verglijk met andere supers.
Met dat laatste ben ik het helemaal eens; denk niet dat mits je genoeg geld hebt, het erg ingewikkeld is om een "supersupercomputer" te maken; kwestie van een modulair systeem met goede infrastructuur blijven uitbouwen.

Wat echt interessant (ook voor de consument!) zou zijn, is dat het interessanter wordt om een efficiŽnt (performance/Watt dus) systeem te maken dan steeds maar dikkere computers te fabriceren.
Doet me een beetje denken aan de (inmiddels opgegeven) PK-strijd die er jarenlang in (race)autoland gewoed heeft. Zelfs in de Formule 1 zijn ze inmiddels hard bezig met efficiŽntie, denk aan KERS
Alleen heeft een consument weinig tot totaal niets aan een super computer. Omdat de modellen die jij door rekent als consument over het algemeen niet meer zijn dan alleen een simpele spreadsheet met je maandelijkse uitgaven is het simpel weg niet nodig en onbetaalbaar om vele PFLOPS te kunnen verwerken.

Het geen je steeds meer ziet is dat om de belachelijke scores te halen veel machines GPU's in zetten omdat deze nu eenmaal heel erg goed zijn in het parallel uitvoeren van identieke berekeningen. En als je daar naar kijkt draaien de meeste moderne game machines al makkelijk enkele TFLOPS zeker als ze een aantal GPU's (SLI/Crossfire) gebruiken. Alleen gebruiken de meeste consumenten deze rekenkracht niet om eiwitten te berekenen of om het weer van morgen te voorspellen maar om 16xAA op 1920x1080 te draaien met alles op ultimate.

Een super computer voor een consument is totaal nutteloos maar de rekenkracht van de meeste voormalig super computers is al lang binnen handbereik van de consument alleen gebruiken wij dit voor minder belangwekkende zaken.
Vergelijkingen tussen computers en auto's zijn populair, maar vaak ook misplaatst.

In de F1 is er geen multicore, je hebt maar een blok per auto en daar moet je het mee doen. Efficientie is in de F1 nog steeds maar een beperkte randvoorwaarde. Die is weliswaar groter geworden nu ze niet meer mogen tanken, maar er werken nog steeds grote teams bij de fabrikanten om meer PK's uit die motoren te halen.

Om de sport "betaalbaar" te houden en niet een exclusieve sport te worden voor grote fabrikanten zijn er steeds meer beperkende regels voor de motoren. Die zijn dus niet ingegeven vanwege efficientie, maar meer om het speelveld zo gelijk mogelijk te houden. De absolute piek in PK's hebben we waarschijnlijk wel gehad in de F1, omdat ze de motoren hebben teruggebracht van 3L naar 2,4L en er zijn zelfs plannen voor 1,6L, maar dan wel met turbo.

Buiten de F1 zijn er wel vergelijkbare technieken te zien met multi-core CPU's. Zo bestaan er motoren die tijdelijk een aantal cylinders kunnen uitschakelen op het moment dat je maar weinig vermogen nodig hebt. Zo kun je dus ook een efficiente computer in elkaar zetten met een multi-core CPU en toch nog performance kunt bijschakelen op het moment dat je het wel nodig hebt.

http://www.jdpower.com/au...-Deactivation-Saves-Fuel/
Pff..maar even ruim 3x sneller dan de nummer 2.

Weet iemand wat de theoretische maximale snelheid van dit systeem zou zijn (om het te kunnen vergelijken met de 20 petaflops van Cray).
Theoretisch max weet ik niet, maar de peak performance gehaald was
8.773petaflop, tov 8.162 over het algemeen.
nr 2 had 4.701 peak, tov 2.566 over de gehele test.
dus in peak performance is het slechts 2x sneller.

Als de peak performance van de nieuwe Cray 20petaflops moet worden is dit terug meer dan 2x zo snel.
Waar is dit pc-tje goed voor?
Een beetje wetenschapper kan wel ff een half uurtje wachten op zijn resultaten.
Maar een short-sellende beurshandelaar kan miljarden per seconden gaan verdienen?
tuurlijk kan hij wel even een half uurtje wachten, maar als het wachten langer duurt dan acceptabel is, dan wordt het een ander verhaal. Bij het NIKHEF wordt per dag ongever 2 Pbyte aan CERN info doorgerekend, doe dit maar eens op een enkele machine, dat kost jaren rekentijd. Of wat denk je van het volgende voorbeeld: kankercellen simuleren om te kijken hoe zij zich gaan ontwikkelen, dit gaat sneller dan in real-time binnen in een patient. dus hier geld ook: hoe meer rekencapaciteit, hoe sneller een adequate diagnose ! Zonder wetnschap had HPC helemaal niet bestaan, en had de beurshandelaar er geeneens weet van gehad ! Lang leve de wetenschapper voor dit soort mooie ontwikkelingen !
Moeten we toch weer blij zijn met een 303de plaats en 1 computer bij de top 500

http://www.top500.org/system/10162, we zijn trots op Sara en het Min. van Onderwijs.
hey dat ding staat bij ons in het gebouw :D
ik wist niet dat ie in de top 500 stond!
toch wel weer leuk om te weten

ontopic:
ik ben benieuwd hoe lang ze de prestatiekroon in handen houden..
en waarvoor word dit soort rekenkracht eigenlijk ingezet?
ik vermoed om weermodellen te berekenen ofzo? maar ik weet het niet zeker.. heeft iemand hier misschien wat meer info over?
niet alleen voor weermodellen, ze worden ingezet daar waar een "normale"computer het gewenste resultaat niet binnen een acceptabele tijd kan weergeven ( denk hierbij aan astronomische waarnemingen, life-sciences, video-redering (SCHREK tekenfilm) engineering zoals krachtberekeningen, Chemie, olie & gasindustrie. kortom overal waar enorme hoeveelheden data moeten worden doorgerekend voordat met het uiteindelijke resultaat heeft.
Nou... in 2009 stond die bij de top 100 :P alleen is volgens mij iemand hem vergeten uit dat kleine duistere hoekje te halen en af te stoffen
Ik ben benieuwd hoeveel petaflops mogelijk is wanneer alle (of een groot deel) van de computers over de wereld in de cloud werken.
Dat lijkt me veel interessanter (en uiteindelijke misschien wel goedkoper) om te onderzoeken/ uit te voeren.
Eigenlijk is dat niet heel erg goed te vergelijken.
Als je gewone computers aan elkaar koppelt zoals seti en distributed.net doen dan moet je je werk in kleine stukjes kunnen opdelen die niet of nauwelijks elkaars data nodig hebben.
Bij deze supercomputers zit er tussen elke node een nogal dikke verbinding om data uit te wisselen en kunnen de afzonderlijke opgedeelde berekeningen veel sneller elkaars data lezen.
Ik dacht dat IBM ook nog steeds wel lekker ging met supercomputers, of waren ze daarmee gekapt zodra ze Kasparov konden verslaan? Althans, sinds roadrunner heb ik niets van plannen of ontwikkelingen gehoord bij IBM vandaan, of let ik dan niet goed op?
De Roadrunner was ongeloofelijk omdat het met een petaflop aan kracht kon rekeken.
Drie jaar later is dat 8 keer zoveel, duidelijk wel een steeds sterkere exponentiele curve in de computerwereld. Over 10 jaar moet mijn zoon het me allemaal gaan uitleggen!
Kosten, baten, marktinteresse? Een nieuwe supercomputer die ergens ter wereld nu gebouwd word, is straks ongetwijfeld weer sneller dan dit ding, mocht IBM die eer hebben, mogen hun de kroon ff vasthouden.

Als het echt puur en alleen om prestaties zou gaan en de kroon zouden ze hier nog wel een stel OC-ers met stikstofkoelingen op los laten?

Verder vraag ik me af hoe deze machines zich verhouden tot bijvoorbeeld een van de grotere botnets.
Impressive! Nu nog stroom om het beest aan te houden... ;)

[Reactie gewijzigd door Haaguit op 20 juni 2011 13:56]

Waarschijnlijk is het iets van 1/3 deel van de stroom om hem aan de praat te houden en 2/3 deel om de koeling te leveren die dat ding noddig heeft.
Er wordt een powerplant gebouwd naast deze super computer. Hierin bevinden zich heel veel Chinese op een fiets die voor 1 euro per week de Japanse super computer van stroom voorzien ;)
lol, geniaal idee :)

kost alleen wel 2.316.867 chinezen :), dat gaat uit van energieverbruik van de jaguar en 3 watt voor een dynamo

dat zou ze dus 120.477.067 euro per jaar :)

(jup, ik ben gek om dat uit te gaan rekenen)
Dat klopt alleen niet, die 3 watt komt van een normale fiets waarop je ook nog een lampje zet. Als je mensen op een fiets zet die niet bedoeld is om te vervoeren maar om energie op te wekken dan kan je heel wat meer opwekken hoor. Ik trap op mijn trimfiets bijvoorbeeld gemakkelijk een uur lang gemiddeld 150 watt. En dat kan vast nog efficienter.
Maar niet te vergeten, Chinezen zijn lui en werken kort.
Vergeet geen redundantie in te bouwen. :Y)
Ze bouwen er wel weer een kern-centrale bij...daar hebben ze goeie ervaringen mee ;)
en vlaanderen hinkt flink achterop, echt schandalig bijna. 90 Terraflops, geschat

http://www.nieuwsblad.be/...l.aspx?articleid=143B2QDN
De snelste Belgische supercomputer staat op plekje 444. Vreemd dat ze het op 7 juni 2011 hebben over het eerste Vlaamse Supercomputer terwijl de bovenstaande al in de vorige lijst was opgenomen.
Als je bij de site history kijkt zie je dat het hard gaat met de Supercomputers. Waar de bovenstaande SC zich bij de vorige publicatie nog op plek 227 stond is hij nu 217 plekken gedaald in een half jaar tijd! Ook al zitten daar ongetwijfeld ook upgrades bij, toch vind ik 217 veel voor een half jaar.
waarscheinlijk heeft het ermee te maken dat deze voor een deel eigendom is van Vlaanderen (vlammse gemeenschap ect.)
en waarom zouden we achterop hinken ???

Het gaat hier nog altijd niet om een race om de snelste te hebben, maar om systemen die NUTTIG BRUIKBAAR moeten zijn.

Als we over tientallen miljoenen euro's spreken, dan kan je je als instituut echt niet gaan bezighouden met het prestige om de snelste te hebben.
Dan zijn ze toch nog een half jaar voor de deadline klaar. :)
Is dit nu alleen nog maar kijken wie de snelste kan bouwen alsof het een wedstrijd is, of gaan deze computers tegenwoordig ook nog voor zaken gebruikt worden die ťcht nut hebben.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True