Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 54 reacties
Bron: Top500

Morgen wordt de achtentwintigste editie van de top-500 van supercomputers gepresenteerd. De halfjaarlijkse ranglijst op basis van de Linpack-benchmark wordt net als vorige keer aangevoerd door het IBM Blue Gene/L-systeem van het Amerikaanse ministerie van Energie, dat in het Lawrence Livermore National Laboratory staat. Deze supercomputer blijft op eenzame hoogte met een score van 280,6 biljoen flops per seconde. De nummer twee, de Cray Red Storm van onderzoekscentrum Sandia, stond in de vorige ranglijst nog op de negende plaats, maar een flinke upgrade zorgde ervoor dat deze machine de tweede op de planeet is die de magische grens van 100 teraflop - nipt - wist te doorbreken. Ook deze machine draait onder auspiciën van het Amerikaanse energiedepartement.

Van de vijfhonderd systemen zijn er inmiddels 113 opgetrokken rond 64-bitters van AMD, waaronder de Red Storm. Dat is een forse toename ten opzichte van de 80 stuks die op de ranglijst van juni stonden. Intels 32-bitters zijn de grote verliezers: liefst 28 van de 147 supercomputers met dergelijke chips vielen uit de ranglijst weg. De IA-32-chips van Intel zijn nog wel de best vertegenwoordigde chips, maar de opmars van de Opteron is des te opvallender omdat AMD pas sinds 2001 in de ranglijst voorkomt. Ook de 64-bitters van Intel moesten elf plaatsen afstaan en zijn nu in totaal nog met 144 supercomputers in de ranglijst vertegenwoordigd, waarbij de Itanium met 109 systemen duidelijk de boventoon voert. Best of the rest is IBM's Power-architectuur, die 91 plaatsen in de ranglijst bezet. De snelste Nederlandse machine, de Astron-Blue Gene van de Rijksuniversiteit Groningen, vinden we overigens met 27,4 teraflops terug op plaats 17; de snelste Belgische supercomputer is een cluster Xeons die dankzij 4,5 teraflop de 162e positie inneemt.

Supercomputer
Moderatie-faq Wijzig weergave

Reacties (54)

Misschien is het handig om erbij te vermelden dat in de VS het Ministerie van Energie ook gaat over het Amerikaanse atoomwapen programma en de veiligheid daarvan. Die supercomputers worden meestal gebruikt voor simulaties van de effecten van veroudering op deze wapens.
Stiekem zitten ze er op te game hoor ;).

[ontopic]

Deze computers worden idd vooral gebruikt voor simulaties, en zware natuurkundige berekenningen. Verder kan ik eigenlijk niet veel verzinnen waarvoor ze gebruikt worden. Alleen ontwikkelingen die echte zware berekkeningen nodig hebben. Wel super intresant :)

mischien dat er ook AI programma's op worden gedraait enzo zou namelijk super intresant zijn. Vooral omdat de meeste uber zware pc's zulke dingen nog niet kunnen.

En volgens mij dat zulke super-computers het nog steeds niet kunnen. komen niet eens in de buurt wat ons hoofdje kan.
Wat betreft AI zullen deze pc's wellicht minder handig zijn dan wij, waar het general purpuse betreft dan. Zodra programmeurs de AI toestpitsen op een enkele taak (bijvoorbeeld schaken) dan zijn pc's al gauw heer en meester over de mens omdat ze nu eenmaal veel verder vooruit kunnen denken. Ik kan me voorstellen dat dit op andere gespecialiseerde vlakken ook geldt. Verder geldt natuurlijk dat pc's en zeker supercomputers veel beter in rekenen zijn dan wij maar dat is een heel ander vlak.

Als het aankomt op AI voor bijvoorbeeld het besturen van een jeep door ruig terrein dan winnen wij het nog steeds (zie bijvoorbeeld de Amerikaanse DARPA grand challenge waarbij computergestuurde jeeps door ruig terrein zo snel mogelijk een doel moeten bereiken. (als ik het goed heb))
Ik denk dat je met de beste super-computer wel sneller kan laten rijden alleen past het weer niet in de auto.

Een mens zou ongeveer 10^15 operaties per seconden kunnen uitvoeren (uitgaand dat alle 10^12 neuronen tegelijk actief zijn). Dit is vele malen sneller dan een supercomputer. Met een jeep heb je niet zoveel nodig. daarnaast als je alles een aparte cpu geeft kan dit best vlot. alleen dit zal al snel onbetaalbaar worden en gigantish veel werk om te maken. Daarnaast kan je dan zeggen dat de computer de auto veel beter aanvoelt dan een mens omdat zijn zintuigen de auto zijn. en wij staan indirect in contact met de auto. maar als ze echt hun best gaan doen rijd die jeep in no-time naar een andere locatie zonder problemen.

Daarnaast is een jeep gebasseerd op wiskunige en natuurkundige ontwerpen wat weer rekennen is. en een super computer kan dit vele malen beter.

In pratijk is het hellaas nog niet zover. alleen over 50 jaar zie ik dit zeker wel gebeuren :) wel super coowl (je ziet het trouwens nu wel in vliegtuigen enzo en andere militaire doeleinden dus mischien zelfs sneller)

theoretisch gezien kunnen super veel dingen veel beter gedaan worden door een computer totdat je op emotioneel niveau gaat kijken enzz. (en leer niveau)

@catfish
Eingelijk hebben we voor elke handeling een overkill aan neuronen :D dus zo efficent zijn we ook weer niet lol kan altijd beter hehehe
computers zijn zeer goed in exacte berekingen,
onze hersenen zijn meester in interpretatie
hierdoor kunnen we supersnel reageren op heel veel input

gezien het energieverbruik, kunnen we nog steeds zeggen dat onze hersenen veel efficienter zijn (uiteraard niet voor alle taken)
De zwaarste computer in zo'n darpa jeep (red-team), was volgens mij een setje van 3 * 1u servers met Pentium m 1.7ghz cpu's. waarvan er eentje als failover was.

Er kan dus vrij gemakkelijk Veeeeel meer cpu power meegenomen worden in die jeeps, maar das blijkbaar (nog) niet nuttig.
Hehe, wss game je op een C2D E6600 + Nvidea GeForce 8800 GTX beter dan op zo'n bak hoor. Deze zijn zwaar dedicated en vooral toegespitst op floating point, echt luxe videokaarten hebben ze ook niet nodig (aan de andere kant, 1000 euro voor een videokaart kan je wel over hebben bij een computer van 100en miljoenen dollars.
En de apparatuur zal ook wel gebruikt worden door andere afdelingen (buiten hun eigen apparatuur), FBI/NSA bijvoorbeeld om encryptie te doorbreken.

Dat vragen vele conspiracy-theory personen zich af, is of de 'echte' supercomputers wel op deze lijst staan.
Encryptie zal zeker wel gekraakt worden door die dingen. Ik denk overigens wel dat de echte supercomputer hier in ut rijtje staat. Voor elke supercomputer moet ook weer software ontwikkeld worden blablabla. maarja dat zou niemand met zekerheid kunnen zeggen.

Ik denk wel dat ze computer geheim hebben die nog in ontwikkeling zijn. (die bevoorbeeld niet meer werken met 0 en 1 maar met meerdere dingen). en encryptie hardware dat ook nog in ontwikkeling is. (dit weet ik eigenlijk wel 100% zeker)
Er mooi voor AMD dat ze zo veel marktaandeel winnen. Zal straks wel weer minder worden door de C2D cpu's.

Ik ben ook wel benieuwd naar de blades van IBM met Opteron en Cell cpu's. Volgens mij kan een cluster met die blades de eerste plaats halen :P

Volgend jaar komen de Native Quad core cpu's van Intel en AMD dus ben benieuwd hoe lang het duurt voordat we supercomputers zien met die cpu's :P En misschien een X1950 XTX om de boel sneller uit te rekenen.
Een korte vraag voor de tweaker hier: wat zou jij doen met 100 teraflop? Aliens zoeken? Codes breken? als schaakpartner inzetten? of je eigen pretsnol ontwikkelen? andere creatieve antwoorden zijn gewenst }>
Mijn huis warm stoken (de buren mogen meeproviteren).
Eindelijk een menselijk brein reproduceren, of is dat nog steeds niet genoeg??

Of 1080p streamen naar de hele wereld :)
Een X1950XTX? Wil je soms 3DMark01 runnen? Lekker CPU-afhankelijk ;)
Je kunt nu ook folding @ home draaien op een X1900 of X1950 kaart en die is 20x tot 40x zo snel als ene C2D cpu :)
280,6 biljoen flops per seconde, en jij wil er een lullig videokaartje van 500 euro bijzetten? :P
Ja, een 8800GTX doet al ruim 0,5 biljoen flops per seconde. Heb je er slechts 600 van nodig om de nummer 1 positie over te nemen (en heel veel kunst en vlieg werk om het überhaupt werkend te krijgen). Is dus helemaal niet zo gek.
Reken er maar niet op dat je het met 600 red, ook al is het in theorie een prima idee, in de praktijk is je overhead zo groot dat je al blij mag zijn met 50% rendament.

Verdubbel het aantal dus maar eens :P
Nodes in een cluster hebben geen monitor, dus of je nou geen, een lullig, of een hele dure videokaart gebruikt: het maakt toch allemaal niets uit.
wat heeft dat nu weer met c2d te maken, als je niks weet buiten desktop en graka's, lees dan ipv zo een reactie te zetten.

Alles gaat hier om schaalbaarheid! daar is c2d nog steeds niet goed in! dat marktaandeel waar jij over spreekt is laptop/desktop/small server en rarara op geen enkel vlak gaat het hier slechter met AMD, integendeel.

trouwens de lijst van opteron zal meer en meer uitbreiden want binnenkort komt cray met een cpu uit die past in de opteron socket en IBM gaat zijn cell ook combineren met opteron. Dan komt SUN SPARC nog etc...
De Woodcrest (Server C2D) schaalt perfect tot 2 en redelijk tot 4 sockets hoor. Aangezien zo'n cluster gewoon een gigantische lading mobo's bevat, met elk hun eigen FSB valt het allemaal dus nog best wel mee. Wat niet wegneemt dat de FSB nog steeds een limitatie is en het zeker niet handig is als je een supercomputer in wilt zetten.

Toch zijn de woodcrests in verhouding zo snel, dat er wss echt wel flink wat supercomputers mee uitgerust gaan worden.
Ik zou niet eens weten wat ik met zoveel rekencapaciteit moet doen...behalve m'n woonkamer verwarmen :+
Windows vista draaien :D (haal je alsnog een score van 3,2 vanwege videokaart ;))
Leuk zeg 280 teraflops. Als ik mag geloven wat ik gelezen heb, kun je dit ook gewoon vervangen door 280:2 140 PS3's. Deze zou namelijk een een floating point performance hebben van 2 TeraFlops. Ik weet dat die cell-architectuur verschrikkelijk goed hierin is, maar ehmm. 140 processors tegenover 131072 van die van IBM, lijkt me een beetje aan de optimistische kant. Ik zou het ook zielig vinden voor de gasten die dit in elkaar hebben gezet. Straks komt er een clubje van rijke computter sleutelaars bij elkaar die 141 van die cell CPU's aan elkaar sluiten en daarmee de nummer 1 overnemen. Wat moeten die gasten zich dan depressief voelen. Zoveel geld, zoveel moeite om vervolgens door een paar enthousiastelingen van nummer 1 af te worden gekicked.

Ik kan jullie natuurlijk ook wel vertellen dat dit eigenlijk nergens op slaat. Ik wil dus even bevestiging horen dat:

A. ik verschrikkelijk dom ben
B. de berichtgeving die ik gehoord heb fout is
C. dat dit gewoon op een hele andere manier werkt
D. een andere reden, namelijk....
E. een combinatie van de voorgaande.

Edit:
Ik zie nou net dat de cell cpu maar 218 GFlops heeft en de GPU van de PS3 1.8 TFlops heeft. Dat maakt samen dus 2.0TFlops. Dus die enthousiastelingen moeten geen cell cpu's aan elkaar sluiten maar gewoon PS3's of juist de GPU. Antwoord A is dus soieso al waar.
E: cell is van IBM, dus IBM zal het niet erg vinden. Verder is de Cell-processor niet general purpose, en ik weet dus niet hoe goed hij uit de onafhankelijke tests gaat komen. Alle software zal je moeten herschrijven om optimaal te werken voor Cell, en zelfs dan is het een theoretisch gegeven. Misschien dat het met 300 stuks kan, met zware optimalisaties.
@cyberfreaked: dat werkt toch op de ene GP-core? Om de andere cores te benutten moet je meer je best doen, en met alleen die GP-core ga je de top 100 niet halen :)
Wat is jouw definitie van "general purpose"?

Ze hebben al een Linux versie voor de PS3 en de Folding client is al geport: http://folding.stanford.edu/FAQ-PS3.html

Dus hoe general purpose wil je het hebben? En het porten naar Cell hoeft dus helemaal niet zo ingewikkeld te zijn.
Als je het echt wil weten, dan zoek je gewoon even wat uitleg over supercomputers. Begin klein (wikipedia, beowulf clusters, etc...).

Maar je begrijpt ook dat rauwe kracht weinig te maken heeft met uiteindelijke output: met een extreme auto kan je zo'n 1750km per liter rijden, maar met je dagdagelijkse auto kom je aan 4km.

Hetzelfde gebeurt er hier: je moet al je pipelines gevuld houden met relevante gegevens dus bandbreedte tussen processoren is een issue' veelal zullen processoren aan threads werken die achteraf fout/overbodig waren; anticiperen hoe snel aparte deelproblemen opgelost geraken is gokwerk; oplossingen tijdig als vernieuwde input weer vrijgeven is een issue, etc etc.

[E=mc2 indachtig bevat een liter benzine natuurlijk zowat de kracht van een atoombom, met verbranding kom je minder ver.]
de massa die bij een atoombom wordt omgezet is lang niet in de orde van de massa van een liter bezine.
met 500 gram uranium in een atoombomb zet je ongeveer 1-2 gram om in energie.
Een liter bezine bevat dus grof gezegd 1000 - 500 keer zoveel energie als er vrijkomt bij een atoombom.

Best veel :)

Het mooie vind ik dat deze computers zoveel energie nodig hebben....vergelijk dat eens met onze hersenen, die al flink wat kunnen rekenen op een boterham met pindakaas! :Y)
Ik denk dat het vooral aan de software ligt die er de performance uit kan halen.

Elke computer zal zo zijn eigen taak hebben.
Als de een Bv: de zwaartekracht berekend. en een andere elke atoom beweging zou de laatste dus de bottleneck worden.

met meerdere cpu's lijkt het mij makkelijker om taken optedelen en zo veel efficenter te kunnen programmeren
Welke computer staat er op dat plaatje?
Ah, mijn zolder !
:+

Maar ehm: snelste supercomputer bij het ministerie van Energie, horen ze daar dan niet een beetje energie zuining om te gaan, of ministerie van meest energie verbruikers?
nee dat noemen ze werkverschaffing,

sommige mensen staken en andere mensen zorgen gewoon dat ze onmisbaar zijn :+
Maar ehm: snelste supercomputer bij het ministerie van Energie, horen ze daar dan niet een beetje energie zuining om te gaan
de reden dat ze zo 'verkwistend' omgaan met die supercomputer is omdat ze daar hele accurate simulaties van atoomproeven mee moeten doen voor zowel kerncentrales als voor atoombommen. Zonder die supercomputer zouden kerncentrales niet zo veilig zijn en zouden ze veel meer atoom-proeven moeten doen.

Kosten baten zou ik zeggen: laat ze alsjeblieft die supercomputer houden :)

overigens vermoed ik dat de NSA een nog veel krachtigere supercomputer heeft (of meerdere), maar die bestaat niet uit normale hardware. (De kraakbakken van de NSA werden geloof ik altijd door Cray custom gemaakt, incl. de cpu's)
Nee, dit is mijn RC5-72 systeem. Het flushen loopt alleen nog niet lekker. Bovendien kan ik op deze 71 systemen tegeljkertijd WhatPulse gebruiken. :+
Research Centre Jülich.

http://www.fz-juelich.de/...ahr=2004&cmd=show&mid=185


Daar staat ook een high-res plaatje :9.

* Reinman gaat ff photosoepen voor een mooi achtergrondje....
Volgens mij is dat de JUMP IBM supercomputer in Jülich :7
echt niet tis mijn laptop :+
Amerikaanse ministerie van Energie.
Gaan ze ook klagen over een energietekort in Amerika? Ze hebben zeker ook een Ministerie van Tornadowaarschuwingen die hun eigen tornado's opwekt? ;)
Nah, sandia doet aan thermonucleaire wapens, en kernfusie. Allebei high energy physics.

En kernfusie zou inderdaad energie moeten beginnen leveren over afzienbare tijd [zoals ze al zeiden in 1980, oeps].
*kijkt mama lief aan*
Wat moet je er mee dan? Super Pi snel uitrekenen? (werkt dat ondertussen al op meerdere cores eig?) ..
Nee, SuperPI is singlcorethreaded. :)
Het lijken me gewoon IBM Unix-systemen.
volgens mij zijn het computers...rekenwondertjes

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True