Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 87 reacties
Bron: Reuters

Op de site van Reuters is een artikel verschenen over een nieuwe supercomputer die in Japan is ontwikkeld. Deze supercomputer zou sneller zijn dan de 20 snelste supercomputers van de Verenigde Staten bij elkaar. Het apparaat is ontwikkeld door een divisie van NEC en beschikt over 5.104 processoren die tezamen een snelheid van 35.600 gigaflops leveren. De snelste Amerikaanse computer kwam tot slechts 7.226 gigaflops. Het nieuwe Japanse speeltje zal gebruikt worden om onderzoek te doen naar klimaat veranderingen, aardbevingen en weersvoorspellingen. De kosten bedroegen zo'n 350 miljoen dollar:

Cray SV1e / Cray SV1ex supercomputer A Japanese laboratory has built the world's fastest computer, one with the computing power of the 20 fastest U.S. computers combined, The New York Times reported on Saturday.

The Earth Simulator was formally dedicated in March, and had been installed at the Earth Simulator Research and Development Center in Yokohama, west of Tokyo, the Times said. The Japan Marine Science and Technology Center said on Friday the computer had reached more than 87 percent of its theoretical peak speed, it said.
Moderatie-faq Wijzig weergave

Reacties (87)

Wat ik me nou bij zulke berichten afvraag is, of de technieken die gebruikt worden in zo'n monster in de toekomst voor de 'gewone' computeraar bruikbaar worden. en op welke termijn?
In de toekomst zien we misschien iets van de CPU's terug (64-bit), de gebruikte geheugentechnologie en natuurlijk de snelheid.

Maar deze supercomputers zijn allemaal losse systemen aan elkaar geknoopt tot een grote cluster, de systemen onderling verschillen niet zo veel van een high-end server, zoals bijvoorbeeld de Alpha.

Het enige wat bijzonder is aan deze supercomputers is dat er heel, heel veel "normale" computers zijn samengevoegd tot een grote machine. Dat zie je ook duidelijk aan het aantal CPU's, als deze supercomputer nou 500-1000 CPU's had gehad met dezelfde performance, was het echt bijzonder geweest.
Wat supercomputers (en grote servers in het algemeen) vooral bijzonder maken is de I/O capaciteit. Het is niet moeilijk om 128 processors op elkaar te stapelen, maar als ze tezamen aan eenzelfde applicatie moeten werken ontstaat er een gecompliceerd probleem - niet alleen wat betreft software maar ook op het gebied van de I/O hardware.

De fabrikanten van desktop processors (Intel en AMD) hebben de laatste jaren meer aandacht gekregen voor het I/O vraagstuk. De oorspronkelijke Athlon en Pentium 4 hadden ieder bijv. veel meer FSB bandbreedte dan hun voorgangers. Verder zijn er ontwikkeling zoals Rambus, DDR, PCI-X, Infiniband, PCI Express en HyperTransport die allen tot doel hebben om de I/O bandbreedte verhogen. De P4 krijgt in de toekomst nog veel meer bandbreedt een AMD maakt in de Hammer architectuur gebruik van NUMA en een geïntegreerde geheugencontroller. Dat zijn technologiën die rechtstreeks afkomstig zijn uit supercomputers.
Alleen een desktop computer voert de berekening in een keer uit, terwijl zo' n gigaflop computer de berekening opdeelt
Dat opdelen is toch niet zo eenvoudig??
Dat opdelen is inderdaad een van de moeilijkste zaken. Voor sommige problemen is het ook niet mogelijk, bijvoorbeeld een berekening waarbij je steeds eerst het resultaat van het voorgaande nodig hebt voordat je verder kunt. Vaak wordt er ook speciaal gezocht naar nieuwe algoritmes voor een bepaalde berekening, alleen omdat deze dan beter te parallelliseren zijn.
bijvoorbeeld een berekening waarbij je steeds eerst het resultaat van het voorgaande nodig hebt voordat je verder kunt.
Wat (helaas) nog es bij de meeste algoritmes WEL nodig is.
Gelukkig zijn de meeste algoritmes tot een vorm van matrix-oplossen terug te brengen en bepaald dan vooral de structuur van die matrix wat voor 'generieke' oplosmethode nodig is, deze zijn ondertussen erg goed uitgedacht en (zeker bij symetrische matrices) goed en efficient parallell uit te voeren.
Specifiekere oplosmethoden blijven echter enorm moeilijk en vereisen naast een hoop rekenkracht vaak ook erg goed wiskundig inzicht efficiente communicatie en veel optimaliseren en testen.
Een systeem als dit is dus geen cluster. Het is een machine beheerd door een OS.

Voor de geinteresseerde tweakert is er bij de concurent (Cray) een mooie overview van hun supercomputer techniek te zien: http://www.cray.com/company/video/index.html
LOL :P
Zoiets bestaat vaak uit vele groepjes van kleinere samenstellende delen (een cluster dus).

Dat er een supersnel netwerk tussenzit en één OS op draait boeit niet zo. Op een cluster kan je ook wel (virtueel) één OS laten draaien. Het onderscheid tussen een supercomputer en cluster is tegenwoordig vrij vaag en wordt vooral door de integratie en opbouw van het systeem bepaalt.

Niet door het feit dat ze nou wel of niet maar één OS draaien :)
Ik heb dat filmpje eens bekeken en was zeker de moeite waard. Maar als je goed kijkt achter de 2e persoon die in beeld komt (na ong. 2 min.) dan zie de zelfde machines staan als het plaatje hierboven!?????
Dus zijn het dan toch CRAY's of verkeerde plaatje gebruikt???
Ha ja, duidelijk zo die V vorm bovenop! Ik gok dan op een verkeerd plaatje hoor :)
Houdt je muis er eens boven ;) Dan staat er Cray blah blah blah. :D
Hier de top 500 van de aller snelste computers.

http://www.top500.org/list/2001/11/

Deze staat er dus nog niet bij.
Volgens mij ook een vrij oude lijst, Nederland staat er ook in (SARA) op de 76e plaats met een SGI ORIGIN 2000 systeem (128 CPU's @ 250MHz/2MB cache)
http://www.sara.nl/hpc.www/unite/description/index.html

Volgens mij niet echt supercomputers meer :?:
16 DS10L workstations, each with:
one 600 MHz Alpha 64-bit processor
512 MByte internal memory
10 GByte IDE disk
Dual 10/100 Ethernet ports
Myrinet 2000 (2000+2000 Mbit/sec links)
1 Myrinet 16 port switch.
http://www.sara.nl/hpc.www/compact/description/index.html

Oftewel een standaard thuisnetwerkje, alleen dan hebben we geen 64bit Alpha's en 2000Mbit switch.
Wat is een gigaflop?
Een gigaflop staat voor 1000 miljoen floating point berekeningen per seconde, deze supercomputer kan dus 35.600 duizend miljoen floating point berekeningen per seconde maken, een cijfer wat bijna niet te bevatten is dus.

Het geeft ook meteen aan dat dit soort computers alleen maar geschikt zijn voor taken die zo complex zijn als bijvoorbeeld het weer, aardbewegingen, ecologisch onderzoek en onderzoek naar cellen.

Voor thuis (zie post hieronder ergens) zijn deze machines echt handig, de CPU kan toch niets doen door de aanwezige bottlenecks.

(Ik ben benieuwd wat voor I/O deze computer gebruikt).
ik vind dat ook wel intressant maar ook welk OS ze gebruiken hiervoor. zal wel denk ik een tak wezen van BSD ofzo maar ik vraag af hoe ze dat allemaal doen enzo want dit systeem zal het verre van standaard zijn .. inclusief I/O .. ik vermoed dat het terminal service via ethernet besturing is ofzo .. (of gigabit netwerk)
ik vind dat ook wel intressant maar ook welk OS ze gebruiken hiervoor. zal wel denk ik een tak wezen van BSD ofzo maar ik vraag af hoe ze dat allemaal doen enzo want dit systeem zal het verre van standaard zijn .. inclusief I/O .. ik vermoed dat het terminal service via ethernet besturing is ofzo .. (of gigabit netwerk)
Het zal wel een speciaal OS zijn dat op dit soort computers gebaseerd is. Dit soort bakbeesten zijn niet gewoon tig standaard pc's aan elkaar gehangen met een dom netwerkje. Het zullen wel grote lompe SMP bakken zijn die aan elkaar hangen via een super snel netwerk en het OS die dit allemaal kan voordoen als een grote computer waar je taken op kunt draaien die een bepaalde capaciteit ervan nodig hebben...
Dit kan je absoluut niet vergelijken met een cluster van Linux of BSD systemen oid...
deze supercomputer kan dus 35.600 duizend miljoen floating point berekeningen per seconde maken, een cijfer wat bijna niet te bevatten is dus
Als je het zo opschrijft ziet het er zeker erg indrukwekkend uit. Je kan ook 35.6 Teraflops zeggen. Klinkt ook flex.
Ben benieuwd wie hem mag programmeren. Als je zoveel berekeningen kan maken, kan je dus modellen doorrekenen met achterlijk veel variabelen. Geeft weer hele andere eisen mbt het functioneel ontwerp van de software..
Volgens mij was dat Giga Floating Point Operations Per Second.
HEEEEEL snel, flop is dacht ik het aantal berekening wat een proc/pc kan uitvoeren per tijdseenheid. (seconde?)
Het nieuwe Japanse speeltje zal gebruikt worden om onderzoek te doen naar klimaat veranderingen, aardbevingen en weersvoorspellingen.
Dat is wel nodig in Japan, ja. Japan bestaat uit 3200+ eilanden met meer dan 200 vulkanen erop... Kan je nagaan dat daar nogal wat seismische activiteit is. Volgens mij zijn daar elke dag wel schokken, in meer of mindere mate. Maar ik hoop niet dat het lab waar deze zeer begerenswaardige computer staat ooit getroffen zal worden door een aarbeving. Ik vraag me sowieso af hoe ze daar voorzorgsmaatregelen hebben getroffen, en hoe het lab eruit ziet.
als 1 van de blades can een fan losschiet knalt hij zo door 20 mobo's :Y)

dat ding zal wel ergens in een bunker staan, die gebouwen zijn ontwikkeld om schokken op te vangen.
Zijn dit clusters? De kracht van vele computers gecombineerd of hebben we hier één mobo met heel veel sockets... :) Lijkt me dat er dan wel een enorme overhead ontstaat.
clusters en supercomputers groeien heel erg naar elkaar toe. Met tegenwoordig als belangrijkste verschil dat clusters nog echt 'losse' systemen zijn met vaak een 'goedkoop' en 'langzaam' (laten we myrinet of GE-ethernet met switches met 256GB backplanes nou niet goedkoop noemen ;) ) netwerk voor de communicatie.
Volgend mij is het verschil tussen een cluster en een supercomputer, dat een cluster d.m.v. een netwerkkabel met elkaar verbonden is en een supercomputer een speciale snelle bus heeft die de processoren met elkaar verbinden (en dus ook directer kunnen adresseren).
Het zijn allemaal losse systemen (bijvoorbeeld een 8-way Alpha CPU systeem met 32GB RAM) die aan elkaar zijn geknoopt tot een grote supercomputer (cluster).

Een supercomputer bestaat dus niet uit 10 moederborden met daarop 500 CPU's, ten eerste zou het moederbord dan een beetje groot worden, maar de techniek om al die CPU's van evenveel werk te voorzien zou veel te complex worden waardoor de prijs helemaal onbetaalbaar zou zijn.

60 CPU's op een moederbord zetten kan iedereen (bij wijze van spreke), maar ze allemaal van genoeg werk voorzien en zorgen dat het geheugen optimaal gebruikt wordt is het moeilijkst.
waarom noemen ze dit nou een supercomputer, het zijn eigelijk heel veel workstations bijelkaar :? dan kan ik et ook wel, zet ik thuis ff 7000 compu's neer en dan heb ik ook zo'n supercomputer.
btw hoe zijn ze aan elkaar gekoppeld?
Ik vraag me dan af waarom we die extra rekenkracht nodig hebben. Als je met je Casio of andere zakjapanner al een mens op de maan kan zetten, wat kun je dan wel met een nieuwe PC?

:P
Een baanvergelijking is een simpele vergelijking die je zelfs met de hand op papier kan uitrekenen, het is gewoon een stukje klassieke mechanica.
Echter, veel problemen in de natuurkunde of andere exacte wetenschap bestaan uit zogenaamde gekoppelde differentiaalvergelijkingen. En stelsel van vergelijkingen die niet meer zo kan uitrekenen. Soms zijn ze te herschrijven als een stelsel van lineaire vergelijkingen, maar vaak zijn ze zelfs niet-lineair. Dan is de enige weg om een benadering te maken brute rekenkracht. Weermodellen zijn daar een goed voorbeeld van. Of magneetvelden uitrekeken in een fusiereactor of heel veel sterrenkundige problemen.
Je zegt het eigenlijk zelf al: hoe zijn ze aan elkaar gekoppeld. Dat is nou juist het probleem met deze dingen. Het werk moet zo efficient mogelijk verdeelt worden over al die procs, en die dingen moeten zo goed mogelijk met elkaar kunnen samenwerken/communiceren enzo.
duurt niet lang. IBM is al 3 jaar bezig met Blue Gene/L.

gaat draaien @200 Terraflops !!!!

Japan , eat your hart out.

check : http://www.supercomputingonline.com/article.php?sid=1001

en :

Blue Gene will have 1 million processors, the central computing engines of computers, working together. The concept is not new, but the scale is unprecedented, and will force the computer to be ''self-healing'': it has to be able to detect failing components, seal them off, and direct the work elsewhere.

Die japanner heeft er:
Het apparaat is ontwikkeld door een divisie van NEC en beschikt over 5.104 processoren die tezamen een snelheid van 35.600 gigaflops leveren.

2003 of 2004 is hij klaar onder de naam Blue Gene/L.
Ze gaan er proteinen mee onderzoeken voor HIV virussen en kankeronderzoek.
Wel een goed zaak dus.

nog even een vergelijking :

Processoren Snelheid
NEC 5.104 35.600 Gigaflops
IBM 1.000.000 200 Terraflops Blue Gene/L

Dat belooft wat dacht ik zo.

8-)
nog meer leesvoer voor de geinteresseerden :

http://www.newsfactor.com/perl/story/14701.html

the battle continues........
Teraflops, niet terraflops
Jullie mogen hem afleveren op:

Langestraat 27
9300 Aalst
OV België

Troll?
ok ok stuur hem dan maar naar Femme :Y)
Wacht maar tot je een aangepaste factuur krijgt van je inboedelverzekering, dan wil je zo'n computer al niet eens meer thuis hebben staan :D
Bovendien produceren deze apperaten zoveel starling dat je er een flatgebouw mee kan verwarmen (SARA in utecht doet dat ook) en dat een hardeschijf die de ruimte waar dat apperaat staat binnen gebracht wordt, meteen volledig LEEG is :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True