Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 112 reacties
Bron: GCN

Het Amerikaanse Ministerie van Energie heeft een bestelling de deur uitgedaan voor een supercomputer die ongeveer driemaal zo snel zou moeten worden als de huidige recordhouder, een BlueGene-systeem van IBM dat 350 teraflop aflevert. De verwachting is dat de door Cray te bouwen 'Baker' de eerste machine zal zijn die de grens van 1 petaflop kan doorbreken. Ook de Japanse regering maakt jacht op de petaflop, maar de machine die de Aziaten vorig jaar bestelden zou pas in 2010 opgeleverd worden. De Amerikanen verwachten dat Cray al in 2008 met resultaten komt. Ook IBM zou in 2008 overigens met een nieuwe BlueGene komen die de petaflop-grens te lijf zou kunnen gaan. Opmerkelijk genoeg is de huidige recordhouder de enige computer ter wereld die al meer dan 100 teraflop produceert.

De nieuwe Cray-computer zou, geheel volgens het bedrijfsmotto 'Wij bouwen geen computers, wij bouwen koelkasten', over 187 vloeistofgekoelde racks beschikken om de 96.000 cores onderdak te bieden. In totaal zou er rond de 11PB aan opslagcapaciteit aan de Baker worden gekoppeld, terwijl de grootte van het werkgeheugen nog ter discussie staat: het budget schijnt toereikend te zijn voor tussen de 187 en 400 terabyte aan ram, afhankelijk van de marktprijs. Tennessee Valley Authority, verantwoordelijk voor de stroomvoorziening, is inmiddels begonnen met het bouwen van een 170 megawatt-centrale die speciaal bedoeld is om deze computer en nog wat kleinere broertjes van prik te voorzien.

Hitch Hiker's Guide To The Galaxy's 'Deep Thought' met Het Antwoord

Lees meer over

Gerelateerde content

Alle gerelateerde content (25)
Moderatie-faq Wijzig weergave

Reacties (112)

Begin nu wel te begrijpen waarom zij niets in het Kyoto verdrag zien....
Ironisch genoeg worden veel van deze supercomputers juist ingezet om klimatologische veranderingen als gevolg van bijv. het broeikaseffect te berekenen. Eigenlijk zouden ze eerst moeten uitrekenen hoeveel ze daar zelf aan bijdragen.

Trouwens we zitten alleen maar de grootste supercomputer allertijden te vernielen natuurlijk, zo komen we de ultieme vraag nooit te weten! (voor de sci-fi liefhebbers ;))
hoeveel is 9x6 bedoel je?
Hoe zit de vrouw in-elkaar?
daar zou je toch super-depressief van worden?
Still 42! Geniaal _/-\o_
(Voor diegenen die het niet snappen, Lees The Hitchhikers Guide to the Galaxy).
Dat ding wat still 42 zegt is waar het allemaal om gaat in de HH guide, dat ding is een almachtige supercomputer die gemaakt is om als ik het goed heb the answer to life te beantwoorden, en nu zegt ie dus 'je hebt geen petaflop nodig, het antwoord is nogsteeds 42' zoals al eerder door dit apparaat geantwoord in het boek.

ps. my mind is cloudy, kan dus heel andere vraag zijn maar tis een vergelijkbare vraag
Kan je het antwoord niet gewoon geven? :?
als je m leest of kijkt weet je hoe geniaal je vraag is :P
Lees het boek. Dat is vele malen grappiger dna het hier even snel uitleggen (wat al een onmogelijk taak is om snel te doen).
misschien een leuke opdracht voor de nieuw te bouwen supercomputer. hoe leg je het boek uit zonder het te hoeven lezen... :+
de film kijken ?
The Answer is: 42...
;)
is inmiddels begonnen met het bouwen van een 170 megawatt-centrale
Nooit bij stilgestaand dat hier zoon enorme berg energie voor nodig is. Een eigen centrale voor deze supercomputer, dat is toch wel echt extreem. Hoe zit dat met andere supercomputers? Hebben die dat ook nodig of is er nu een grens overscheden waardoor dat noodzakelijk geworden is?
Er worden steeds meer processors in een rack geduwd en dat eist steeds meer stroom. Een datacenter vol blade-servers bijvoorbeeld moet al iets aan de stroomvoorziening doen. Er zijn bedrijven die zoveel stroom trekken met hun serverpark dat de wijkverdeelcentrale het nauwelijks aankan. Nog meer servers plaatsen kan dan alleen als het energiebedrijf aanpassingen doet.
En bedenk ook nog even dat je een gigant van een koelinstallatie er naast heb staan. Op ons datacenter zien we dat de hoeveelheid energie die nodig is om het zooitje ongeregeld koel te houden sneller groeit dan de energie nodig om de servers en routers van stroom te voorzien.
het bedrijf waar m'n pa werkt wekken ze zelf de energie op met het verbranden van hun eigen afval..
Op zich hoeft dit geen probleem te zijn... koelvloeistof kan gebruikt worden om omliggende gebouwen te verwarmen :-)...
Omgerekend zo'n 0,9 MW per rack! Dat is al gauw een windmolen per rack!
Of 1,77 kW per core. Waarom bouwen ze in vredesnaam zo'n enorme overkill energiecentrale voor dit systeem? De centrale zal dus echt niet louter voor dit systeem gebouwd worden. Dat is bijna een derde van het vermogen van de Amercentrale..... Met deze capaciteit kan je bijna tien van deze systemen van prik voorzien imo.
Amer is meer dan 1200 MW.
Nou tegenwoordig niet meer hoor. 0,9 MW is ongeveer 0,45 windmolen per rack.
Uitgaande van 96000 cores en 170 MegaWatt, vergt 1 core zo'n 1771 Watt. Stel zo'n 500 Watt voor de core, geheugen en schijven dan blijft er zo'n 1.2 KWatt over voor de airco. Geen worden dat Cray zichzelf koelkastenbouwer noemt.
Je vergeet voor het gemak maar even de schijfstations en wat er nog meer wel niet is aangesloten?
Hoe kan ik flops vergelijken met hertz? Misschien rare vraag maar ik zoek al op google en krijg hier weinig duidelijke reactie op:S Flops is berekeningen per sec of zo?:S
kort door de bocht:

flop x hertz = prestatie van cpu.

hertz = aantal berekeningen per seconde
flop = moeilijk uit te leggen, zie http://en.wikipedia.org/wiki/FLOPS
Volgens mij haal je de bocht niet eens:
FLOPS is "floating point operations per seconde", Hz is "per seconde", dus FLOPS * Hz (als je het zo mag schrijven) is "floating point operations per (seconde^2)".

Kolder dus.
per sec^2 zou een versnelling geven... je begint traag, en hoe langer je rekent hoe sneller het gaat... :?
Nou, met Herz = aantal berekeningen, dat klopt ook niet helemaal, omdat het maar net van de architectuur afhankt hoeveel het kan doen per kloktikje.

Dus het aantal floatingpoint operations per second is het nettoresultaat van het aantal floating point instructies die de machine er door heen gedrukt kan krijgen.
Waarvan het er dus maar vanaf hankt hoe je het bekijkt, per rekenunit, per core, per gehele processor, per machine of per cluster/supercomputer.
Theoretische peak performance van een CPU kun je als volgt berekenen: klokfrequentie * aantal floating point operaties per clockcyclus.

Een CPU die SSE2 ondersteunt (bijv. Opteron of Xeon) kan 2 floating point operaties per cyclus uitvoeren. Een 2.4GHz Opteron heeft dus een theoretische piek van 4.8GFlop/s.

Een Itanium-2 daarentegen kan 4 floating point operaties per cyclus uitvoeren. Een 1.6GHz Itanium-2 heeft dus een theoretische piek van 6.4GFlop/s.

Overigens moet je wel aardig in je best doen om die theoretische peak performance met een applicatie te kunnen halen. Met de Linpack benchmark haal je op een enkele machine ong. 90% efficiency maar voor 'real-world' applicaties mag je al blij zijn met bijv. 30-40% efficiency.

Als je applicatie gebruik kan maken van meerdere machines tegelijk (bijv. via MPI of PVM) dan wordt de snelheid van je interconnect ook nog eens bepalend voor de efficiency (bijv. GigE vs. Myrinet vs. Infiniband vs. ...)
Goeie uitleg.

Alleen wat ik dan niet snap, is dat deze machine 96.000 cores gaat hebben, per core een theoretische 4.8GFlop/s, dan kom je samen op 96.000 * 4.8 = 460.800 GFlop/s.

Dat is nog geen halve PetaFlop!

En dan hebben we het ook nog over een theoretisch maximum dat in de praktijk werkelijk nooit en te nimmer gehaald zal worden.
Bij een single proc RISC machine geldt over het algemeen FLOPS = Hz. Bij een single proc CISC machine kan je per FLOP meerdere Hz nodig hebben. Bij multiproc is er nog wat minder over te zeggen. Om het maar even kort door de bocht uit te leggen.
Laat je niet in de war brengen door de herzen van de marketing mensen...
Een 3000 MHz processor hoeft niet 2x zo snel te zijn als een 1500 MHz processor...
De architectuur is heel erg belangrijk...
Ik zag met een programma (ben de naam vergeten) dat mijn computer 345 gigaflops had, (een 3,4Ghz CPU Intel 550), dus dan zou een gigaflop ongerveer een gigahertz zijn...
Ik herinner de tijd dat mensen dit nog vroegen:

Hoeveel Dry/Whetstones is dat *zucht*
A relatively cheap but modern desktop computer using, for example, a Pentium 4 or Athlon 64 CPU, typically runs at a clock frequency in excess of 2 GHz and provides computational performance in the range of a few GFLOPS.
Zegt Wikipedia bij FLOPS. Is geen nauwkeurig antwoord, maar geeft een indicatie.

edit: Lekker op tijd... zucht
Ik heb me altijd al afgevraagd hoe ze de kosten eruit kunnen halen. Deze computerparken kosten een enorme berg geld en de ontwikkeling gaat zo snel dat ze na een relatief korte tijd alweer verouderd zijn.

*Daimanta denkt aan de eerste computers
@Daimanta:

1 petaflop = 1 petaflop hoe oud ie ook wordt.
Natuurlijk zijn er weer nieuwe spullen over een x aantal jaar, maar dan zijn er ook weer nieuwe projecten.

Daarnaast moet je bedenken dat het hier de Amerikaanse overheid betreft, die staan nu niet echt bekend om dingen efficient aan te pakken. Bigger is better is het motto aldaar.

Het werkt gewoon zo:

Er zijn een x aantal projecten binnen die tak van de overheid die zo'n ding nodig hebben. Dan gaat er een commissie bepalen hoeveel rekenkracht nodig is en wie hoeveel tijd op dat ding krijgt, hoeveel mensen tegelijk etc.

Als ze daar uit zijn (dat duurt al minstens 6 maanden) dan gaan ze bekijken waar ze dat ding neerzetten, dat duurt ook best een tijdje. Daarna moet dat ding gebouwd worden en dat duurt ook een flinke tijd.

Wanneer het ding er dan ook echt staat kunnen die projecten verder. Maar in de jaren daartussen zijn er natuurlijk weer nieuwe projecten bij gekomen, die projecten moeten het traject weer van voor af aan doorlopen.

Het is dus zeker waar dat de hardware al verouderd is wanneer hij wordt opgeleverd en in gebruik wordt genomen. Maar dit maakt niet uit aangezien de rekenkracht van te voren bepaald is en dus voldoende zou moeten zijn.
Daarom moet je met een verdomd goed voorstel komen om zoiets te bestellen. Hetero-gene achritecturen hebben de voorhand in het zich sneller deel voor deel aan te passen aan de nieuwste technologieen. Neem Grid, je knoopt clusters logisch aan elkaar, maar ze staan nog steeds fysiek los en op andere hardware te draaien.
in dit geval verhogen ze gewoon de energie prijs.. :+

Maar ff serieus,
Je krijgt tijdelijk een computer waar mee de dingen kan ontwikkelen die ze anders niet zouden kunnen ontwikkelen. (maar andere wel met zo'n computer)
Investeren in ontwikkelingen is altijd afwachten of er iets leuks uit komt waar je later weer winst mee maakt zodat je dat weer kan investeren om nieuwe ontwikkelingen te stimuleren.
Ja dat is een circel, maar er zijn weinig dingen die niet verouderen, dus je moet door blijven gaan, anders ligt je bedrijf er uit na een paar jaar en kan je de zaak opdoeken.
Haa! nou.. die eerste supercomputer is niets vergeleken bij wat ik nu om mijn pols heb hangen :+
Een van de lievelingsbezigheden van het DOE is het doorrekenen van nucleaire explosies. Zo kun je ook zonder echte tests je geliefde kernwapens door blijven ontwikkelen.
Niet alleen kernwapens, ook andere kernreacties en in het algemeen systemen met veel deeltjes. En dat kan extreem nuttig zijn in onderzoek naar onder andere kernfusie, wat weer verklaart waarom het ministerie van energie 't ding besteld heeft.

En ja, het lijkt overkill, maar fysische systemen bestaan makkelijk uit miljarden en nog eens miljarden deeltjes (bedenk maar hoe groot een atoom is) die elkaar allemaal weer beinvloeden. Rekentijden van weken zijn niet ongebruikelijk (tenminste, niet bij astrofysica, mijn studierichting).

Toegegeven, geef een wetenschapper de snelste computer ter wereld en hij staat morgen op de stoep met het verzoek om meer rekenkracht, maar het is een start :+
Can ik hieruit concluderen dat die lui taken klaar hebben liggen waarvoor een 350 TFlop farm niet voldoet?

Of gaat het hier om status... 'Jaja.. wij hebben de snelste supercomputer....

We hadden hem nodig voor het decrypten van messages.... dat heeft ie gedaan in 43 uur...

Nu? Erm.. nu doet ie niets meer...'

-R-
Dat klopt :-)
En het aantal processoren is waarschijnlijk ook onvoldoende. De resolutie van je berekening kan flink omhoog gaan of de omlooptijd voor de berekening kan aanzienlijk verkort worden.
Of gaat het hier om status... 'Jaja.. wij hebben de snelste supercomputer....
groot, groter, grootst, amerika

Het lijkt mij dat ze eerder dan de japanners een 1 PFlop computer willen hebben.
Wat ik me altijd afvraag bij dit soort "computertjes" :

1. Wie onderhoudt zo'n "render boerderijtje" ?
2. Wat voor mensen/wat voor opleiding hebben deze ?
3. Hoeveel zouden deze mensen betaald krijgen ?
4. Wat gebeurt er met de oude "opstelling" ?
5. Waar wonen ze ? Ik neem aan dichtbij wegens noodgevallen ? Of mogen ze gewoon wonen waar ze willen ?

Mocht iemand hier iets aan toe willen voegen graag !!! Ik vind dit namelijk altijd zoo vaag kwa onderwerp .. :)

/EDIT : Ha ha ha ... grapjas :P Hoeft niet persee bovenstaand te zijn, maar gewoon dit soort "opstellingen" in het algemeen ;)
Knock knock......

nero355 : 'Wie is daar ?'
Bang..... veel onnodig geweld hier ......

nero355 heeft HLS op bezoek gehad, en een gratis tripje naar quatanamo gekregen.....

:9


(HSL = HomeLand Security)
1.) een stel sysadmins van Cray, wetenschappers en locale sysadmins die de Acceptible Use Policy van Cray niet goed gelezen hebben, dat alleen zij mogen onderhouden (zie BlueGene's).
2.) De gebruikers zijn meestal WO geschoold, PhD's, dr's en profs
3.) Al nagelang hun opleiding, maar meestal ietsje minder als hier in Nederland. Soms worden ze beter betaald, maar dan zijn het de commerciele partners, of wijken ze af van het standaard DoE cost-model
4.) Die staat er naast, als die er is. Wellicht wordt de oude aan het TeraGrid project toegevoegd (als het dat al niet was).
5.) Remote login doet wonderen... ;-)
De verwachting is dat de door Cray te bouwen 'Baker' de eerste machine zal zijn die de grens van 1 petaflop kan doorbreken.
De ECHT belangrijke vraag is natuurlijk "hoe ver kan ie overgeclockt worden?". :)
Daar is cray meester in, toch? Waterkoeling of nog heftiger, allemaal geen probleem :) Weet het niet zeker, maar ik dacht dat cray ook aan overklokken deed.
dat kan een flinke flop worden
een petaflop om precies te zijn
Geleverd door 24.000 quad-core Opterons. Dit lijkt me eigenlijk nog het meest opmerkelijk maar wordt hier(onder) totaal niet genoemd. Toch weer even 25 tot 50 miljoen euro extra omzet voor AMD.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True