Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 218, views: 44.139 •
Submitter: Henk007

Het Franse Agentschap voor Atoomenergie heeft een supercomputer in gebruik genomen die met een potentiële rekenkracht van 1,25 petaflops mogelijk de snelste van Europa zal worden. De Tera 100 is gebouwd door Bull.

De Tera 100-supercomputer, die afgelopen week in gebruik is genomen, bestaat uit 140.000 Intel Xeon 7500-processorcores en 300TB aan beschikbaar werkgeheugen. De totale opslagcapaciteit zou 20PB bedragen, terwijl doorvoersnelheden tot 500GBps behaald zouden worden. Het rekenmonster draait momenteel nog proef en behaalt daarbij een gemiddelde maximale rekensnelheid van 0,825 petaflops en pieksnelheden van 1 petaflops. Het Franse Atoomagentschap zal de supercomputer gaan gebruiken voor het simuleren van kernproeven, zo meldt PCWorld.

Bull denkt dat de supercomputer na het nodige tweaken een pieksnelheid van 1,25 petaflops en een gemiddelde rekensnelheid van 1 petaflops kan behalen. Indien de Tera 100 deze snelheid daadwerkelijk weet te behalen, dan zal het rekenmonster op de derde plaats eindigen in de huidige ranglijst van Top500.org. Daarmee is de Tera 100 de snelste supercomputer van Europa. Het zal echter tot vermoedelijk september gaan duren voordat de supercomputer op volle toeren draait en Bull zal vervolgens tot november moeten wachten om in de Top500-lijst te worden opgenomen.

Reacties (218)

Reactiefilter:-12180190+171+26+30
1 2 3 ... 6
Klinkt goed! Ben benieuwd naar de kosten van dit rekenmonster...
Een 'zelfbouw' pakket kost $900.000 aan onderdelen.
Vergeet de 'stookkosten' niet: 400 kW.

Maar dan heb je ook 4 petaflops!

http://helmer3.sfe.se

:)
Volgens mij vergis je je in de cijfers.. De computer uit het artikel heeft namelijk 140k processoren, en die kosten samen een stuk meer dan 0,9 miljoen. Die heeft maar 1,25 petaflops. Lijkt me dan sterk dat je voor 0,9 miljoen 4 petaflops kunt bouwen.
Grafische kaarten (GPUs) zijn een stuk sneller dan CPUs.

Mogelijk dat het dus toch wel klopt. Aangezien er in het artikel waar naar verwezen wordt ook gebruik gemaakt wordt van 'normale' pc artikelen zullen de kosten ook aanzienlijk lager uitkomen.
Grafische kaarten (GPUs) zijn een stuk sneller dan CPUs.
Ja dat dacht ik ook al toen ik dit artikel las.

Waarom hebben ze niet gekozen voor grafische kaarten?
misschien te weinig geheugen per kaart?
of zou het moeilijker zijn om zo veel stations aan elkaar vast te koppelen met cuda ofzo? :/
GPUs zijn helemaal niet sneller dan CPUs, ze zijn alleen een stuk beter in het rekenen met grote datasets, zoals matrices (en dus computer graphics). Een CPU is toegespitst op allerlei soorten berekeningen.
Als we naar het aantal transistors kijken, dan heeft een goede gpu er een stuk meer dan een cpu. Al heeft een gpu een lagere clock, dankzij de vele cores is hij toch een stuk sneller met zware berekeningen (zoals simulaties).

Bovendien heeft een moderne grafische kaart GDDR5 geheugen, in vergelijking met DDR3 op een normale mobo.

Ik bedoel, er moet toch een rede zijn dat univeristeiten een goedkope super computer bouwen met een hoop grafische kaarten in SLI ;)
GDDR is niet vergelijkbaar met DDR, behalve dat het allebei geheugen types zijn.

Maar een GPU is over het algemeen wel een stuk sneller dan een CPU, al zij het vooral voor bepaalde doeleinden.
Plus het feit dat je gigantisch moet multithreaden, wat niet bij alle applicaties even praktisch is.
Al met al zijn er voor en nadelen aan super computers van beide types,
Hoewel, Nvidia met fermi wel een mooie stap richting deze branche gaat
Vooral gigathread klinkt als een mooie oplossing voor het multi thread probleem, single core applicaties worden ineens uitgevoerd op multi cores!
anyway, offtopic toekomst muziek :P
Vooral gigathread klinkt als een mooie oplossing voor het multi thread probleem, single core applicaties worden ineens uitgevoerd op multi cores!
Een single core probleem laat zich niet standaard geautomatiseerd vertalen in een multi core probleem, hoezeer NVidia je dat ook wil laten geloven. Op low-level kan er heel wat parallel uitgevoerd worden, maar dat heeft gewoon een grens. Uiteraard zijn er bepaalde berekeningen die uitermate geschikt zijn voor parallelle uitvoer en ik denk (maar ik ben geen expert) dat 'Atoom-simulaties' daar wel toe behoren.
Zonder SLi. CUDA/OpenCL/DX11 direct compute. Je kan op zo'n supercomputer mobo 8 single-shot videokaarten proppen. Paar watergekoelde dual-gpu ATI/nvidia kaartjes (HD5970, GTX295 (of GTX480 single)) en je hebt dan zo'n 5 gigaflops per videokaart, volgens dit artikel: (5 TF per kaart)
> http://www.tomshardware.c...-radeon-hd-5970,9109.html

Dan heb je 600 dollar (HD5970) per 5 teraflops aan kosten.
Per 8 videokaarten (40 teraflops) heb je een complete PC nodig. Laten we zeggen dat deze incl. moederbord, kast, CPU, setje HDD's, waterkoeling etc $1200 kost.

Je hebt dan 40 teraflops (CPU niet meegerekend) per 8x $600 + $1200 = $6.000

25 van deze dingen en je zit op 1 petaflop voor 25 x $6.000 = $150.000
alleen is 1+1 niet 2 als het gaat om rekenkracht en bandbreedte: je moet immers nog de data op tijd aan- en afvoeren. Dat zijn ingewikkelde processen als je met dergelijke multi-threaded oplossingen werkt. Daarin zitten dan ook dei "optimalisaties" waarvaan sprake in het artikel!
Voornamelijk ook in voorspelbare berekeningen. Een CPU is eigenlijk een soort all-purpose brain, en de GPU kan ontzettend snel rekenen als de berekening maar een voorspelbaar resultaat geeft. Met andere woorden; een GPU is niet op alle fronten even snel of sneller dan een CPU.
Volgens mij heb je de webpagina niet goed bekeken. :)

Helmer3 gaat niet (alleen?) uit van CPU's, maar GPU's. 4 per node om precies te zijn.
6 levels of 9 motherboards with each 4 graphic cards = 216 graphic cards, and if every cards have 2 TFLOPS, this is 432 TFLOPS. We need 3 if these towers to break the world record....

...but why just 3 when we can use 10 :)

.....

It'll use about 400 000W, and cost $900 000.
4 PFLOPS easy :)
Een bruteforce monster :P
leuk projectie voor mijn volgende weekend :P grapje
Ik denk dat als je morgen aan Intel vraagt of ze 140.000 cpu's kunnen leveren, dat je wel een prijsje kunt maken met ze.. :D zal wat lager liggen dan de laagste pricewatch prijs.. :D
bij helmer 3 ging het om Radeon HD4870X2 of Nvidia 9800GX2 graphic cards
dit is natuurlijk als erg gedateerd de nieuwe nvidia 295 beschikt over 480 cuda units
de 9800GX2 maar over 256 dat is nog een verschil ook de snelheid is velen malen groter
dus hebben we nog minder video kaarten nodig.
ik denk dat heel veel mensen CUDA onder schatten en wat video kaarten kunnen

weten schappelijk onderzoek zo als bionic werkt nog op cpu's
hier bij is al bewezen dat intel en amd cpus eigenlijk de meest slechte vorm zijn
en veel minder geschikt zijn hier voor. een PS3 met zijn cell processors rekent gewoon zo veel sneller er zijn.

maar er zijn diverse onderzoeks programma's in omloop zo als http://www.gpugrid.net/ en
folding@home
folding@home is een goede voor alle sceptecie deze heeft 2 clienten 1 is cpu en de andere is GPU draai ze alle bij eens en bench mark ze maar eens kijk maar welke de meeste returns op leverd in een vast gestelde tijd
http://www.gpugrid.net/img/cores.png

dan zie je pas echt dat een GPU een zo veel betere keuze is.
Voornamelijk ook in voorspelbare berekeningen. Een CPU is eigenlijk een soort all-purpose brain, en de GPU kan ontzettend snel rekenen als de berekening maar een voorspelbaar resultaat geeft. Met andere woorden; een GPU is niet op alle fronten even snel of sneller dan een CPU.

De Folding@ home programma's maken gebruik van dit soort 'voorspelbare' berekeningen. Niet in de praktische zin van het woord; als je de uitkomst kan voorspellen, waarom zou je de berekening dan nog uitvoeren, maar de kracht zit 'm in het parallel uitvoeren van berekeningen waar de GPU zo goed in is.
Kan dat wel allemaal klimaat neutraal - 400 kW per sec ? of wat

Heel goed voor de klimaatdoelstellingen van Frankrijk natuurlijk en Europa niet te vergeten. Dit soort dingen laat nu duidelijk zien dat klimaat opwarming met als oorzaak de mens een farce is. Cap & Trade; slechts een middel om midden en kleinbedrijf en de consument op te zadelen met een millieubelasting (belasting = diefstal)

Als de bouw van deze energieslurper zelfs kan rekenen op subsidie van de Franse overheid en Brussel (subisdie = bijstandsuitkeringen voor miljonairs en bedrijven).
er worden kernproeven op gesimuleerd. Wat heb je het liefst: een kerncentrale of een kernbom die tot ontploffing wordt gebracht?

sommige groene jongens hebben echt wel grote oogkleppen op.

de mensen die dit soort bestellingen plaatsen trekken zich niets van het milieu aan enkel van hun budget (want zelf moeten ze dit natuurlijk niet betalen)
En gij durft nog op het internet komen? Dat verbruikt ook energie hoor! =)

Hoe denk je dat men bijvoorbeeld ooit kernfusie zal uitvinden, dat zal volgens mij voor een groot deel dankzij dit zo'n computers zijn...
Kan dat wel allemaal klimaat neutraal - 400 kW per sec ? of wat
Daar gaan we weer. Watt is al uitgedrukt per tijdseenheid: Joule (energie) per seconde.
oftewel het gemiddelde jaarverbruik van 1750 huishoudens

dit is weer te vergelijken met een klein dorpje.

dus de hoeveelheid energie valt best mee..
(belasting = diefstal)
Je betaalt liever zelf die dure medische behandeling waarvan je van te voren niet weet of je die nodig gaat hebben, maar die je alleen zelf kan betalen als je minstens x keer modaal verdient?
grootst mogelijk onzin.

ik zal je zeggen waarom, de overheid is in de afgelopen 40 jaar alleen maar in omvang gegroeid en de uitgaven eveneens, met gezondheidszorg inbegrepen. De algehele kwaliteit van de gezondheidszorg is weliswar wat beter maar echte marktwerking in de zorg kan ervoor zorgen dat meer concurrentie ontstaat op die gezondheidsmarkt en dat komt de kwaliteit ten goede, waar echt wat valt te kiezen zoals uit de markt voor mobiele telefoons is de kwaliteit er ook op vooruit gegaan en zijn de kosten toch gedaald.

Als de sector gezondheidszorg maar telkens door slechte investeringen door de overheid en dus belastinggeld een bailout krijgt dan verbetert er niets. Zie de te hoge bonussen voor ziekenhuis directeuren en personeel die kwalitatief matig presteren terwijl de kosten maar blijven stijgen. Te weinig artsen zijn kunnen zij onevenredig veel verdienen zonder meer kwaliteit te leveren. Meer artsen betekent ook lagere kosten en meer concurrentie en dus valt er wat te kiezen voor de consument. Maar omdat de artsen zelf voorkomen dat ze teveel concurrentie krijgen is er de beperke maatregel dat maar een bepaald aantal studenten worden toegelaten tot de studie geneeskunde.

Dat drijft de prijs mede op, zet daarbij de overregulering van geneesmiddelen en de sector in totaal dan snap je vanzelf dat de prijs alleen maar kan stijgen, maar de kwaliteit stijgt niet evenredig mee.

Terwijl aan de andere kant als er medische missers worden begaan, je als slachtoffer zo goed als niet hoeft te rekenen op voldoende financiële compensatie. Omdat de rechters zelfden negatief oordelen in dergelijke smarte zaken ten na dele van het ziekenhuis of geneesheer van dienst.

In dat geval is belasting zoals inkomsten belasting of loonbelasting dat verkeert gebruikt wordt inderdaad diefstal. Dan liever een fair-tax
een alternatief voor de IB, BTW, LB en nalatenschapsbelasting, De vlakke consumptie belasting op consumptie van goederen en diensten, alsmede de onroerende zaak belasting (OZB).

En hoe gecharmeerd / begeisterd ik ook ben van microelektronica, computers en andere producten die aangestuurd worden door halfgeleiders.... ik verwacht niet/ ik wil niet dat mijn bijdrage aan de overheidskas, of dat nou Den Haag of Brussel richting Frankrijk gaat besteed wordt aan subsidie voor Thompson of een andere groot IT bedrijf dat zijn eigen broek niet kan ophouden zogenaamd om de strijd met Amerika op IT gebied te kunnen blijven aangaan. Laat de vrije markt beslissen zonder subisidie. PUNT
400kw voor de processoren .. maar minstens zoveel voor de koeling ervan ..

totaal zal het gebouwtje dus rond de 1MW aan energie verbruiken.
dit is overigens niet meer dan een gemiddeld kantoorpand
wat voor voeding zou die hebben :P

voor wat worden die nou eigelijk gebruikkt????

alleen voor berekeningen??
alleen voor berekeningen??
Waar kan een (super)computer anders voor gebruikt worden misschien? :)
beetje mee gamen:p

nee even serieus:
in de tekst staat

Het Franse Atoomagentschap zal de supercomputer gaan gebruiken voor het simuleren van kernproeven, zo meldt PCWorld.
Ik vraag me dan af wat de mogelijkheden zijn van zo een simulatie.
De simulatie is toch begrenst aan de mogelijkheden van het programma lijkt mij..

En als het programma al geschreven is, heb je dan niet alle mogelijke situaties ingevoerd? dus niet meer nodig om te simuleren? :P

Of is dit nu zondag middag praat :)
Dus als je een programma schrijft om pi te berekenen, dan heb je het al berekend? 8)7

10 PRINT "3,14159265"
Nou, als je iets op atomair niveau simuleerd kan dat natuurlijk makkelijk voor 1 atoom.

Het probleem is dat ze misschien wel het effect willen weten voor 100 gram van dat spul, ofwel gigantisch veel atomen. Dan moet je heel wat rekenracht hebben, en alle simulaties per object op splitsen (vandaar veel cpu's).
Helaas
The machine will be used to simulate nuclear weapons, allowing the French armed forces to ensure the reliability of their nuclear deterrent without conducting live tests, the CEA said.
Verdragen voor stopzetting van nucleaire proeven negerend heeft Frankrijk in de Stille Ocean diverse eilanden (Murowa) radioctief gemaakt tot groot leedwezen van de oorspronkelijke bewoners. Door acties van Green Peace en felle protesten uit de hele wereld moesten ze daar mee stoppen. Daarom heeft de Franse geheime dienst uit wraak nog een boot van Green Peace laten zinken waarbij een man om het leven kwam. Dit schandaal kwam naar buiten door een ex-lid van de geheime dienst die er aan mee gedaan had en bracht Frankrijk in grote verlegenheid.

Daarom zoeken ze sindsdien andere manieren dan praktijktesten om het effect van hun nucleaire wapens te testen.

Ja het is moeilijk te begrijpen dat zoveel geld en energie gestopt wordt om elkaar naar de verdommenis te helpen. En daarmee kan je ook meteen de illusie begraven dat ze die dingen niet zouden gebruiken, want dan hoef je ze ook niet te testen. Een korte blik op de geschiedenis leert ons dat ook de Europese machten niet op een miljoen doden meer of minder kijken.

De Engelse kernwapens staan onder Amerikaanse controle, die gebruiken tegenwoordig Amerikaanse kernkoppen die ze niet kunnen afschieten zonder Amerikaanse toestemming. Engeland en de VS is een pot nat. Ze vechten samen hun oorlogen, waarbij Engeland vooral niet wil achterblijven, want ze hebben na de VS de grootste wapenindustrie en dat spul moet toch in de praktijk getest worden. Battle-tested is een doorslaggevend verkoop argument. Kijk met deze tank hebben we al meer dan duizend Afghanen plat gereden en als je Irakies hier mee beschiet kun je ze van asfalt schrapen.

Fameus zijn de kernproeven van de Amerikanen waar ze hun eigen dienstplichtige soldaten aan blootstelden. De meesten kregen inderdaad kanker en overleden voortijdig. De effecten werden natuurlijk op wetenschappelijk verantwoorde wijze geregistreerd. (Hoezo Nazi Duitsland?) Ook een toevallig in de buurt aanwezige filmploeg werd blootgesteld. Daarom stierf Amerika's beroemdste cowboy filmster John Waine aan kanker. Of zoals hij zelf voor zijn dood zei: "I licked the big C".

Ook de Amerikanen zijn kernproeven gaan simuleren sinds ze met de Soviet Unie verdragen over een verbod op kernproeven hebben afgesloten. Frankrijk heeft nooit veel opgehad met de VS en vaart een onafhankelijke koers, wat op zich wel een goede zaak is gezien de arrogantie van de VS en haar drang naar wereldheerschappij.

Eigenlijk zit de VS met zijn invallen in verre landen te bewijzen dat wil je met rust gelaten worden je wel over nuclaire wapens moet beschikken. Amerika's strategie om nucleaire wapens af te schaffen is dan ook vooral ingegeven door haar enorme overmacht op gebied van conventionele wapens. Ze nemen in hun eentje 55% van de totale defensie uitgaven in de wereld voor hun rekening.

Volstrekt gewetenloos deze lieden, voor wie vrede alleen maar een interbellum is.

De belangrijkste reden voor dit programma is denk ik de ontwikkeling van nieuwe kernwapens, want van de oude weten ze effecten wel aardig. Klleine tactische kernwapens is iets waar de Amerikanen als lange tijd over praten en ongetwijfeld inmiddels ook in grote hoeveelheden hebben.

En je kan natuurlijk varianten bedenken: Wat dacht je van een mini neutronenbommetje. Je gooit het boven een gebied bijv. een stad met opstandelingen en alle mensen gaan dood zonder schade aan de gebouwen. Zulke dingen doen militairen watertanden.

Ze meten namelijk nooit het aantal doden bij de tegenpartij alleen hun eigen doden, want het volk vindt het niet prettig als te veel jongens in een bodybag thuiskomen. Daarom streven de VS al tijden naar een "clean war". Bijv. de eerste golfoorlog was erg clean, meer dan honderdduizend Irakies afgeslacht en zelf alleen een dozien door verkeersongevalletjes. Die Irakies waren natuurlijk meest dienstplichtigen, met een vrouw en kindjes, maar daar hoeft niemand bij stil te staan. Wel moesten ze de geheimzinnige ziekte onder hun eigen jongens onder het tapijt vegen. Dat staat echt slecht bij een schone oorlog.

[Reactie gewijzigd door degener op 31 mei 2010 17:22]

mèh
Inderdaad, Chirac heeft in z'n ambtstermijn in 1995 goedkeuring gegeven terwijl in 1994 het opgeruimd moest worden (door z'n voorganger Mitterand)

Als je de franse wiki erop naleest krijg je de indruk dat de aangetaste landen (lijstje wat lager) allemaal onder de norm zitten. Echter ... als je systematisch daar leeft of woont is natuurlijk wel minder. Ik keur het zelf ook niet goed maar netzoals andere wetenschappelijke experimenten komt daar vaak wel zeer nuttige data uit (bv. Mengele en co heeft de menselijke limieten getest). Deze data is op een gruwelijk manier verkregen maar bewijst nu wel zijn nut.

Hopelijk kunnen we het nu anders oplossen met simulatie maar ik verwacht dat zulke nefaste experimenten nog wel vaker zullen voorkomen. Denk aan bijvoorbeeld vooruitgang in de medische wereld wat betreft het illegaal klonen en experimenteren ermee in landen als China.
Hoe zouden de Fransen het gevonden hebben als Aziatische landen in hun land kernproefjes zouden houden, natuurlijk in dun bevolkt gebied, dat helaas nog wel lange tijd onbewoonbaar blijft. Wat een mentaliteit schuilt daarachter.

En wat is onder de norm? Heb je al eens de effecten bestudeerd van de verarmde uranium waar de vs mee schiet in Iraq en Afghanistan. En wie voert dat onderzoek uit, niet die landen zelf. Het is gebleken dat met het onderzoek naar de effecten van verarmd uranium opzettelijk is gesjoemeld om het gebruik van die minutie er door te krijgen. En nog steeds willen de Amerikanen niet erkennen dat dit de reden was van de geheimzinnige ziekte waardoor zoveel soldaten werden getroffen in de eerste golfoorlog.
Of the 696,778 troops who served during the recognized conflict phase (1990-1991) of the Gulf War, at least 20,6861 have applied for VA medical benefits. As of May 2002, 159,238 veterans have been awarded service-connected disability by the Department of Veterans Affairs for health effects collectively known as the Gulf War Syndrome.
Dan praten we maar niet over de tienduizenden mismaakt babies die geboren worden en de epidemie in kanker bij de volwassen bevolking. En het spul blijft 4,5 miljard jaar gevaarlijk en is omdat het zowat verdampt bij inslag niet goed meer uit het millieu te krijgen.
http://www.seattlepi.com/national/95178_du12.shtml

Met hun nieuwe computerprogramma kunnen de Fransen wel berekenen hoeveel mensen er vroegtijdig aan gaan sterven.
Death solves all problems - no man, no problem.
Joseph Stalin

Everyone imposes his own system as far as his army can reach.
Joseph Stalin

If any foreign minister begins to defend to the death a "peace conference," you can be sure his government has already placed its orders for new battleships and airplanes.
Joseph Stalin

One death is a tragedy; one million is a statistic.
Joseph Stalin
Het voorstellings- en inlevingsvermogen van mensen voor anderen schiet tragisch tekort als het om deze dingen gaat. En het wordt niet groter door dit soort computerprogramma's, alles wordt alleen wat afstandelijker, Het wordt nog meer een computergame.

[Reactie gewijzigd door degener op 31 mei 2010 02:38]

Helaas

[...]
Verdomd. :( Ik had al zo'n gevoel, toen het Franse Atoomagentschap genoemd werd...
Dit bewijst maar weer dat de technologische hoogstand die deze supercomputers vertegenwoordigen (vooral in dit geval) totaal verspild is vanwege het gebrek aan menselijke intelligentie bij de mensen die de toepassingen hiervoor bedenken. Verspild is nog veel te zacht uitgedrukt omdat hier wordt gewerkt aan de toename van vernietigingskracht.
Als dat zo was, dan bestond BOINC niet.
Een simulatie simuleert dingen en doet dus enkel wat je als opties in je programma zet. Echter, dat wil niet zeggen dat je kan voorspellen wat de gevolgen van bepaalde combinaties van instellingen zijn.

Simulaties van het weer bijvoorbeeld zijn ondertussen al erg goed in voorspellen wat er gaat gebeuren en in de autosport wordt er meer en meer op de computer ontworpen en getest ipv in peperdure windtunnels. Simulaties zijn niet perfect, maar kunnen de werkelijkheid erg goed benaderen.
Ja dit noem ik zondag middag praat :p

Simulatie-software gebruikt berekeningen (die wel van tevoren zijn ingevoerd) om de het verloop en de uitkomst van bepaalde situaties te berekenen.
Denk aan een computergame, daar is ook niet van tevoren bepaald wanneer en waar de speler bepaalde acties uitvoert.
Nou Antec 2KW ofzo :p
Zo leuk rendement heb je dan..

2KW is heel overdreven om enkel 2 processoren en wat werkgeheugen te voeden..
Intel Xeon 7500-processoren hebben een TDU van ongeveer 100w, dan lijkt mij een voeding van 350W al voldoende.
tja, alleen zijn er hier geen twee maar 140.000....
Ik bedoelde 2 per moederbord. dus 70.000 voedingen van 350w (waar er dus telkens 2 inzitten als back-up)
Intel Xeon 7500 CPU's gaan met vier op een moederbord
tja , je zou het als telefoniste maar meemaken,

intel, service center kan ik u helpen?

jazeker ik wil graag 140.000 Intel Xeon 7500-processors bestellen. ;)
Ik denk dat intel wel wat hogere orders krijgt.. en dat dat niet per telefoon gaat, maar via email, of anders in persoon :)
Dergelijke orders worden niet per telefoontje of emailtje geregeld en ook niet via de oudejongenskrentebrood manier van samen even een balletje slaan op de golfbaan. Dit is gewoon een europesche aanbesteding geweest. Waarschijnlijk is daar weer meer papier aan verspild dan de meeste van ons zich voor kunnen stellen.

(Om je een idee te geven, ik heb er ondertussen een paar gedaan en als aanbieder zien wij dat de hoeveelheid papier die je moet produceren, een lineaire functie lijkt te zijn van het budget dat de opdrachtgever voor de opdracht heeft.

2500 pagina's is wat je ongeveer oplevert voor een order van 2,5 ton. 3500 pagina's voor 5 ton.... Dus tel uit je winst....

}> Kan iemand dit even omrekenen naar bomen? 8)7
haha het was maar een kut-joke. ;)
jazeker ik wil graag 140.000 Intel Xeon 7500-processors bestellen. ;)
Ik verbind U door.

Niets bijzonders
domme vragen bestaan niet, alleen domme antwoorden...

Maar moet toegeven dat wel in de tekst wel al het antwoord staat, lezen blijkt nog steedds een kunst

Ontopic

Prachtig pc'tje alhoewel de gemiddelde consument hier echt ruk aan heeft. Het stroomverbruik zal dan ook niet gering zijn :O. maar 140k proc's, dat is me nogal wat. En dan nog niet eens de minste. Maar dan vraag ik me af, komen deze dan allemaal in 2socket mobo's te zitten en worden ze dan in een server geplaatst ofzow?
Ik gok op blade servers, ja :).
domme vragen bestaan niet, alleen domme antwoorden...
Maar dan vraag ik me af, komen deze dan allemaal in 2socket mobo's te zitten en worden ze dan in een server geplaatst ofzow?
Probeer eens groter te denken dan je zolderkamertje..
Quad Socket moederborden
Nope.. per vier op een moederbord.

Maar ze zullen inderdaadn wel in blades zitten. Je moet dit immers ook nog kwijt ergens, en de meest logische manier is stapelen :P Losse ATXjes op elkaar zetten is nogal een instabiele boel, dus een rack-achtige oplossing ligt dan voor de hand ;)
Watvoor voeding??
Wat denk je?, het Franse Agenschap voor Atoomenergie gaat hem gebruiken!!!
die hebben genoeg manieren om wat juice op te wekken :)

[Reactie gewijzigd door ArnoAG op 30 mei 2010 17:44]

a nucleair power plant :D is dat niet wat veel 10MW (of is het onder tussen al wat meer?)
Hangt van het overklokken af... Misschien s er nog een kleintje erbij nodig:-)
Koeltoren van de kernreactor voor het koelen van de processoren...
Ons reactortje in Borssele doet 600 MW. In Doel, net over de grens in Belgie staat er een hele grote met 4 reactoren die 5 GW leveren samen.
ff 3D markje draaien, maar ik denk dat dit systeem slecht is op grafish gebied, misschien op CPU mode een wereld record halen :D
Ik neem aan dat ze met tweaken overklokken bedoelen
ik denk alles op elkaar afstellen dat alles goed met elkaar kan communiceren.

140.000 CPU's overklokken ???
Nou ik denk toch eerder aan het optimaliseren van netwerk pakketten en onderlinge communicatie tussen de onderlinge nodes.
Goed gedaan, iedereen staat verbaasd van je overklokkwaliteiten...

Ja, supercomputers worden alleen voor berekeningen gebruikt, maar dat omvat het maken van modellen, analyseren van celmutaties, en nog een heleboel andere dingen. Vantage zal dat ding sowieso niet draaien, ik ga er vanuit dat de computer een linux variant draait die speciaal gebouwd is voor supercomputers (die zitten vaak toch net wat anders in elkaar dan de gemiddelde thuisPC. Praktisch alle supercomputers zijn trouwens clusters met nodes er in, of in simpele termen: een heleboel computers bij elkaar.

Je hebt dus al een OS nodig wat al de taken kan distribueren (bucket rendering in de 3d industrie), en dan nog eentje die dat zeer efficient kan doen, en bovendien om kan gaan met 300 TB aan geheugenallocatie.

En voordat een of andere wijsneus me voor is: No, it won't run Crysis. :Y)
Jammer, dit zou wel is dé pc die alles maxed met redelijke fps zou halen... :+
Ik denk dat er dan videokaarten nodig waren.. Die heeft ie niet, en heeft ie ook niet nodig.
En voordat een of andere wijsneus me voor is: No, it won't run Crysis. :Y)
Als ze een speciale versie van Crysis uitbrengen voor dit ding: wel.

(epic heeft ooit UT uitgebracht voor de CAVE bij SARA, als ik me niet vergis)
Grappig feitje!
Alleen zal het nog steeds niet goed draaien, aangezien het systeem nou niet direct over een grafische kaart beschikt. Het zou wel mogelijk zijn met CPU-GPU emulatie, maar ik geloof dat met de laatste ontwikkelingen de maximale score 11 FPS is voor crysis op LOW (en dat op een high-end quadcore).

Maarja, mocht die techniek goed schaalbaar zijn, zou het mogelijk zijn. Mogelijk, niet relevant, aangezien je voor een fractie van de kosten een systeem in elkaar kan zetten met 4 videokaarten en een snelle i7. Neemt ook nog eens wat minder ruimte in. :)
DX10 simulatie op al die CPU's draaien; dan draait het crysis.

(zou het uberhaupt windows kunnen draaien?)

[Reactie gewijzigd door Gamebuster op 31 mei 2010 02:58]

ik wist zelf ook dat dé super computer niet op windows zou draaien.

Ut is meer als een lol opmerking bedoel maar wel off-topic ;) .

En ut boeit me verder niet wat anderen van mn overklok kwaliteiten vinden.

ik was alleen nieuwsgierig voor wat de super computer nu gebruikt word,

en wat je er allemaal mee zou kunnen doen
Nee. Uiteraard niet. Het gaat hier om een betere werklast verdeling of architectuur verandering naast het optimaliseren (software) van de workload. Er zijn nogal wat mogelijkheden om je workload te verdelen over (ik gok op meer dan) 10000 servers.

[Reactie gewijzigd door analog_ op 30 mei 2010 17:04]

niet noodzakelijk..

Dit kunnen :
software optimalisaties zijn
betere routing
snellere switches..
betere switch management..

dit zijn niet zomaar uw huis tuin keuken pc's..

Dit zijn 1000de losse reken units die gecombineerd worden om één super computer te bereiken, hierdoor heb je veel meer speling voor optimalisatie want 1% in netwerk prestatie, of netwerk driver prestatie, of virtualisatie optimalisatie heeft meteen een 1000-voud effect ..
Lijkt me dat de stabiliteit van het geheel vele malen belangrijker is dan de prestaties van individuele processoren. Sterker nog, het lijkt me waarschijnlijk dat ze de processoren juist ondergeklokt hebben, om de stabiliteit en betrouwbaarheid te verhogen.

Als je 140.000 van die dingen hebt lijkt het me handig als ze niet zo vaak stuk gaan, én dat ze stabiel en accuraat zijn.
Maakt niet echt uit, je hebt er toch 140000 als er dan eentje of een paar honderd uitvalt heeft dat denk ik niet direct een serieuze inpact. Berekeningen in dergelijke projecten worden regelmatig dubbel uitgevoerd en vervolgens vergeleken.
Hoeveel Watt voeding zal daar inzitten? :+

Edit: Laat maar, al gezegt }:O

[Reactie gewijzigd door iDaniel op 30 mei 2010 17:00]

De Xeon, op zich wel leuk.
Maar nog steeds qua schaalbaarheid staat de Opteron op 1.
Dus als ze dat beogen waarom dan geen AMD Opteron?
Bull is nooit anders dan een Intel schoothondje geweest, en ook 'Hardcore' Itanium supporter (Itanium Solutions Alliance), maar eigenlijk in computer land irrelevant. Bij een bedrijf met dergelijke filosofieën komt die keuze dan toch niet geheel als verrassing?
Het voordeel van de opteron is al sinds de introductie van Quickpath verdwenen. Dus waarom zou je voor AMD kiezen....
Niet helemaal waar.

Quickpath is een leuk alternatief.

Maar Hypertransport is nog steeds de snellere van de twee.
Als je letterlijk QP tegenover HT gaat zetten is QP simpelweg inferieur.,

Maar omdat processoren niet een dergelijke bandbreedte nodig hebben is het gewoonweg nog niet nodig.

Echter bij dit soort projecten is het zo dat hier weer wel behoefte aan is.
En dus had je zeker weten profeit gehad van de AMD Opteron.
Jezus zeg!!!
Wat een monster is dit.

Ik ben inderdaad wel benieuwd naar wat dit monster kost en verbruikt.
en zeg: 300TB aan werkgeheugen!


dit lijkt me inderdaad wel een redelijke kanshebber op de snelste supercomputer ter wereld.


Als iemand van het DPC-team nu even een mail stuurt naar deze mensen, misschien dat deze eraan mee wil doen... :+
Dat tikt dan lekker aan!
ik denk dat ze dat niet gaan doen, wat hebben ze eraan.

ik denk dat ze in dat gebouw niet echt een verwarming nodig hebben xD
hun warmte verkopen als stadsverwarming?
''Dit lijkt me inderdaad wel een redelijke kanshebber op de snelste supercomputer ter wereld."

Als je het artikel goed gelezen had dan had je gezien dat het, indien het op gewenste snelheden loopt, de nummer 13 snelste pc is. De snelste ter wereld wordt het sowieso niet. :P
PC lijkt me een "onderdreven" woord
Power Consumer
Volgens mij staat dat gewoon in het artikel?

Voor het simuleren van kernproeven dus...
Het word al in de inleiding van het artikel genoemd, bijzonder eenvoudig dat lezen:
Het Franse Agenschap voor Atoomenergie heeft een supercomputer in gebruik
En het nut word ook genoemd:
Het Franse Atoomagentschap zal de supercomputer gaan gebruiken voor het simuleren van kernproeven, zo meldt PCWorld.
Waar wordt dit voor gebruikt dan???
Voor NASA of de FBI ofzo??
Waarom zouden die een Europese (Franse nog wel) supercomputer gebruiken?
Dus je vind het alleen géén zonde als het voor de NASA of FBI wordt gebruikt? Right..
De andere oplossing is de kernproeven in het echt uitvoeren en daarmee een mooi eiland zoals Moruroa tot in de verre toekomst tot nucleair afval afwaarderen, zoals Frankrijk in het verleden al genoeg gedaan heeft.

Nee, dan geen ik toch de voorkeur aan een kernproeven m.b.v. een supercomputer. Dat is dan toch minder verkwistend.
Kernproeven slaan sowieso nergens op lijkt me.
Je weet dat die proeven niet als enige doel hebben om te "kijken hoeveel we op kunnen blazen"? Je kunt ook onderzoek doen naar bijv. kern energie (hoe kan dat veiliger en beter) en straling ( onder andere om bijv. kanker te genezen).

Dat zijn, als je 't mij vraagt, best nuttige dingen om te onderzoeken.
Prima. Dusseh, waar ga jij je energie uit halen als die kerncentrales e.d. maar "nergens op slaan"? Groene energie? Daar kom je niet mee toe. Wat een heel windmolenpark in 1 jaar levert doet een kerncentrale vrolijk in een uurtje :).
Lieve Kirth,
als we allemaal massaal aan de kernenergie gaan,
is die brandstof ook binnen 30 jaar op!
slechts uitstel dus.
http://nl.wikipedia.org/w...umenten_tegen_kernenergie
Wat zou de FBI met een supercomputer moeten?
Die hebben er al 1 of 2 :p
vingerafdrukkenvergelijken misschien?
Tegenwoordig wordt steeds meer data encrypted verzonden (SSL is een veelvoorkomend voorbeeld, maar ook bestanden worden versleuteld). Het kraken daarvan kost, op zijn zacht gezegd, wat tijd.

Maar alsnog, het potentiële NSA kraakcentrum zal geen CPU's gebruiken, maar GPU's, die zijn door hun vele streamprocessoren beter geschikt voor de taak.

Maargoed, dit ding is dus voor kernproeven (Frankrijk heeft nog steeds interesse in kerncentrales, en heeft ook een eigen eenheid voor het "afleveren' van een atoombom bij een mogelijke oorlog).
Ben jij nu echt zo dom? Het is een Europese computer...Dit zal toch niet gebruikt worden voor NASA of FBI? Daarnaast waarom zou de FBI uberhaubt een dergelijk snelle machine nodig hebben? Gaarna nadenken voordat je iets post!
leuk videokaartje erin zoals 10.000 5970's ofzo:P en gamen maar:D
Lol, helaas zal dat niet gaan..
Nee want dan heb je ook 10.000 monitoren nodig.
Sinds wanneer kunnen 10k kaarten in crossfire :P, zoiezo je kunt maar 2 Dual gpu kaarten in CF.. en 4 single GPU.. dus tot maximaal 4 GPU's

[Reactie gewijzigd door Clavis op 30 mei 2010 18:07]

Of gewoon een monsterlijke crossfire setup? :S
Daarvan maken we dan één scherm en dat plaatsen we op... eh... de Dam... kunnen we daar bij elkaar komen om te gamen... :Y)
Ga er maar vanuit dat wel weten wat ze doen, en veel beter als jij waarschijnlijk ;)
Denk je nu echt dat ze zoveel geld investeren zonder het vantevoren goed te onderzoeken? :P
ik ken overheids instanties, ik ga er niet vanuit dat ze weten wat ze doen. kernproeven lijkt me veel vector berekingnen, sluit me aan bij Red_inc, achterhaald concept Xeon processoren, gebuirk Nvidea Tesla computers hiervoor. En Cuda-core functionaliteit.
http://www.nvidia.com/object/preconfigured_clusters.html.

En dan kan je dus zo een oplossing maken http://www.appro.com/product/hyperpower_main.asp met tegen de 90tera flop rekencapiciteit met
edit:
80
1000 CPU nodes en 160 GPU 's. Zie ook commentaar hieronder. thxAli3nSt0rmz,

[Reactie gewijzigd door flossed op 30 mei 2010 21:08]

Er klopt hier iets niet lol.
Hoe bedoel je "een fact 70 kleiner"

Deze supercomputer gebruikt 140K aan cpu's, zonder extra gpu's

Met wat jij zegt zou die 800G gpu nodes gebruiken (wat al veel meer is dan de 140k cpu's, + komen daar nog eens 20k cpu's bij!

Dat is een groot aantal meer :P
De verwarring is begrijpelijk:
De voorgestelde cluster is als volgt opgebouwd.
1 cluster bestaat uit 40 nodes.
1 node bestaat uit 2 cpu's en 4 gpu's
iedere CPU bestaat uit 12 cores
ieder GPU bestaat uit 448 cores.
1 cluster heeft dus 80 GPU's en 160 GPU's laten we voor het gemak zeggen 240 processoren.

1 cluster kan ongeveer 90 TF aan. om de super computer te evenaren zou je, indien linear schaalbaar is, 11 clusters moeten neerzetten. (990PFLOPS ongeveer 1 EFLOP, ( met 2640 processing units zijn. wat ongeveer 1,89 % van het voorgestelde machine park is.zijnde een factor 53, excuses te enthousiast.)
QED.

nu durf ik te stellen dat 3000 Processing units een fractie van de energie van 140.000 CPU's zal gebruiken.

Dus waarom zoveel centen over de balk gooien? + oplossing is groener.

[Reactie gewijzigd door flossed op 30 mei 2010 21:06]

Het is overheidsgeld. En het zijn kernproeven, waarom moeten die groener ?
Vaak is het probleem dat zo'n instituut naar een bedrijf gaat en zegt: "ik wil een supercomputer" en net zoals je de auto zaak inloot en zegt: "ik wil een auto" kom je dan altijd uit bij de auto waar de verkoper het meeste op kan verdienen.
Ooit al van een openbare aanbesteding gehoord?
Ooit al van een openbare aanbesteding gehoord?
Dergelijke instituten zijn niet altijd voor het merendeel in handen van de overheid, een openbare aanbesteding is dan helemaal niet nodig.
Ooit al van een openbare aanbesteding gehoord?
Yep. Vandaar dat de Franse overheid na een lange aanbestedingsprocedure dan ook voor een Franse IT leverancier kiest (Bull is een Frans bedrijf)

[Reactie gewijzigd door awulms op 31 mei 2010 22:37]

GPU's zijn goed in single precision floating point (net zoals die rekenunits van de PS3 trouwens). Dit soort berekeningen vergt 64 bit double precision, of beter nog, de interne 80 bit precision van de Xeon FPU. De overhead van single naar double precision is al snel een factor vier. Ik denk dus niet dat hier echt eikels aan het werk zijn geweest :-).
GPU's kunnen inderdaad sneller zijn dan CPU's MAAR GPU's zijn slecht in dubble precision berekningen. Dus 64bit floating points. Voor grafische toepassingen kunnen die laatste paar getallen achter de komma weggelaten worden, dat betekend alleen maar dat een object een fractie van een pixel verkeerd op het scherm terecht komt. Als je echter atoom proeven gaat simuleren wil je wel degelijk zo vermogelijk achter de komma kunnen berekenen. Dan zijn CPU's nog steeds de beste oplossing.
of je haalt de komma uit de berekening. kan prima. alleen aan het eind weer terugzetten.

het voordeel van de GPU is juist, dat ze enorm snel zijn in het parallel bewerken van data. Stel je voor, dat je een heel array aan data hebt, waarbij je op elk element dezelfde operatie wilt uitvoeren. Dan moet je bij een CPU voor elk element die operatie uitvoeren, terwijl de GPU dat in 1 bewerking kan doen.

In hypothetische getalletjes om de orde van grootte van efficientie aan te geven:
* stel je data array is 1.000.000 64 bits getallen groot
* stel je meest efficiente CPU bewerking kost 20 clockcycles
* stel je meest efficiente GPU bewerking kost 2000 clockcycles

dan kost de CPU operatie 1.000.000 * 20 cycles is 20 miljoen clockcycles, en de GPU operatie dus maar 2000.

Als je een dynamisch programma hebt wat veel verschillende data moet verwerken, maar in kleine hoeveelheden, dan gebruik je daar dus je CPU voor, omdat dat ding goed is in generieke data verwerken. Heb je echter een probleem, dat eenvoudig uit te drukken is in iets dat parallel te bewerken is, en de GPU is de processor die je moet hebben.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneAsus

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013