Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 218 reacties, 44.227 views •
Submitter: Henk007

Het Franse Agentschap voor Atoomenergie heeft een supercomputer in gebruik genomen die met een potentiŽle rekenkracht van 1,25 petaflops mogelijk de snelste van Europa zal worden. De Tera 100 is gebouwd door Bull.

De Tera 100-supercomputer, die afgelopen week in gebruik is genomen, bestaat uit 140.000 Intel Xeon 7500-processorcores en 300TB aan beschikbaar werkgeheugen. De totale opslagcapaciteit zou 20PB bedragen, terwijl doorvoersnelheden tot 500GBps behaald zouden worden. Het rekenmonster draait momenteel nog proef en behaalt daarbij een gemiddelde maximale rekensnelheid van 0,825 petaflops en pieksnelheden van 1 petaflops. Het Franse Atoomagentschap zal de supercomputer gaan gebruiken voor het simuleren van kernproeven, zo meldt PCWorld.

Bull denkt dat de supercomputer na het nodige tweaken een pieksnelheid van 1,25 petaflops en een gemiddelde rekensnelheid van 1 petaflops kan behalen. Indien de Tera 100 deze snelheid daadwerkelijk weet te behalen, dan zal het rekenmonster op de derde plaats eindigen in de huidige ranglijst van Top500.org. Daarmee is de Tera 100 de snelste supercomputer van Europa. Het zal echter tot vermoedelijk september gaan duren voordat de supercomputer op volle toeren draait en Bull zal vervolgens tot november moeten wachten om in de Top500-lijst te worden opgenomen.

Reacties (218)

Reactiefilter:-12180190+171+26+30
Moderatie-faq Wijzig weergave
1 2 3 ... 6
Voor alle duideljkheid: dit is een rekencluster. Vragen over voeding, schaalbaarheid, rekenkracht en bandbreedte moet je dus ook in dat perspectief zien. http://www.techno-science.net/?onglet=news&news=7854 heeft wat meer info: het cluster zou bestaan uit 4300 servers van het type "BullX". Dan heeft dus elke node 32 cpu's, ~70GB RAM en ~4,5TB aan disk. Bovendien maakt deze bron gewag van het feit dat het boeltje op een Linux variant draait en de software allemaal opensource zou zijn.

Volgens specsheets van BullX servers (http://www.bull.com/extremecomputing/bullx_specsheet_en.pdf) gebruiken deze bladeservers to 8,5kW per chassis van 18 blades. Elke blade heeft 2 cpu's en maximaal 96GB RAM. Er wordt echter geen gewag gemaak van 75xx Xeons, dus we mogen ervan uitgaan dat de Fransen hier een aangepast ontwerp hebben besteld en gekregen ;)
Het boeltje raait volgens deze specsheets op Windows HPC of redhat. Aangezien het OSS is, zal het wel RedHat zijn :p
Wel raar dat hij op plaats 13 zou komen en de snelste van Europa zou worden. In Duitsland staat de JUGENE - Blue Gene/P Solution , gefabriceerd door IBM die op nummer 4 staat in de vorige TOP500 List... Volgens deze lijst zou de Tera 100 zelfs op de 3e plaats komen vůůr de Kraken XT5 met zijn 1028 Gflops..
Iemand die kan uitleggen waarom de supercomputers zoveel gebruikt worden voor het simuleren van kernproeven? Het lijkt me niet dat dit alleen militaire doeleinden heeft.
Iemand die kan uitleggen waarom de supercomputers zoveel gebruikt worden voor het simuleren van kernproeven? Het lijkt me niet dat dit alleen militaire doeleinden heeft.
Omdat het uiteindelijk ook tot de Fransen is doorgedrongen dat kernwapens in het echt testen nogal schadelijk is voor de gezondheid van de locale bevolking. Met deze computer kunnen ze dus (wijzigingen in) hun nucleair arsenaal testen zonder weer een atol op te moeten blazen.

Al neem ik aan dat het ook wel voor de ontwikkeling van kernreactoren gebruikt zal worden, Frankrijk heeft namelijk vrij veel van die dingen.
In Frankrijk staat toch een van de belangrijkste kernfusiereactoren?

Ik neem aan dat deze supercomputer daar dus ook wel voor zal gebruikt worden.
Lijkt me dus eerder hoofdzakelijk voor wetenschappelijke doeleinden.
Kernfusie en kernproeven zijn 2 totaal andere dingen. Een kernproef is simpelweg een bommetje testen. Het is qua fysica en qua doeleinden heel anders dan de ITER (de kernfusie reactor) die men in Frankrijk gaat bouwen.
Ok inderdaad belangrijk verschil dat ik over het hoofd had gezien :)

Maar in ieder geval drukte ik de hoop uit dat ze de supercomputer ook voor andere nucleaire projecten zouden gaan gebruiken.
2 Totaal verschillende dingen die eigenlijk toch wel hetzelfde zijn. Een kernbom is een ongecontroleerde reactie die een ontploffing tot gevolg heeft, een kerncentrale is een gecontroleerde reactie die, als het goed is, geen ontploffing tot gevolg heeft.

Eigenlijk is het grote verschil tussen een atoombom en een kerncentrale de aanwezigheid van een materiaal wat neutronen absorbeerd, en dus voorkomt dat de boel steeds sneller gaat reageren, en dus sneller energie af gaat geven. Bij een atoombom wil je juist alle energie in een keer loslaten.

Kernfusie is dan wel weer een heel ander verhaal, maar daar weet ik niet zo veel van af (nooit in verdiept).
Kernfusie is dan wel weer een heel ander verhaal, maar daar weet ik niet zo veel van af (nooit in verdiept).
De krachtigste atoomwapens zijn werken inmiddels al behoorlijk lang met kernfusie: waterstofbommen.
De krachtigste atoomwapens zijn werken inmiddels al behoorlijk lang met kernfusie: waterstofbommen.
Ja, en nee.

De wapens waar jij het over hebt zijn merendeel combinatie wapens. DWZ het is een kernfusie bom, maar de enorme hoeveelheid energie (ook wel: energiebudget) die nodig is om fusie op te starten vergt een boosted-fisie atoombom. (een atoombom met een lading tritium).

Dat is ook de reden dat er zo ongeloofelijk veel radioactieve fallout vrijkomt bij een fusiebom, als het zuivere fusie was geweest, dan was dat een stuk minder geweest. (nooit nul). Onderandere werk aan de Z-Machine (link) van Sandia Labs focussed zich op de energie research die nodig is om zowel fusie mogelijk te maken voor kernfusie centrales, als voor schone kernfusie wapens.
[...]

schone kernfusie wapens.
Zo'n belachelijk krom concept, 'schone' massavernietigingswapens. Geen bloed! (dat verdampt/verbrandt namelijk meteen)
Kernfusie en kernproeven zijn 2 totaal andere dingen. Een kernproef is simpelweg een bommetje testen. Het is qua fysica en qua doeleinden heel anders dan de ITER (de kernfusie reactor) die men in Frankrijk gaat bouwen.
Toch kun je van een kernfusie explosie in bom vorm ( in weze een fusie bom met een atoombom slaghoedje, die zelf weer een slaghoedje van conventionele explosieven heeft ) een hoop leren qua fysica. Ook dingen die nut hebben voor ITER.
Omdat bij kernenergie nog steeds heel veel energie verloren gaat, ik denk dat ze dan vooral gaan kijken hoe ze er nog meer energie kunnen uithalen, maw nog meer efficientie.
Of kijken hoe ze het waste material van nucleair materiaal kunnen afbreken..
De belangrijkste reden waarom het rendement van kerncentrales eerder laag ligt is omdat men het water van van het primaire circuit niet wil laten koken (PWR = pressurized water reactor). Er bestaan ook centrales waar dat wel gebeurt (BWR = boiling water reactor) maar om veiligheidseisen geniet de eerste soort de voorkeur. In West-Europa vind je dacht ik enkel nog PWR centrales.

Het is dus een beetje rendementsverlies voor een veiliger type centrale. Dat geeft welliswaar iets meer kernafval, maar kernafval is nog altijd een stuk beter dan een potentieel op hol slaande centrale.
Volgens mij heeft het te maken met de gigantische kettingreactie die bij een kernsplitsing optreedt. Het gedrag van deeltjes op een bepaald moment is alleen te bepalen door alle voorafgaande reacties mee te nemen in de berekening. En dat moet dan allemaal in een 3d scenario gesimuleerd worden om de vorm en omvang van de uiteindelijke explosie te bepalen.
Bull denkt dat de supercomputer na het nodige tweaken een pieksnelheid van 1,25 petaflops en een gemiddelde rekensnelheid van 1 petaflops kan behalen.
Kan iemand uitleggen waarom er een verschil is tussen maximim en gemiddelde rekensnelheid?
Een processor op bijvoorbeeld 2 GHz voert 2 miljard instructies per seconde uit. Als dat SSE-instructies zijn, dan kan je 4 flops per klokpuls uitvoeren en heeft je processor een pieksnelheid van 2*4=8 gigaflops.

Alleen zal een realistische applicatie niet in ieder instructie van het programma een SSE-instructie uitvoeren die 4 floating point operations uitvoert. Een realistische applicatie heeft doet ook integerbewerkingen, spronginstructies, bewerkingen met de stack e.d.

Sommige applicaties doen meer flops dan andere. Je rekensnelheid hangt dus ook van je applicatie af. En daarom ligt de gemiddelde rekensnelheid per definitie onder de maximale rekensnelheid.
sommige delen van de simulatie zijn uiterst paralelliseerbaar, en dan kan je dus perfect opschalen met zoveel cores. Andere delen van de simulatie vergen misschien berekeningen die afhankelijk zijn van elkaar en dan komt er een hoop overhead bij kijken om data van de ene fysieke cpu/geheugen naar het andere te krijgen voor verdere berekeningen. De overhead zorgt dus voor netto minder prestaties.

Let op dit is 1 reden, er zijn er vast veel meer, maar deze materie is niet bepaald makkelijk het is ook niet voor niks een master richting in de Computer Science/engineering.
De Xeon, op zich wel leuk.
Maar nog steeds qua schaalbaarheid staat de Opteron op 1.
Dus als ze dat beogen waarom dan geen AMD Opteron?
Bull is nooit anders dan een Intel schoothondje geweest, en ook 'Hardcore' Itanium supporter (Itanium Solutions Alliance), maar eigenlijk in computer land irrelevant. Bij een bedrijf met dergelijke filosofieŽn komt die keuze dan toch niet geheel als verrassing?
Het voordeel van de opteron is al sinds de introductie van Quickpath verdwenen. Dus waarom zou je voor AMD kiezen....
Niet helemaal waar.

Quickpath is een leuk alternatief.

Maar Hypertransport is nog steeds de snellere van de twee.
Als je letterlijk QP tegenover HT gaat zetten is QP simpelweg inferieur.,

Maar omdat processoren niet een dergelijke bandbreedte nodig hebben is het gewoonweg nog niet nodig.

Echter bij dit soort projecten is het zo dat hier weer wel behoefte aan is.
En dus had je zeker weten profeit gehad van de AMD Opteron.
Ik zou wel graag een keer een foto willen zien wat deze computer nou qua ruimte in beslag neemt, en hoe wordt deze gekoeld ? waterkoeling, heatpipes o.i.d ?
uitgaand op deze schets, en wat maten die ik op het internet heb gevonden(48,26 cm breed, 1 m diep) zou ik zegen dat roadrunner ongeveer 1.42KM2 beslaat, dat zijn dan alleen de racks, dus zonder de gangen.
Kernproeven hebben uiteraard niet alleen militair nut...
Ik denk dat de meeste mogendheden met kernwapens wel ongeveer een landje plat kunnen leggen mochten ze dat nou perse nodig vinden.
Ik denk dat je meer moet denken aan veiligheid en rendement verhogen van kernenergie.

[Reactie gewijzigd door Gerardva op 30 mei 2010 17:19]

Ik ben bang dat die kernproeven wel degelijk voor het leger zijn bedoeld, maar zo'n supercomputer is gewoon ook een prestigeproject voor frankrijk, en dan moeten ze er nog wel een nut voor verzinnen. Persoonlijk had ik ook liever gehad dat ze er molekulen mee zouden folden.
Ik neem aan dat deze supercomputer ook gebruikt gaat worden behalve kernproeven. De grote rekenkracht kan natuurlijk ook verdeelt worden voor andere taken. Het weer wordt volgens mij ook door middel van een supercomputer berekend en voorspeld.
Vergeet niet dat het op 140.000 Cores gaat en niet zoals in het artikel 140.000 processoren.
dat scheelt een factor 6-8.


maar nog steeds indrukwekkend denk ik.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True