Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties

China heeft een supercomputer, bestaande uit zes bladeclusters van Silicon Graphics, met een gedeelde geheugenarchitectuur in gebruik genomen. Het systeem moet data van een meteorologische satelliet verwerken.

Het nationale satelliet meteorologisch instituut van China, nsmc, heeft een nieuwe supercomputer in gebruik genomen. Het hpc-systeem werd geleverd door Silicon Graphics en is de vierde in de ranglijst supercomputers in China. De computer moet de lancering en het operationele funcioneren van een meteorologische satelliet, de Fengyun-3, voor zijn rekening nemen.

Silicon Graphics Altix 4700Om de datastromen van de satelliet op te kunnen slaan, is de computer uitgerust met een gedeeld opslagsysteem ter grootte van 26TB. De nieuwe aanwinst van het instituut is opgebouwd uit zes Altix 4700-eenheden, die onderling verbonden worden door SGI's Numalink. Met die verbindingen kan data met een snelheid van 6,4GB/seconde heen en weer tussen twee Altix-eenheden worden gestuurd: vele malen sneller dan een standaard netwerkverbinding. Dankzij de schaalbaarheid kan het systeem naar behoefte worden uitgebreid: de systemen worden allesbehalve maximaal benut. Momenteel is het, naast vierde op de ranglijst supercomputers in China, dankzij 4TB aan geheugen, de grootste computer met gedeeld geheugen.

Moderatie-faq Wijzig weergave

Reacties (50)

Geheugen is voor dit soort systemen geen probleem, jullie vergeten vast dat de data heel minimaal is ... kleiner dan CPU caches ... dus je hebt ook alleen maar ruimte voor opslag nodig.


Maarja tweakers kennen dat vast niet en denken alleen maar met tunnelvisie, dit soort servers worden voor een bepaalde taak gemaakt ... een server met meer MIPS/FLOPS zal echt niet beter presteren als het dezelfde taak moet uitvoeren.

Het is puur de toepassing waarvoor je het gebruikt, je laat je CPU ook geen wachtwoordenkraken ... dat laat je een GPU doen, niet omdat de GPU sneller is maar simpelweg omdat hij dezelfde berekening meervoudig kan toepassen en ee CPU niet.

In het leger van de UK hebben ze ook supercomputers staan met praktisch geen werkgeheugen ... alleen NUMA links ... waarom ... ze hebben het geheugen niet nodig, de data is zo minimaal dat deze in de cache van de CPU's kan blijven om verwerkt te worden. Waarom zou de 6,4GB/s dan niet voldoende zijn? Wil je er NOG MEER CPU's op loslaten en zo de kosten en het verbruik omhoog schroeven?


If you dont know shit about computing, think before you act! Wat hier lijkt het alsof jullie Crysis hierop willen draaien!
Ik dacht dat China meer van eigen producten uitging in plaats van een buitenlands, met name Amerikaans, product?

http://tweakers.net/archi...1-1999&dateEnd=22-01-2008
nieuws: China: ministeries mogen alleen Chinese software kopen
Persoonlijk ben ik niet zo heel erg onder de indruk van die 6,4 gigabit link. Voor 6000 Dollar heb je al een 10Gb interface voor een IBM P series server. Ok is ook wel eenheftige server maar toch is het wel mainstream
Gigabyte! niet Gigabit. ;)

6.4GByte is toch wel ietsje sneller dan die 10Gbit die jij noemt.
Los van de bandbreedte is vooral latency belangrijk in zo'n numa omgeving. Leuk hoor dat je 10Gbit haalt, jammer dat je, als een clockcycle een minuut zou duren, je al snel een paar dagen staat te wachten voordat je je data hebt. ff. nagezocht, latency ethernet: 30usec, NUMALink 1usec (factor 30), infiniband ~1,5usec. Zie ook: http://en.wikipedia.org/w...of_latency_and_throughput
supercomputer met 1280 cores
Sjtig genoeg staan er in het artikel geen details over klokfrequentie en merk/type :>
Zullen vast geen Pentium 1 Cores zijn :P
Te bedenken dat je voor 26TB rond de 3000 euro kwijt bent maar :o

Edit: was niet als reactie op Matantur bedoeld.

[Reactie gewijzigd door QinX op 21 januari 2008 18:53]

Deze computers zijn wel wat zwaarder uit gerust met de goedkoopste 500GB schijven uit de pricewatch. Denk aan 15k schijven.
... plus waarschijnlijk dat de data wel in RAID-5 of RAID-6 wordt aangeboden, verdeeld over meerdere units die dan weer met SCSI of een fiberchannel oplossing in het systeem komt. Dat is echt wel wat duurder dan alleen de losse disken :)
Deze computers zijn wel wat zwaarder uit gerust met de goedkoopste 500GB schijven uit de pricewatch. Denk aan 15k schijven.
vergeet het magische woordje er niet bij: SAS/SCSI. (anders is 't misschien nog niet duidelijk dat je in zo'n systeem geen standaard SATA schijfjes propt)

[Reactie gewijzigd door arjankoole op 22 januari 2008 06:29]

De nieuwe aanwinst van het instituut is opgebouwd uit zes Altix 4700-eenheden
En als je dan op 'Altix 4700' klikt en naar 'Configurations' gaat in het menu links, staat er wat er in zit.
Of zit ik nu helemaal verkeerd hiermee..? :/
Density Configuration
Two processor sockets per blade
• Up to 78* Intel Itanium Processor sockets per rack
• Dual Core Intel Itanium Series 9000 1.67GHz,
8, 18 or 24MB/667MHz FSB
• 8 DIMM slots per blade: 1GB, 2GB or 4GB
DIMMs

http://www.sgi.com/pdfs/3867.pdf
Hoe groot is nu zo'n hedendaagse supercomputer?
Ben wel benieuwd hoeveel zoiets nou kost. Ook in onderhoud en stroomverbruik ed. Hoe koelen ze dat ding eigenlijk?
Ze hebbeb 1.4 miljard chinezen, ik denk dat ze er een heleboel laten blazen :p
zeer gemakkelijk, zoals dat op mijn werk ook gaat met de servers :P

worde ze te warm, gaat de sprinkler aan ;( :>
8)7 Jeetje, achtergestelde techniek daar op jouw werk, dat ze nog steeds de voorloper van de huidige waterkoeling gebruiken :+
haha neeh, dat was 1x ongelukje :P
mja wel lekker duur voor t bedrijfie ;) en gelukkig waren die servers tog aan vervanging toe, vieze spinnennestjes 8)7
1280 cores? Mwah. De huidige supercomputer in Amsterdam bij SARA heeft er iets van 1900, en dat ding wordt dit jaar vervangen door een lief Power6 beestje... Als die Chinezen het hier mee moeten doen, redden we het voorlopig nog wel in de concurrentieslag :)
Als de chinezen het hier mee moeten doen. Moeten doen? Als de toepassing niet 'meer' vraagt dan wat er staat zou het toch van de gekken zijn om onder het mom van prestige er 2000 cores in te flikkeren?
Waarom jezelf beperken tot de huidige toepassingen, terwijl je met het opschalen van de capaciteit ook kunt innoveren in het gebruik? Bekrompen lineaire denkwijzen hebben we niets aan :)
Maar wat nu state of the art is, is dat binnen de kortste keren niet meer. Het betreft een meteorologisch instituut die bepaalde berekeningen moet maken. De keuze voor dit systeem is ongetwijfeld voortgekomen uit een zorgvuldige afweging van de voor- en nadelen. Als blijkt dat dit instituut hier genoeg aan heeft, is het onzin om er 800 cores extra in te gooien. Zou wat zijn zeg, als ze dit in de winkel zouden proberen. Ik heb geen Quad core met 8800GT Ultra in SLI als ik alleen mn mail check en wat rondsurf. Kopen naar de eisen, niet om te kijken wie de snelste heeft.
Dat bedoel ik dus niet, ik zal het toelichten door in het door jou aangehaalde voorbeeld te blijven;

Stel je hebt een computer (sterk verouderd systeem), waar je enkel email op leest en wat tekst op verwerkt. Je moet een nieuwe computer aanschaffen, omdat jouw computer kapot is. Dan ga je toch niet voor een pc met vergelijkbare mogelijkheden, maar neem je toch een systeem waar je vernieuwd systeem waar je niet enkel op kan emailen en kan tekstverwerken? Door de capaciteit niet evenredig met het beoogde gebruik op te schalen, leg je nieuwe mogelijkheden voor je open, voor bijvoorbeeld heftige grafische bewerking, om maar iets te noemen.

Ergo; ik geloof best dat deze Chinezen goed hebben gekeken naar wat ze nodig hebben, en zodoende niet te veel aanschaffen, maar zoals 'vistu' het omschrijft lijkt het wel alsof er niet verder gekeken hoeft te worden, en het toekomstige gebruik dus beperkt moet worden door de huidige aanschaf, terwijl de Chinezen net zo goed meer mogelijkheden open kunnen leggen door nt even wat meer aan te schaffen.
Ik ben het met je eens dat je ook op, nu nog onbekende, toepassingen in de toekomst moet kunnen anticiperen.
Maar nergens blijkt dat de Chinezen dit niet gedaan hebben. Wellicht hadden ze aan 640 cores genoeg, maar hebben ze er toch 1280 genomen.

Ook is dit systeem, althans zo haal ik het uit het artikel, makkelijk uitbreidbaar, waardoor er door toekomstige behoeften alsnog uitgebreid kan worden; en over n of twee jaar is die hardware die daarvoor noodzakelijk is, goedkoper dan er nu alvast rekening mee te houden.
In de meteorologie/klimatologie/atmospheric sciences is het leven simpel: De komende decennia (en practisch gezien altijd) is computerkracht de beperkende factor.
Voorbeeldje: ik doe redelijk gedetailleerde simulaties van wolken. Dat kan ik ongeveer real time doen met een gridsize van 10m op 64cores. Maar dan wel met een domeingrootte die vergelijkbaar is met 1 gridbox van een weersmodel: 10x10km praten we dan over. Dan hebben we dus net 1 stadje (Groningen ofzo) gehad; nu de rest van Europa (of China) nog

Ofwel, erg indrukwekkend is het niet.
Ik zeg dat het technisch prima te doen valt, en dat er een X86 systeem geemuleerd moet worden, het zal natuurlijk nooit gebeuren en het systeem is er absoluut niet voor bedoeld, maar omdat het ding zo ontzettend veel kracht heeft kan dat prima

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True