Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 84 reacties

SURFsara geeft de 'nationale supercomputer' Cartesius in de tweede helft van 2016 een upgrade met onder andere Intel Broadwell-processors. De rekenkracht van het cluster moet hierdoor toenemen tot 1,8 petaflops.

Cartesius is de krachtigste supercomputer van Nederland en het cluster krijgt in de tweede helft van 2016 een flinke upgrade om de beschikbare rekenkracht verder te verhogen. SURFsara, verantwoordelijk voor het systeem, laat Cartesius door fabrikant Bull uitbreiden met Intel-processors die op de Broadwell-architectuur gebaseerd zijn.

Momenteel bestaat Cartesius uit zeven zogenoemde Islands en zeven nodes met Haswell-, Ivy Bridge- en Sandy Bridge-processors. Het krachtigste eiland bevat 360 bullx B720-thin nodes met elk een duo op Haswell gebaseerde Intel Xeon E5-2690 v3-chips met twaalf cores.

In totaal bevat het cluster 40.960 cores en 132 gpu's voor een piekrekenkracht van 1,559 petaflops. Dat neemt door de upgrade toe met 260 teraflops tot 1,8 petaflops. Bij de november-editie van de wereldwijde Top500 van supercomputers nam Cartesius plek 69 in. Door de upgrade zou die positie op dit moment stijgen naar plek 37, maar tegen de tijd dat de nieuwe rekenkracht ingezet kan worden heeft de concurrentie waarschijnlijk ook niet stilgezeten.

De upgrade met Broadwell gaat gepaard met het toevoegen van ondersteuning voor enhanced datarate InfiniBand en Bulls Sequana-platform, waarbij gebruikgemaakt wordt van een schaalbaar ontwerp met cellen en vloeibare koeling.

Cartesius wordt met name gebruikt door wetenschappers voor berekeningen met betrekking tot klimaatonderzoek, watermanagement, medische toepassingen en productoptimalisatie.

Cartesius-supercomputer

Moderatie-faq Wijzig weergave

Reacties (84)

Misschien off topic, maar ik heb me altijd al afgevraagd voor een besturingssysteem op zo'n monster zit, gewoon UNIX? of een speciaal geprogrammeerd besturingssysteem?
Met grote waarschijnlijkheid linux.
Volgens de top500 statistieken draait 98,8% van de 500 snelste computers ter wereld linux.
http://www.top500.org/statistics/list/

[Reactie gewijzigd door Dstre4m op 9 februari 2016 19:21]

Ter vervollediging: als je die 98.8% weegt naar kracht van de computers kom je zelfs uit op 99.6%. En die laatste 1.2% (of 0.4%) zijn 6 UNIX systemen. Kijkende naar de huidige trend ziet het er naar uit dat binnen één a anderhalf jaar tijd het 100% linux zal zijn. Bron: http://www.top500.org/statistics/details/osfam/3

Sowieso wel grappig, als je bij SARA rondloopt dan draaien zelfs de meeste desktop/laptop systemen daar Linux van wat ik zag. Zeker niet iedereen, maar meer dan ik denk ik waar dan ook anders heb gezien :+ . (Alhoewel de eerlijkheid me ook gebied te zeggen dat ik een aantal XP bakken langs zag komen O-) ... maar was wel al een jaar of 3 of 4 geleden)

[Reactie gewijzigd door David Mulder op 9 februari 2016 23:56]

Ook op science park heeft ongeveer de helft Linux. Degenen die windows draaien doen dat vaak omdat ze er ook op gamen. En er zijn wat MacBook.
uhm Bijvoorbeeld Als 1 processor (dus 1 cpu) stuk gaat zou de hele OS crashen ?

Zo ja hoelang zal het duren om die ene defecte cpu te vinden :)

dat vraag ik me wel af weet iemand het antwoord daarop ?
Cartesius is gewoon een Linux cluster en als een CPU stuk gaat dan crasht waarschijnlijk een job die op de node draait en wordt de node automatisch uit het batch systeem gegooid. In ergste geval moet de gebruiker de job opnieuw starten.
Ook niet gek aangezien Linux oneindige loops in 5 seconden draait :) :

We all know Linux is great... it does infinite loops in 5 seconds. - Linus Torvalds about the superiority of Linux on the Amterdam Linux Symposium
Als we dan toch bezig zijn, ik kan me zo'n supercomputer niet inbeelden wat die nou precies meer/beter/sneller kan dan.... een normale desktop pc? Iemand die zin heeft een leuke vergelijking te maken voor een digibeet?
Een supercomputer kan complexe rekentaken verdelen over meerdere computers zodat het resultaat sneller is berekend.

Een snelle desktop-pc (snelle 6-core Intel i7 uit 2010) haalt 100 Gigaflop/s.
Een Teraflop is 1000 Gigaflop/s. Een Petaflop is 1000 Teraflop/s.

Een Supercomputer die 1,8 Petaflop/s haalt kan dus ongeveer 18.000x zo snel tot een resultaat komen als een snelle desktop-pc met Core i7 uit 2010.

Dit wordt gebruikt voor complexe simulaties zoals weersvoorspellingen, het ontstaan van het heelal, medische toepassingen et cetera.

Deze supercomputer kan dus in twee dagen iets berekenen waar een desktop-pc 100 jaar over zou doen. Er is weinig ander onderscheidt tussen een supercomputer en een desktopcomputer behalve dat eerstgenoemde geschikt is gemaakt om de berekeningen te verdelen over meerdere computers.

Toevoeging; door de manier waarop een supercomputer is opgebouwd kan natuurlijk ook veel meer geheugen worden geadresseerd.

De leuke vergelijking waar je om vraagt, royzethoi, is dus eigenlijk;
Een supercomputer is een team bestaande uit 18.000 mensen die samen werken om een groot project snel tot een goed einde te brengen.

[Reactie gewijzigd door RolfLobker op 9 februari 2016 19:37]

Dit is wel een simpele benadering. Allereerst moet het probleem geschikt zijn om parallel aan te pakken, dan moet het ook nog slim geprogrammeerd worden...oa het aantal i/o bewerkingen moet relatief laag zijn.

Dan hebben we het nog niet over het eventuele voorwerk om data bij het cluster te krijgen.

En dan maar hopen dat het computer programma correct is...het komt te vaak voor dat een stomme bug de boek in de soep laat lopen en dan mag je weer achteraan sluiten...vaak 2 3 weken later.

Tijdswinst kan een vertekend beeld zijn. Belangrijk is te kijken naar de totale doorlooptijd.
Tijdswinst kan een vertekend beeld zijn. Belangrijk is te kijken naar de totale doorlooptijd.
Nee hoor, dat doet niks veranderen aan het feit dat een supercomputer meer winst maakt op tijd vergeleken een normale desktop.
Stel er komt een bug om de hoek kijken terwijl je een i7 gebruikt zoals in bovenstaande ''discussie'' dan zou je dus 200 jaar bezig zijn ipv 100 jaar. Feit blijft dat een supercomputer veel winst maakt op de tijd, iets wat natuurlijk wel belangrijk is bij bepaalde onderzoeken. De totale doorlooptijd zal dus ook een stuk korter zijn bij een supercomputer vergeleken een high end desktop.

Het is dus geen vertekend beeld, het is gewoon een feit dat een supercomputer winst maakt op tijd.
Je bent opgegroeid in de tijd van plenty.

Vroeger werd je getraind om code te schrijven en te debuggen op papier omdat computertijd duur was.

Ik vind het overigens allemaal wel goede ontwikkelingen, maar het is te kort door de bocht om te denken dat met compute tot snellere en betere uitkomsten leidt.
1+1 = 2, dit doe ik sneller uit mijn hoofd dan met een rekenmachine. Echter 6584984 x 48945632 / 487 ga ik niet uit mijn hoofd doen of met pen en papier, dan pak ik toch echt wel een degelijke rekenmachine. En waarom? Gaat een stukje sneller.
Dus inderdaad met een supercomputer zijn bepaalde berekeningen veel sneller gedaan dan wanneer men het met pen en papier zou doen.
Het ligt toch aan de toepassing? Je moet niet een supercomputer gaan gebruiken om spelletje te doen of andere nutteloze zaken. Je moet hem gebruiken daar waar die geschikt voor is.

Dit heeft niks te maken met programmeren op papier omdat een computer aanzetten duur is.
(100.000.000.000 + 100.000.000.000)/20.000 is een nog groter getal...punt is, elk vraagstuk heeft een ander optimum, er is niet zoiets als de standaard perfecte aanpak.

Bij schaarste leer je slim omgaan met wat je hebt. Ook bij hpc vraagstukken is tijd schaarse goed. Domweg te veronderstellen dat meer compute leidt tot snelheidswinst is dom.

Allereerst omdat bepaalde stappen in de verwerking niks te maken hebben met snel kunnen rekenen, i/o bewerkingen is een goed voorbeeld. De ten tweede, soms moet je slimmigheid gebruiken ipv raw compute, een goed voorbeeld zijn videocompressie technieken. Ten derde sommige dingen kun je niet uitrekenen met computers, b.v euh 1+2+3...oneindig...het hpc komt niet in de buurt van het antwoord -1/12...iets waar quantum genoeg is nogal mee te maken heeft.

Alle drie voorbeelden die niets te maken hebben met typos, maar significant op de doorlooptijd, toch redelijk vaak voorkomen en waar RAW compute niet een verschil maakt. Sterker nog, in sommige gevallen is jouw telefoon net zo snel als het snelste hpc.
Het gaat om het delen van taken over meerdere processoren.

Stel je voor dat je pc thuis 1 processor met 1 core heeft en voor het berekenen van een moeilijke som 1 minuut nodig heeft. Als je dezelfde som nu aan een systeem geeft met 4 processoren met 1 core (identieke processoren) en het systeem is geoptimaliseerd om van meerdere processoren gebruik te maken, dan zal het oplossen van de som significant sneller gaan. Ik verwacht niet lineair 4x zo snel, maar toch meer dan de helft van de oorspronkelijke tijd.

Zoals in het nieuwsbericht staat wordt deze (en vrijwel alle) supercomputer(s) gebruikt voor complexe berekeningen zoals klimaatmodellen/veranderingen etc. Dat zijn dusdanig complexe modellen (mede door het vele onderzoek in de voorgaande tientallen jaren) dat hier veel computertijd voor nodig is. Zulke berekeningen zijn haast niet op een thuispc uit te voeren.
Maar om dat te bewerkstelligen heb je wel software nodig die kan multithreaden. Ik vraag me dan voornamelijk af wat voor software erop draait (niet OS, maar de software die de berekeningen doet). Die software moet wel in staat zijn om al die 40.960 cores te kunnen benutten. Dat is geen standaard MKB-softwarepakketje laten we maar zeggen.
Oeps, was dubbel.

[Reactie gewijzigd door Kuijpers13 op 10 februari 2016 14:44]

Al de uitleggen komen steeds op het zelfde neer, maar zeggen mij ook niet echt veel.
Je kan het vergelijken met een zwembad vol laten lopen. Neem 1 pomp met een capaciteit van 1 en het duurt 1 eenheid lang. Als je dit parallel door 10 pompen laat uitvoeren ben je 10x sneller klaar.
Hierbij is data te zien als water. De kunst is aan de aanvoer kant genoeg water te krijgen (data). Stel je wilt berekenen (4+5) x (6+5), dit kan je met 4 cpu's doen. Pakketje 1 (4+5) en pakketje 2 (6+5) stuur je (1ste cpu) naar 2 (2de en 3de CPU) verschillende computers. Het resultaat verzamel je in een vierde cpu en vermenigvuldig je.
Vooral bij grote matrix berekeningen kan je dit "eenvoudig" opsplitsen.
Zoals ik begrijp uit de verhalen heb je dus CPU's met een OS die specifiek voor die taak is ingericht en niks anders doet en wel zo efficient mogelijk.
Goed voorbeeld van verkeerd redeneren.

Die pompen trekken vermogen, op een gegeven moment slaan de stoppen eruit omdat er teveel pompoen staan, of wordt er zoveel water per seconde uit de bron getrokken dat elke pomp niet kan beschikken over de minimale hoeveelheid die het nodig heeft.

Ook gaan er andere problemen optreden. Bij teveel pompen krijg je het zwembad nooit vol. Het water is te turbulent en voordat het zwembad vol is, stroomt het er al uit.

De overhead die nodig is om heel veel pompen te beheren, is hoger dan van een paar pompen. Bv bij heel veel is er altijd wel iets dat niet goed functioneert en onbedoelde effecten heeft op het functioneren op het geheel.
Dit is wel een heel slecht voorbeeld. Het enige wat je parallel kan doen zijn de beide optellingen. De vermenigvuldiging kan pas gebeuren als de optellingen gedaan zijn. En als je daar een andere CPU voor zou gebruiken kost het extra tijd, want dan moeten de tussenresultaten via het geheugen.
Een supercomputer in deze form is bijvoorbeeld zeer geschikt op simulaties te doen van een monolayer van moleculen op een oppervlakte. Het berekenen van een/enkele molecu(u)l(en) duurt al behoorlijk lang met een gewone pc. Ze houden hierbij rekening met een aantal quantum mechanische effecten welke nogal wat rekenkracht vergt.

Als je dan wilt zien hoe een stof zich gedraagt als je er 1000 van op een oppervlakte plaatst kun je dit niet meer doen met een gewone PC. Dit zal dagen/weken duren voordat dit klaar is. Ik heb een aantal jaar geleden in een project gewerkt met dergelijke simulatie en deze werd door de supercomputer van de UvA in 2 uurtjes klaargestoomt.

Verder zijn er nog heel veel andere dingen die je wel met een super computer kan, maar volgens mij zijn het voornamelijk simulaties, pin mij er alleen niet op vast :P
Daar draait niet één besturingssysteem op maar een cluster OS. Elke node heeft zijn eigen OS en daarbovenop draait dan het cluster OS (kan vanalles zijn, er is zelfs een cluster Windows) en zolang je toepassing met parallele threads overweg kan, kan je dan 1 toepassing starten die alle threads van alle nodes combineerd.

[Reactie gewijzigd door 148406 op 10 februari 2016 07:05]

Niet om het een of ander, maar het is thread als in draad, niet threat als in gevaar ;)

Nou heb ik geen ervaring met cluster programming, maar ik neem aan dat het wat ingewikkelder is dan alleen meerdere threads? Want het geheugen is ook verspreid over het totale systeem en is derhalve niet zonder meer zomaar aanspreekbaar voor de applicatie. De applicatie zal dus wel enigszins op de hoogte moeten zijn van de nodes, en daar ook actief mee om moeten gaan.
Er zijn 1 of een aantal "hoofd" servers die het "overzicht" houden door wijze van het werk in hapklare stukken verdelen over de daadwerkelijke rekenaars. Alle servers draaien gewoon een eigen OS wat vaak een linux distributie is vanwege de lage resource benodigheden voor het OS (je wilt geen grafische schil met 500000 verschillende mooie configurate schermen, gewoon plain text config bestanden werken ook prima, het is set and forget op de werk nodes)
De specificatie pagina die ook in het artikel gelinkt is geeft aan dat het bullx linux draait, een met RedHat Enterprise compatible OS.

"Each node runs under one operating system (bullx Linux, which is a Linux distribution compatible with Red Hat Enterprise Linux) and shows a single memory image to the user programs."
BullX linux hebben we gebruikt voor de vorige versie van de software (SCS4 R2 en R3). Dit was een RHEL kloon vergelijkbaar met CentOS of Scientific Linux. De aanpassingen die we daarin gedaan hebben zijn inmiddels in de verschillende source trees terug gepushed en nu (R4) kunnen we RHEL gebruiken voor de meeste compute nodes en service nodes. Alleen voor de Lustre servers gebruiken we nog eigen kernels, aangezien hier een kernel patch voor nodig is die niet als module gemaakt kan worden....
Ik kan me inbeelden dat er een soort geoptimaliseerde versie van linux op draait. (En google zegt: inderdaad!)
Dat was niet zo moeilijk te vinden ;)

https://userinfo.surfsara.nl/systems/cartesius/software/rhel
Cartesius is running bullx Linux
Each node runs under one operating system (bullx Linux, which is a Linux distribution compatible with Red Hat Enterprise Linux) and shows a single memory image to the user programs.
https://userinfo.surfsara.nl/systems/cartesius/description
UNIX kom je in het wild op nieuwe machines eigelijk niet meer tegen, of het moet HP-UX zijn, maar dit is een Bull machine, dus geen HP-UX hier. Nee, hier draait een custom variant van RHEL op.
Vaak zijn het inderdaad UNIX of linux varianten met cluster functionaliteit. Een bekende distributie hiervan is: http://www.rocksclusters.org/

Cluster functionaliteiten maakt het mogelijk taken te verdelen over meerdere computers en de huidige voortgang daarvan bij te houden, vaak word het verdelen en bijhouden toe vertrouwt aan een soort 'master' die als het waren het overzicht houd over alle 'workunits'.
Ik meen dat Teras op een debian cluster draaide. ( De terminal draaide ieg op RedHat).
Je kan er zelf eens mee experimenteren in het klein. Zoek eens op beowulf-cluster
Verbaast me eigenlijk dat ze naar Broadwell gaan. Waarom geen Skylake?
Omdat de high end Skylake Xeons nog niet uitgebracht zijn door Intel ;)
Maar dan is wachten daarop toch juist een betere oplossing, lijkt me? In plaats van nu geld steken in nieuwe processors voor de 1150 socket terwijl er ook direct naar de 1151 gegegaan kan worden wat dan ook weer nieuwere processor-series gaat ondersteunen?
Betekent een andere soc ook niet dat de verbinding niet meer compatibel is met de huidige moederborden? Zoja dan kost skylake daardoor gelijk al een hoop meer.
Dat boeit in dit geval niet omdat ze gebruikmaken van blades: oude eruit, nieuwe er in. Connectie blade-chassis blijft gelijk.
Kost nog steeds meer dan alleen upgrade van processors.
Vraag me ook af wat ze met die oude blades doen. Het zijn er best veel.
Zo te lezen hebben ze vrij veel verschillende cpu's in dat ding zitten en tegen de tijd dat de skylakes uitkomen dan zullen ze die ook wel gaan inzetten op termijn :)
Niet als je een snellere CPU in hetzelfde socket kan steken, dat scheelt je weer de kosten van een nieuw blade moederbord.
Waar de meeste tweakers graag zelf Lopen te klooien met processors, koelers koelpasta en dergelijke. Gooien de grootgebruikers tegen de tijd dat ze meer power nodig hebben er gewoon een cluster nieuwe machines tegenaan.

Overigens gaan sockets nooit veel langer dan twee jaar/generaties mee terwijl de afschrijvingsperiode langer is dan twee jaar. Dit maakt het ook voordeliger om (al dan niet nieuwere)hardware bij te plaatsen ipv bestaande hardware upgraden( je houd op deze manier geen sterk in waarde verminderde oude cpus over).
Wachten is in computerland altijd beter...... Bij dit soort systemen doe je de investering op het moment dat je het nodig hebt, niet eerder en niet later.

Als men had kunnen wachten op SkyLake dan had men dat wel gedaan. Maar blijkbaar is het nu zinvol om capaciteit toe te voegen en dus doet men dat met wat er nu voorhanden is.
Skylake is niet perse beter op alle vlakken. Ook op de high-end desktopmarkt is Broadwell voorlopig nog het meest krachtig. Intel komt dit jaar waarschijnlijk nog met een aantal nieuwe high-end Broadwell cpu's voor socket 2011, waaronder een exemplaar met 10 cores en 20 threads: nieuws: Meer details over Broadwell-E-cpu's voor high-end desktops verschijnen online
Om dat bleeding edge nauwelijks voordeel heeft in dit geval. Stel dat je er 10% op vooruit gaat qua PPW maar 50% meer tijd moet steken in controleren of het gaat werken, problemen die nog niet bekend waren oplossen en software aanpassen zodat het daadwerkelijk werkt, dan is het een stuk voordeliger om met Broadwell te beginnen. Waarschijnlijk is de prijs ook een stuk malser op het moment dan Skylake over een paar maanden.
misschien een domme vraag, maar wat doen ze met de oude procs? weggooien ? of gebeurt daar nog wat zinnigs mee?
Die CPU's in die dingen worden letterlijk opgebrand. Pas als een blade faalt word deze vervangen.
Het nieuwsbericht gaat toch echt over het feit dat ze ze gaan vervangen en ze dus niet wachten tot ze falen.

Daarnaast bedoel je figuurlijk.
mmm upgrade... je hebt gelijk dat kan staan voor zowel vervangen van de cpu als voor het uitbreiden... maar in dit geval is het alleen uitbreiden met een extra eiland. De bestaande compute nodes doen we hardwarematig niets aan (die draaien prima ;) )

[Reactie gewijzigd door hugo_meiland op 12 februari 2016 15:07]

Nee, ik bedoel letterlijk. Die dingen draaien vaak onder 100% load tot ze het begeven, wat m.i overeenkomt met 'letterlijk opbranden'.
Ik weet niet wat ze er nu meedoen. Ik weet wel dat vroeger, toen de supercomputer eerder vervangen werd, weleens is gekeken of de oude supercomputer nog ergens een tweede leven kon krijgen door te schenken aan een ontwikkelingsland. Dit was een mooie gedachte, maar de verbruikskosten (lees: stroomkosten voor het aanzetten en gebruiken van het oude systeem) waren zo hoog dat ze dat daar helemaal niet konden betalen. Het was voordeliger als ze ook daar nieuwere systemen kochten die energie-zuiniger waren. Nogmaals, ik weet niet hoe dat nu is.
Wat houdt zoon island in? Is op de afbeelding bijvoorbeeld die witte racks naast elkaar een island?
Een island is een groep nodes die onderling een 1:1 verbinding hebben dmv de infiniband interconnect. Op de vloer betekend dit dat er 1 switch rack is met daarnaast 4 racks met ieder 5 chassis van 18 nodes. Vanuit de switch racks zijn de islands onderling verbonden met een 1:3 uplink naar de infiniband core.
"Cartesius wordt met name gebruikt door wetenschappers voor berekeningen met betrekking tot klimaatonderzoek, watermanagement, medische toepassingen en productoptimalisatie."
hoe dan? ik zou graag willen zien hoe dat gaat. wat voert men in. wie doet / mag dat?
zo veel vragen
Ik werk veel op deze omgeving om DNA analyses uit te voeren. Ik schrijf hier zelf mijn eigen c++ en opencl/cuda software voor. Je kan je code compileren (vanuit je eigen /home opslag) op de omgeving en een batch starten die uit 1 of meerdere nodes (servers) bestaat. Elke node kan dan jouw code uitvoeren. Er zijn bijv. ook technieken beschikbaar om nodes met elkaar te laten praten via zeer snelle verbindingen. Uiteraard heb je ook een flinke bak aan geheugen en snelle fysieke opslag.

[Reactie gewijzigd door Mir op 10 februari 2016 10:04]

Ik snap het toch niet helemaal meer. Als ik het goed begrijp is het helemaal niet 1 supercomputer, maar een set aan nodes (computers) die linux draaien en samenwerken om een compute taak uit te voeren.

Dat is allemaal mooi en wel, maar volgens die redenering zou volgens mij Google met stip op nummer 1 moeten staan (of in ieder geval in de lijst moeten staan).
wat een supercomputer zo "super" maakt is precies dat: het samen kunnen uitvoeren van 1 berekening. Het meest belangrijke wat hier (hardwarematig) voor nodig is, is een snelle interconnect die de nodes onderling laat communiceren. Er zijn 2 redenen dat Google er niet in staat: de eerste reden is dat ze niet een dergelijk interconnect hebben (de lage latency hebben ze niet nodig en is dus veel te duur voor ze). de tweede is dat ze de HPL benchmark niet draaien, en dus niet submitten om in de lijst te komen....
Ik ben ook wel benieuwd naar of de GPU's ook worden ge-upgrade en zo ja, welke ?
Ik wou dat ik die eens mocht gebruiken voor mijn matlab cvx optimalisatieprogramma. Na een week draaien kan m'n amd 1100T nog niet eens één oplossing vinden.
Zou je zoiets niet kort richting Azure kunnen proppen? Als je een MSDN licentie hebt heb je vaak ook al een beetje tegoed waar je mee kan aanklooien..
Interessant, bedankt voor de tip. Maar aangezien het om een afstudeeronderzoek gaat wil ik er geen geld aan kwijt ;)
Je kunt aan je begeleider bij je instelling (universiteit, UMC, hogeschool etc) vragen of hij rekentijd voor je kan aanvragen: https://e-infra.surfsara.nl/
Hoeveel TB RAM heeft zo'n ding? :|
Als ik geen rekenfout heb gemaakt heeft dit beestje ongeveer 130 TB aan ram verdeelt over bijna 2000 nodes
De grote vraag waarom niet even wachten en er skylake in proppen? ;)
Zo kan je wel blijven wachten. Als Skylake er is wordt de volgende generatie al weer aangekondigd.

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True