Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 75 reacties

Supercomputerbouwer Cray heeft de CX1 geÔntroduceerd, een machine met Windows HPC Server 2008 aan boord. Het apparaat, dat voor prijzen vanaf 25.000 dollar van de hand gaat, is de eerste Cray met Intel-cpu's.

Windows HPC Server 2008 en Intel Xeon (Cray CX1) De CX1 kan volgens Cray ingezet worden voor een breed scala aan taken binnen onder meer de financiŽle sector, de lucht- en ruimtevaart, de olie-industrie, de universitaire wereld en de overheid. Cray noemt de machine zijn most affordable supercomputer tot dusver, en zegt bovendien dat de CX1 het krachtigste apparaat is dat genoeg heeft aan stroom uit een kantoorstopcontact. De keuze voor Windows HPC Server - dat overigens op 22 september officieel wordt gelanceerd - komt voort uit de wens van veel kleinere bedrijven, met name in de financiŽle sector, om financiŽle modellen en simulaties in de backoffice met frontofficeactiviteiten zoals verkoop te verbinden. Op de 'deskside'-supercomputer kan desgewenst ook Redhat Enterprise Linux worden voorgeÔnstalleerd.

De CX1 is voorzien van maximaal acht blades of nodes, die kunnen worden geconfigureerd als compute node, storage node of visualization node. Iedere node bevat twee Intel Xeon-processors, waarbij kan worden gekozen uit dual- of quadcoremodellen, en kan worden voorzien van maximaal 64GB geheugen. Het apparaat, dat plaats biedt aan een maximum van 4TB diskopslag, is het eerste model met processors van Intel aan boord sinds Cray in april aankondigde nauw met de chipgigant samen te gaan werken. De krachtigste configuratie, die is voorzien van 64 cores en een 3,4GHz-bus, is goed voor 786 gigaflops. Volgens Cray zou de CX1, als deze vier jaar geleden was uitgebracht, in de wereldwijde top 500 van supercomputers terecht zijn gekomen.

Cray CX1
Moderatie-faq Wijzig weergave

Reacties (75)

Volgens Cray zou de CX1, als deze vier jaar geleden was uitgebracht, in de wereldwijde top 500 van supercomputers terecht zijn gekomen.
Als een high end PC van nu 10 jaar eerder uitgekomen was, zou hij waarschijnlijk ook vrij hoog in de supercomputerlijst hebben gestaan.

Zwaktebod dus van een bedrijf wat ooit eens de absolute top in supercomputing was
Tien jaar geleden stond Cray bovenaan in de top 500 met een machine die 13360Gigaflops peak leverde. Een 'moderne' Core2Duo is goed voor 10-12Gigaflops. Een tien jaar oude Cray is dus duizend keer zo snel als een moderne high-end PC.
Maar er is nogal een verschil tussen 'bovenaan' de top 500 en 'in' de top 500. Deze bak levert 786 GFlops en zou daarmee vier jaar geleden 'in' de top 500 hebben gestaan volgens Cray. Dat klopt: ze zouden op plaats 337 hebben gestaan. Die 'moderne' core2duo zou 10 jaar geleden net niet in de top 500 gestaan hebben, aangezien plaatsen 496-500 bezet werden door machines die 13.39 GFlops leveren. Maar zo vreemd is de opmerking van boner dus niet
Daar heb je toch echt een 0 te veel in staan, de snelste supercomputer in 98 was een intel systeem met een Rpeak (theoretisch maximum) van 1830 Gflops. De Cray (2e plaats) had een theoretisch maximum van 1300.8Gflops (niet 13360!!), maar kwam in de Linpack niet boven een Rmax van 891Gflops uit. De Rmax is nog altijd de belangrijkste waarde.
Het eerste systeem dat (ruim) over de 13TFlops piek heen ging, was de Earth Simulator in 2002.

Maar zolang we het over theoretische piek capaciteit hebben: Een Core2 Quad heeft volgens mij een theoretisch maximum van rond de 50GFlops, daarmee zou de Cray uit '98 maar 25x zo krachtig zijn, flink verschil met jouw "duizend keer"!
En als je de videokaart erbij rekent (die kan immers ook gebruikt worden voor berekeningen) heb je in een hedendaags high-end PC meer rekekracht zitten als in een supercomputer van 10 jaar geleden.

[Reactie gewijzigd door knirfie244 op 17 september 2008 13:14]

Zwaktebod dus van een bedrijf wat ooit eens de absolute top in supercomputing was

Vergeet niet dat 'deze' Cray weinig meer te maken heeft met het oorspronkelijke Cray uit 1972. SGI heeft in 1996 Cray met alles erop en eraan gekocht, de technologie in haar HPC systemen verwerkt (NUMA-link) en de term 'Cray' gereduceerd tot een marketingterm, omdat iedereen het kende.

In (of rond) 1999 hebben ze de merknaam Cray aan Tera Computer verkocht, die nu dankbaar gebruikt maakt van de naamsbekendheid, maar er is geen technologie of architectuur meeverkocht, dus we hebben het hier feitelijk over een HPC systeem van Tera Computer en Microsoft, met een Cray logo erop ;)
Ik denk dat ze daarmee willen zeggen dat de supercomputer van 4 jaar geleden (die een hele serverruimte in beslag nam) nu in een klein pakketje gestopt kan worden. Deze gebruikt dus maar een fractie van de ruimte, en een fractie van het vermogen van een (qua performance) vergelijkbare supercomputer 4 jaar geleden

[Reactie gewijzigd door knirfie244 op 17 september 2008 11:16]

Niks zwaktebod. Waar ze waarschijnlijk op doelen is dat deze computer 4 jaar terug in de top-500 had gestaan, ondanks zijn kleine formaat en lage stroomgebruik. Ik denk dat ze ermee willen aangeven dat je "vroeger" veel grotere, stroomvretender apparaten nodig had om hetzelfde te kunnen.
Kan je dan niet beter een paar videokaarten bij elkaar zetten zoals ze BelgiŽ hadden gedaan?

Het proces moet dan natuurlijk wel te draaien zijn op videokaarten, maar je kan behoorlijk inefficient programmeren als je bedenkt dat een enkele ATI 4870 1,2 Tflops doet en de duurste hier 786 Gflops. Daarbij kan je voor de vanafprijs (waar deze duurste waarschijnlijk ook nog eens 2x zo duur is) wel wat aanpassingen doen en sowieso 4 4870's kopen.

[Reactie gewijzigd door QkE op 17 september 2008 10:20]

Een paar videokaarten bij elkaar is alleen handig als je wiskundige berekeningen op enorme sets getallen uit moet voeren. Data mining en dergelijke worden sneller uitgevoerd op dit soort machines, omdat ze per node veel meer geheugen hebben (o.a.).
Waar gebruik je computers anders voor dan 'wiskundige berekeningen op enorme sets getallen'? Daar zijn ze toch voor gemaakt? Al helemaal deze supercomputers. Dat je ze in sommige gevallen weergeeft op een scherm als pixels zoals bij games of in bestanden stopt doet daar toch niks aan af.
Floating point operations!.
dat is waar graka's goed in zijn. dus voor complexe wiskundige berekeningingen met veel fops zijn graka's handig, maar voor simpelere taken als datamining etc. waar wel veel rekenkracht voor nodig is, maar veel minder fops gedaan hoeven worden, is dit waarschijnlijk sneller...

(dat geheugen is natuurlijk onzin, want ook bij een graka kun je enorm veel geheugen toevoegen)
(dat geheugen is natuurlijk onzin, want ook bij een graka kun je enorm veel geheugen toevoegen)
Heb je ooit een graka gezien met 16 GB aan geheugen?
Ņ Zit je nou eerst te zeggen dat videokaarten sneller zijn, en daarna dat juist deze machienes sneller zijn ?
Die 1,2 Tflops gaat over single precision floats, en niet double precision floats... Voor grafisch werk OK, maar voor wetenschappelijk berekeningen dus niet helemaal een eerlijke vergelijking. Voor doubles doen die GPU's het een factor 3 of 4 langzamer.

Maar opzichzelf nog steeds gigantische snel. Daarom dat men dus best wel bezig is om GPU's in te zetten, juist voor wetenschappelijke toepassingen. Probleem is daarbij wel dat GPU's niet erg flexibel zijn, en alleen snel zijn voor een speficieke vorm van data verwerking. Er zijn stapels toepassingen waar GPU's helemaal niet snel zijn. Niet voor niets hebben we CPU's voor het normale werk, en GPU's specifiek voor grafisch werk....
De krachtigste configuratie, die is voorzien van 64 cores en een 3,4GHz-bus, is goed voor 786 gigaflops. Volgens Cray zou de CX1, als deze vier jaar geleden was uitgebracht, in de wereldwijde top 500 van supercomputers terecht zijn gekomen.
Als ik dan de wet van moore aanhaal, dan is dat toch nog al logisch 8)7. De power is de laatste 4 jaar gewoon keihard toegenomen. Ook in super computer land. Mijn core 2 duo zou 10 jaar geleden ook bijna een super computer zijn. Verder levert mijn HD4850 meer flops(1 teraflop) en kost maar 130,- :Y) (ja ik weet dat dat geen eerlijke vergelijking is). Ik vind het een beetje een loze uitspraak.(i.e. open deur in trappen)

@hier onder:
Ik denk dat ik dan van het top model van dat jaar droom en niet die van 4 jaar geleden. O-)

[Reactie gewijzigd door Reinman op 17 september 2008 11:00]

Wat Cray aan geeft met de uitspraak is dat een super computer die vier jaar geleden alleen nog maar in dromenland van een klein financieel bedrijf was nu binnen handberijk is.

Wat Cray dus eigenlijk aan geeft is dat de wet van Moore nog steeds op gaat, en is mischien wel logisch voor jouw maar voor een inkoper in de financieele sector mischien helemaal niet zo bekent. En dus is het een mooi verkoop praatje.

Denk je maar eens in je bent op zoek naar een nieuwe auto en de verkoper vraagtje of je die auto waar je vier jaar gelede van droomde voor een tiende van de prijs wilt hebben. Ik kan me best wel voor stellen dat als jij niet zo veel van die markt weet dat je best wel onder de indruk bent van zo'n aanbod.
Dit lijkt me een soort van concurrent voor bijvoorbeeld deze ?
http://en.wikipedia.org/wiki/SX-9
Niet echt. De SX-9 is een Vector Systeem, dus het bevat CPU's die gespecialiseerd zijn in vector berekeningen zoals matrix transformaties en dergelijken. Bloedsnel als je applicatie veel van dat soort rekenwerk doet (en er dus voor gemaakt is).

De systemen die Cray (en veel anderen) tegenwoordig maken zijn op basis van Scalaire CPU's, die veel vaker gebruikt worden in de 'mainstream' systemen, en moeten het van een hoge kloksnelheid hebben.

Het is daarom erg lastig om de twee typen systemen 'even snel' met elkaar te vergelijken.

EDIT: even het semi-verplicht wikipedia artikeltje erbij voor wie dat interessant vinden:
http://en.wikipedia.org/wiki/Vector_processing

[Reactie gewijzigd door bu11frog op 17 september 2008 12:49]

Kan iemand mij zeggen waar 'kleinere' bedrijven dit soort machines voor nodig hebben en voor wat voor 'financiele modellen' want dat is mij niet echt duidelijk.
Kijk bijvoorbeeld eens hier: http://en.wikipedia.org/wiki/Monte_Carlo_methods_in_finance

Dat soort berekeningen worden veel gebruikt bij het inschatten van risico's bij de grotere financiele instellingen.
Blijkbaar niet genoeg. Maar idd, grote banken besteden heel wat mankracht aan dit soort simulaties om de risico's van aandelen pakketten en leningen in te schatten.
Dan zou je misschien eens de tech-specs van HPC moeten downloaden van Microsoft of de evaluatie-software proberen. Dit soort machines zijn erg handig (maar prijzig) om binnen kleine bedrijven bepaalde processen af te laten handelen door een gespecialiseerde server zonder dat je de clients voorziet van nieuwe/vreemde software die men niet kent, bijvoorbeeld.
Wat heeft de software op de clients met je server te maken? Clients praten met servers via netwerk verbindingen. Zolang je een server heb die tcp/ip ondersteund en services draait waar de client iets mee kan maakt het niet uit of je de software op de server vervangt door iets anders. Om maar eens wat te noemen: voor windows desktops maakt het niet uit of ze met een windows server of met een linux samba server praten. In beide gevallen kun je gewoon bij je files.
Behalve dan dat samba in de praktijk verschrikkelijk veel incompatibilities heeft...
Ik heb veeeeeel liever een Windows server dan een Samba server achter mijn Windows client staan.

Gaat dan om ogenschijnlijk kleine dingetjes, die echter heel irritant kunnen worden. Zo ziet maakt onze Suse Samba server geen onderscheid in 'date created' en 'date modified' . (Created staat verkeerd, en is altijd gelijk aan modified.)
Security instellen via de client gaat ook hopeloos fout op Samba, terwijl dat volkomen doorzichtig werkt op Windows. Voor Samba moet je absoluut via een Shell op de server werken. Door dat soort Samba gerelateerde problemen, is de file structuur op onze server een complete chaos.

Wat betreft de OS keuze is het verder het natuurlijk ook maar net de vraag of er server/client varianten in de smaken van jouw server/client OS'en zijn. Als ik alleen een Windows versie voor mijn server applicatie heb, dan is daarmee de keuze snel gemaakt...
Dan ben je waarschijnlijk een grote fan van mervrouw kroes ;)
De problemen die je nu noemt zijn te wijten aan microsoft, maar gezien de afgedwongen "opening" van compatibiliteits barrieres in windows zouden dit soort problemen gauw tot het verleden moeten behoren.

Maar je hebt gelijk dat het iedereens eigen keus moet zijn wat ze op hun client/server systeem willen draaien, nu nog hopen dat de EC die situatie (keuzevrijheid) nog iets meer kan afdwingen.
Daarvoor heb je je firewall en voer je niets uit vanaf de server, en install je updates. Je behandelt het nu alsof elke Windows "XP" achter zijn naam heeft, en geen servicepack heeft, en iedereen maar rechtstreeks via internet connect; en blaster alive en kicking is. Dat is het niet; in tegendeel; windows servers zijn vaak sneller gepatched en veiliger dan de meeste unixen.
Voor Samba moet je absoluut via een Shell op de server werken.
Dat geeft al aan dat bij jullie het probleem niet in Samba zit, maar bij het enorm brakke beheer ervan. Samba zonder SWAT is inderdaad vrij vervelend.
Bij mij - en dan gaat het over thuis, dus zonder dat er beroeps ITers aan te pas komen, stel ik de boel in m'n doe-het-zelf Linux installatie via een webinterface in met mogelijkheden die Windows SMBniet eens kent.
Iemand die wel de systeembeheerder-opleiding deed vond Samba configureren via de web-interface ook veel makkelijker dan hetzelfde doen in Windows, omdat het in Windows nogal een troep is (en dat laatste vind ik zelf ook).
Klik in de webinterface op een term en je hebt gelijk de help ervan; heb je in Windows ook niet.
Tijd om je systeembeheerder bij te scholen dus... (Persoonlijk zou ik hem ontslaan overigens; een systeembeheerder die gebruikers Samba via de CLI laat instellen?!)

[Reactie gewijzigd door kidde op 18 september 2008 01:37]

Ik heb even op de techsite gekeken. Ik lees her en der over het installeren van updates en (automatisch?) rebooten van machines. Nu vraag ik me af of er ook elke maand updates verschijnen voor Windows HPC die ervoor zorgt dat er een reboot nodig is. Moet er omdat het Windows is ook een virusscanner draaien op het OS? Gezien de populariteit van Windows voor malware en andere troep lijkt mij dat HPC hier ook last van kan krijgen. Als dat het geval is, dan zou ik er niet zoveel trek in hebben. Geef mij dan maar Aix :)
Tsja, hoe komen virussen binnen? Over het algemeen door iets wat uitgevoerd wordt met juiste rechten op de server (admin rechten), of door een aanval van buitenaf.

Voor die laatste heb je een firewall in je rack staan, voor die eerste draai je niet als admin en check je je hotmail maar ergens anders.
Laat ik je zin omdraaien: Ik zie niet precies wat je in hpc-termen met linux zou moeten kunnen doen wat niet onder Windows ook kan. Waarom geen Windows? Voor beheerders met uitgebreide Windows-ervaring is het makkelijker dan met een Linux-systeem te moeten gaan leren werken.
In de HPC wereld is Linux juist de standaard.

Waarom wel Windows? In deze wereld in systeembeheer echt niet interessant. Je wil juist zo min mogelijk "systeem" op die computer. De volledige kracht is nodig om te rekenen.
Je hoeft geen drol van Linux te weten om die systemen te beheren. Gewoon altijd op "Nee" klikken :) En wie dit soort systemen beheert heeft altijd wel genoeg ervaring om dat beetje Unix kennis toch wel in huis te hebben.
Deels mee eens, om te zeggen dat Linux de standaard is in de HPC wereld. Veel HPC leveranciers leveren een systeem met een OS dat (groten)deels gebaseerd is op een bestaande Linux distro. Zo gebruiken de SGI rekenservers tegenwoordig SuSE Enterprise 10 Server.

Het is echter niet zozeer het OS, als wel de scheduling software die het tot een HPC systeem maakt, en waar je als HPC beheerder het merendeel van de tijd mee werkt. Dat zijn vaak vendor-specific tools als Load Share Facility, IBM LoadLeveler, Sun MC/HPCtools, PVM en parallel-programming libraries zoals (Open-)MPI etc.

Wij hebben een SGI Altix staan met SLES9 erop, maar met een aantal SGI kernelmodule en NUMA sausjes eroverheen, plus een clusterfilesysteem en een load scheduler is er weinig SuSE meer aan. De meeste Linux/SuSE zaken zijn gewoon procesjes die op CPU 0-3 draaien :)
Omdat je met windows al een deel van je performance verliest aan het OS. Lijkt me toch een belangrijke factor voor een HPC systeem. Tis niet voor niks dat we bij mij op mijn werk alleen met Linux en AIX werken. Windows is eigenlijk alleen geschikt voor consumenten desktops, niet voor het serieuze werk. Jammer dat ThjK omlaag wordt gemod, hij heeft namelijk wel een punt.
Windows is eigenlijk alleen geschikt voor consumenten desktops, niet voor het serieuze werk.
Jammer dat dit weer een kortzichtige anti-Windows-reactie is. Windows is uitstekend geschikt voor serverwerk, dat is allang tried and tested. Het enige probleem was dat het niet geschikt was voor serverwerk op grote cluster-based machines, maar dat is nu ook geen probleem meer met Windows HPC Server.

Overigens is het correct dat je met Windows een deel van je performance verliest aan het OS, maar dat is bij elk OS het geval, ook bij Linux, AIX en welke andere UNIX-variant dan ook.
En over hoeveel procenten verlies zit jij dan te denken ? ( met bron graag )
laat nu blijken dat windows iets sneller is dan linux...
dat t beter schaalbaar is en makkelijker in te stellen voor de wat minder ervaren tweaker..
natuurlijk kan je hetzelfde onder linux en het is nog gratis ook.. daarentegen zit je wel aan self-support vast en moet je maar afwachten of je de boel wel aan de praat krijgt..
Dit apparaat doet me erg denken aan de Personal Super computers van Tyan.

http://www.engadget.com/2...percomputer-now-shipping/

Die machines zijn zo te zien op de zelfde markt gericht, Snap alleen niet zo goed waarom Cray ineens deze machines met windows verkoopt, Puur als nieuws eye-catcher?
De keuze voor Windows HPC Server - dat overigens op 22 september officieel wordt gelanceerd - komt voort uit de wens van veel kleinere bedrijven, met name in de financiŽle sector, om financiŽle modellen en simulaties in de backoffice met frontofficeactiviteiten zoals verkoop te verbinden.
Daar snap ik geen drol van, eerlijk gezegd. Waarom heeft een financiŽle instelling die zich met transacties bezighoudt een 'supercomputer' nodig? Die hebben een computer nodig die betrouwbaar en nauwkeurig is en snel veel data foutloos verwerkt (foutcorrectie, 'atomaire' uitvoer van handelingen e.d. en dergelijke); en supercomputers zijn dat meestal qua architectuur niet omdat dat voor supercomputers niet geeist wordt.

Of willen ze er graag grote lineaire systemen met b.v. het Leontief model zoals uhm... de hele economie mee doorrekenen? Dat is namelijk de enige reden dat een financiŽle instelling zo'n ding nodig heeft.

ed: Sorry, antwoord staat hieronder. Vast risico's inschatten met Monte Carlo methoden, die blijkbaar ook te vectoriseren zijn.

[Reactie gewijzigd door kidde op 18 september 2008 01:25]

Omdat MS een speciale versie van Windows uitbrengt die er voor zorgt dat een ervaren systeembeheerder ook een server voor HPC kan gebruiken/installeren, op deze manier kunnen meer bedrijven die de power graag willen hebben ook mee doen aan HPC, ondanks dat ze geen (geld voor) speciaal personeel hebben.

Dit is natuurlijk een leuke nieuwe Niche en ik denk dat Cray daar dus in springt, vooral ook omdat de markt voor echte super computers niet al te groot is en er ook nog is grote concurrentie is van bedrijven als IBM.
Dat enerzijds, ik kan me ook goed voorstellen dat een klein grafisch bureau wel de wensen van een heuse supercomputer heeft maar simpelweg niet de financiele middelen noch de projecten heeft om een supercomputer aan de gang te houden. En dan is een instap model als deze een stuk interessanter omdat dit financieel wel haalbaar is maar ook omdat dit naar alle waarschijnlijkheid een stuk hapbaarder is.
Toch is het imo ergens wel jammer dat Cray die ooit een marktleider was nu afgezakt is tot een leverancier die het moet zoeken in de niche-markt. Zeker hun aparte hardware van vroeger was op z´n minst extreem. Ik herinner me nog plaatjes van super computers die de vorm van een ronde bank hadden.
Gezien het feit dat veel games zelfs weinig kunnen doen met een multi core denk ik dat er helemaal weinig tot geen snelheidswinst is met cluster systemen. Het spel gaat daar echt voor gemaakt moeten zijn.

Ik denk zelfs dat een cluster helemaal geen threads kan splitsen over verschillende nodes. En dat dat alleen met forks automagisch zou kunnen. Omdat threads in hetzelfde geheugen draaien.

[Reactie gewijzigd door kluyze op 17 september 2008 10:03]

Maar, als er wel een spel voor gemaakt zou worden :P :9 O+

Over een jaar of 5-10 zijn desktops net zo krachtig als een van deze systeempjes, bring it on :D

[Reactie gewijzigd door barfieldmv op 17 september 2008 10:36]

en precies waar wilde je die er in prikken dan ?
good luck, dan moet ge al graphic nodes van 8000$ kiezen, waarvan ge de quadroFX4600 weggooit

iets zegt me dat ge voor da geld wel krachtigere game-computers kunt bouwen, want de rest is dan nutteloos (als ge er al xp of vista op geÔnstalleerd krijgt, want onder HPC server 2008 zal da ni lukken)
Mac Pro? 32 GB ramgeheugen en een 8 cores, leuke game PC en ůůk 25.000 euro;)
Zelfbouw, 32 cores (2.5GHz) en 64GB RAM, en leuk Quadro SLI setje. Zit je alleen wel aan AMD processoren. Moet voor 25K makkelijk realiseerbaar zijn.

Zit je met hetzelfde probleem met je Mac Pro. Een standaard XP of Vista install zal je niet (meer) lukken, daarentegen zal het waarschijnlijk sneller lukken een game aan de praat te krijgen op een MS server OS dan onder Mac OS (ik generaliseer, uiteraard zijn er zat games voor de Apple). Dit achterwege, zijn drempels die je met ervaring prima kan overbruggen.

En dan kom je er achter dat een gemiddelde game geen baad heeft aan meer dan 2 cores zonder tweaks, en houd het met tweaks vaak met 3 cores op. Is je buurman met zijn single CPU bak voor 5K sneller.
Als je dat geheugen ergens anders koopt kan het een stuk goedkoper.
Welke game ondersteund nou quadcore... laat staan 8-core :S
of OSX for that matter ;)
Volgens Cray zou de CX1, als deze vier jaar geleden was uitgebracht, in de wereldwijde top 500 van supercomputers terecht zijn gekomen.
Dat is zo makkelijk! Als je maar lang genoeg teruggaat vind je altijd wel een gunstig referentiekader. Zo zal mijn laptop ook wel in de top 500 van supercomputers van pakweg 20 jaar terug gestaan kunnen hebben.
Maar 4 jaar geleden kan een zinnig referentiekader zijn. Want die computer van 4 jaar geleden, is nu ongeveer aan vervanging toe, en kan dus door dit systeem vervangen worden, als je niet meer performance nodig hebt dan toen. Of, meer waarschijnlijk, als je toen een beperkter model supercomputer had die niet in de top-500 stond, bv half zo snel als dit, en je hebt nu wel iets nodig wat sneller en moderner is, maar het hoeft niet extreem veel sneller te zijn.
Staat HPC voor: High-performance computing

Of is het een andere afkorting?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True