Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 33 reacties

In navolging van AMD hebben ook Nvidia en Intel een exascale-opdracht van de Amerikaanse overheid in de wacht gesleept. Voor hun bijdrage aan exascale-computing krijgen de bedrijven respectievelijk 12,4 en 19 miljoen dollar.

Nvidia maakte op zijn weblog bekend dat het Amerikaanse Department of Energy 12,4 miljoen dollar steekt in het ontwikkelen van technologie om rekenkracht op exascale-niveau te bereiken. Voor het bedrag is een tweejarig contract afgesloten, waarbij Nvidia gaat samenwerken met wetenschappers die in dienst van de Amerikaanse overheid zijn.

Volgens HPCwire heeft ook Intel een dergelijk contract in de wacht gesleept, waarbij de Amerikaanse overheid een bedrag van 19 miljoen dollar investeert. Ook Whamcloud zou meedoen aan het onderzoek; dit bedrijf richt zich voor het project specifiek op opslag- en i/o-technologie, waarvoor het een onbekend bedrag heeft gekregen. Overigens kwam daarbij ook naar buiten dat Whamcloud door Intel wordt overgenomen voor een nog onbekend bedrag.

Omdat AMD al een bedrag van 12,6 miljoen dollar had gekregen, lijkt het Amerikaanse Department of Energy serieuze plannen te hebben om supercomputers met rekenkracht op exascale-niveau te ontwikkelen. De term 'exascale-computing' verwijst naar de rekenkracht van toekomstige supercomputers op exaflops-niveau. Momenteel zitten supercomputers op het niveau van petaflops, waarbij de meest krachtige computer 16,32 petaflops haalt; het gaat daarbij om de Sequoia van IBM.

Moderatie-faq Wijzig weergave

Reacties (33)

Dit is allemaal goed voor de consumenten PC's.
Deze ontwikkelen worden een groot gedeelte door gespeeld naar de toekomstige consumenten PC's. Als voordeel goedkope sneller PC wegens de ontwikkeling kosten al betaald is de overheid (de belastingbetaler).
Dit heeft helemaal niets met consumenten pc's te maken.

Momenteel is het zo dat er middels GPU's vele malen meer flops te genereren zijn als met CPU's. Door het ontwerp van de GPU's (vele rekenmodules) kan men dus zeer veel calculaties parrallel uitvoeren. Een CPU heeft een beperkt aantal cores welke vele verschillende taken uit moeten voeren. Mede hierdoor is een GPU vele malen geschikter om door te schalen zodat exaflop calculaties in zicht gaan komen.

Niet voor niets zien we dat de huidige generatie supercomputers meer en meer gaan bestaan uit GPU's. Dit is dus ook mede de reden dat zowel AMD (met zijn GPU's) als NVIDIA (pure GPU producent) gelden uit deze ontwikkel pot krijgen.

Grootste probleem dat er momenteel ligt is eenduidigheid omtrend de taal waarmee de GPU's aangestuurd worden. Nvidia odersteund CUDA waar AMD OPENCL ondersteund.

Daarnaast zitten er grote verschillen tussen 32 en 64 bits calculaties welke onder beide standaarden ondersteund worden.
Ik dacht dat GPU's voornamelijk goed zijn in parallellisatie van zelfde stukken code. Dat zou betekenen dat niet ieder parallelliseerbaar probleem even goed door GPU's opgelost kunnen worden. De pc die KNMI laatst neerzette was ook op cpu's gebaseerd. Ook zijn GPU's niet echt energiezuinig (performance per watt).
GPU's zijn daarnaast ook enorm goedkoper te produceren.

Doordat elke compute unit totaal onafhankelijk is van de andere compute units (min of meer), valt bij de productie die dingen simpeltjes uit te schakelen.

Dus je kunt enorm grote gpu's drukken voor dezelfde prijs als 1 kleine cpu, waar hoegenaamd bijna alles ineens goed moet gaan.

Dat verklaart waarom die gpu's zo enorm krachtiger zijn dan cpu's, terwijl ze toch niet overdreven hoge prijs hebben. Sterker nog, de markt wordt afgeroomd met cpu's.

Als we kijken naar HPC processoren dan druk je simpeler 1 gpu van 1 Tflop (double precision) dan het equivalent daarvan aan cpu's.

Nu zullen sommige snel wijzen naar de CPU's van ibm. Die ook sterk hierin zijn omdat het lightweight processors zijn die in de BlueGene type supercomputers gaan. Echter vergis je niet in de enorme infrastructuur die je nodig hebt additioneel bij zoveel losse lightweight cpu's.

Handiger is dat natuurlijk op 1 grote manycore te drukken, wat een GPU is.
erm aan de prijs van een Cuda/tesla kaart is niet af te lezen dat deze goedkoper is per Gflop dan een CPU, bedenk, er moet ook nog een PCB en een bult RAM omheen.

@Blorf hieronder,

inderdaad, als je maar genoeg bakken aanelkaar knupt dan bereik je wel de exaflop, tis alleen dat je er letterlijk 10 miljoen cores voor nodig hebt en +/- netzoveel stroomverbruik als de stad waar je woont.

Het is dus vrij kritisch dat de CPU's en GPU's wat meer performance per watt gaan geven en we niet op de bigger/better toer blijven doorgaan.

Tenzij energie gratis word en niet meer vervuilt natuurlijk, dan is dat sowieso geen issue meer.
Volgens mij is dat supercomputing tot nu toe altijd alleen maar een kwestie van kwantiteit geweest, dus zoveel mogelijk nodes/processors in een netwerk hangen die samen parallel berekeningen doen.
In welk opzicht zou dat bevordelijk zijn voor de ontwikkelingen van computers op zich? Als het daarom gaat kan je dat geld misschien beter investeren in onderzoek naar hoe je software maakt die efficient gebruik maakt van meerdere cores of processors in plaats van alleen maar eenzijdige invoer te "brute-forcen".
Het voordeel van een grote supercomputer is dat je in de toekomst kunt kijken met je berekeningen. Totaal cruciaal voor wetenschappers.

Anders dan dat is het weggegooid geld natuurlijk. Ook commercieel is het vrijwel nutteloos. Hoewel steeds meer industrien supercomputers (of beter clusters meestal) gebruiken, is en blijft het lastig om dat financieel te verantwoorden. Die is er bijna niet.

Het is altijd goedkoper natuurlijk en ook enorm goedkoper, om gewoon op een paar simpele pc'tjes iets te berekenen.

Maar dan heb je geen voorsprong op de concurrentie natuurlijk.

Het is dus lastig voordelen aan te wijzen. Vrijwel alles inde HPC is zijn eigen leven gaan leiden. Zelfs de netwerkkaarten zijn totaal en compleet anders dan voor PC's, dus die technologie sijpelt ook niet door.

Zie ook hoe ze enorm achterliepen en sommigen nog lopen. De acceptatie van rekenen op GPU's begint pas langzaam te komen. Eerst keek men vies naar gpu's.

"daarop rekenen?"

Ik zie het nog voor me hoe sommigen reageerden...

Dat was toch voor studentjes. spelen met GOEDKOPE HARDWARE?

De duurste tesla tenslotte doet maar $2k, terwijl een supercomputer van dezelfde snelheid, zet ermaar fiks wat nullen achter...

Het zijn de kids thuis, de gamers, die de gpu's goedkoop maken. De HPC profiteert daarvan, Niet andersom dus.

Vergis je ook niet erin: het is veel moeilijker om een competatieve x64 cpu te maken dan een HPC cpu. Als jij en ik in een garage wat knutselen hebben we een HPC cpu.

Maar een x64 cpu, vergeet het. Die kost miljarden.
Stel, de IBM is nu 16,32 en is 100% - Als ik dan in 1 exaflop ga rekenen, hoeveel procent is dat er dan bij? Als ik de wiki bekijk betreffende FLOPS, lijkt me dit nog enorm toekomst kijken namelijk... Kan iemand mij even helpen?
De Sequoia van IBM haalt 16,32 petaflops. Een exaflop is 1000 petaflop. 1000 / 16,32 = 61,3 keer de snelheid van de Sequoia. Dat is 6130% als je het in procenten wilt hebben.

Of anders gezegt, 6 keer een verdubbeling van de snelheid van de huidige snelste computer.
Nu ja het lijkt er sterk op als we de GTX680 omzetten naar een Tesla versie, dat die dan rond de 2 Tflop zou moeten zitten (double precision).

Voor 1 exaflop (niet sustained) heb je dan nodig voor 1 Pflop: 500 van die dingen.

500k van de huidige generatie op 28 nm.
Lijkt me niet dat ze 2 ervan op 1 kaartje gaan gooien.

Nu is dat een beetje veel 500k grafische kaarten voor een exascale-supercomputer.
Maar niet ondenkbaar.

Als we dan kijken: hoeveel generatieverbeteringen zijn er eigenlijk nodig?

Wat is het maximum aantal gpu sockets dat je in een systeem kunt neerzetten?

Dan ga je toch al snel uitkomen op behoorlijk wat hoor. 40k is niet onacceptabel.
Liever 20k natuurlijk.

Maar van 40k naar 500k, daar kom je met factor 16 al heel ver.

Dat zijn dus 4 generatieverbeteringen. Dat is volgens de 18 maanden regel dan
1.5 * 4 = 6 jaar.

Dus lijkt me geen onzin dat nu al te plannen.
1 Exaflop is 1000 petaflop.
16,32 + 16,32 * x = 1000
=> x = (1000 - 16,32) / 16,32
=> x = 60,274509804

=> (60,274509804 * 100) = 6027,45%

=> 16,32 + 6027,45% = 1 exaflop

[Reactie gewijzigd door melwasul op 15 juli 2012 12:51]

Tja als de desktop en server CPUs niet echt hard meer voor uit gaan moet er toch een markt zijn om de CPU fabrikanten te motiveren wat snellers uit te brengen, vooral in de desktop markt lijkt het me er steeds meer op dat Intel veel beter materiaal kan leveren tegen betere prijzen als ze echte concurrentie hadden.
Ik ben het met je eens, ik ben toch wel blij dat de fabrikanten hier aan mee kunnen werken. Dit betekent niet alleen dat ze de stilstand in de consumenten markt overleefd kan worden, maar ook dat ze mischien wel nieuwe technologien kunnen ontwikkelen tijdens het werken voor dit project. Dat kunnen ze dan weer vertalen naar de consumenten markt.

Ben toch wel benieuwd wat ze met zo'n ultra-super computer gaan doen. Het is een heel groot verschil met de huidige super computers die al enorm veel rekenkracht in huis hebben.
Ben toch wel benieuwd wat ze met zo'n ultra-super computer gaan doen. Het is een heel groot verschil met de huidige super computers die al enorm veel rekenkracht in huis hebben.
Niet onmogelijk dat ze dit nodig hebben om alles wat ze afluisteren en aan communicatie over het internet onderscheppen te analyseren. "National Security" en zo dus.

Dat zal sinds ECHELON enorm in omvang zijn toegenomen.

[Reactie gewijzigd door CaptJackSparrow op 15 juli 2012 13:57]

nee nee geen spoken zien.

Deze subsidies gaan over wat contracten die ze tekenenvoor de HPC.
HPC als het gaat om de NSA wordt uitgevoerd door NCSA.

Dat zijn maar paar honderd mensen. Dat heeft niks met spionagenetwerken te maken.
Die zijn alleen met supercomputers bezig.

Spionage daar zijn andere diensten voor in USA zover ik kan overzien als burger hier, dus denk dan met name CIA, maar USA heeft nog
1199 andere officiele inlichtingendiensten. Die paar honderd man bij NCSA hebben
daar niets mee van doen.

Ook de robots in de lucht in afghanistan, hoewel ze het leger bedienen, zijn officieel van de CIA en niet van het leger. Dat is hoever ze gaan in USA.

Die CIA is veel te machtig als je mij vraagt, daar mag Obama wel iets aan doen. Maar goed, mogelijk stond hij ooit zelf op de loonlijst van hen, het zou me niet verbazen. Hij zat tenslotte ook in buitenland toch?

Als je praat over spionage onderschat in USA ook de MDA niet (missile defense) - die hebben natuurlijk ook tal van satellieten onder zich om mee te klooien. Lijkt me dat echelon eerder richting MDA zit dan CIA. CIA lijkt sterk uitvoerende taak te hebben. Het feit dat die predators ook zulke knullige encryptie hebben zal toch moeten betekenen dat de CIA geen hoofdletter K afweet van satellieten, die veel betere encryptie hebben.

Dus dan zit je richting NASA. Het is soms niet duidelijk wie bij MDA werkt of voor NASA.

Vergis je niet erin hoe weinig 15 miljoen dollar is in die regionen. Daar koop je niks voor hoor, ook geen supercomputer. een spionagesatelliet, zoals Nederland paar jaar geleden gelanceerd heeft ook (voor WIE is de vraag), die kosten miljarden. Die bewuste satelliet kostte 2 miljard volgens persbericht. Als het gaat om de beste technologie is het wat de gek ervoor geeft mogeiljk.

Dus de prijs van die supercomputers ligt dan stuk goedkoper hoor, terwijl ze veel nuttiger werk verrichten, als je mij vraagt.

Die supercomputers van NCSA kosten, samen met de japanse topsupercomputer, wel enorm veel. Honderden miljoenen dollars. Ze hebben er nu 2 pas gekregen. Een hybride GPU en CPU supercomputer. Lijkt me goed idee. Is echter ook erg erg prijzig.

Op dit moment is het gewoon zo dat aantal dingen supersnel op GPU lopen en andere experimentele programmaatjes zijn simpeler op CPU om te testen.

Met die enorme prijzen doe je niet veel met 10-20 miljoen dollar natuurlijk.
Dat is overigens al stuk minder dan wat US government gaf enige jaren geleden voor hetzelfde.

Dus deze subsidies zijn meer een soort van intentieverklaring voor de bedrijven die in aanmerking komen om toekomstige supercomputers te leveren.

Het zou LEUK zijn zo'n contract eens te zien. Wat eist de US government nu eigenlijk voor zo'n intentieverklaring? Daar kunnen we in Nederland misschien wel iets van leren.

Want voor de prijs die ze betalen krijgen ze altijd erg veel waar terug, terwijl NL toch altijd de hoofdprijs moet betalen voor een supercomputer.

De vraag is hoe NL dus meer waar voor zijn geld krijgt net als USA in dat opzicht.
Misschien dat een intentieverklaring als deze daarmee te maken heeft?

[Reactie gewijzigd door hardwareaddict op 16 juli 2012 04:30]

denk dat ze nu vooral gpu's gaan gebruiken daar er meer rekenkracht in zit in combinatie met cpu's
Ja,ivy bridge stelde eigenlijk niks voor.(vergeleken met sandy)

[Reactie gewijzigd door Cobra8811 op 15 juli 2012 11:50]

Het is een die shrink dus het is voor 90% hetzelfde als sandy bridge.
Ik kan eerder stellen dat sandy bridge totaal gefaald heeft vergeleken met Nehalem en Westmere.

OT: Nu krijgt Amd zelfs concurentie op dit project ;(
Hoezo heeft SB gefaald? Waar vroeger S1156 alleen mainstream was en S1366 high-end en gaming, voldeed S1155 aan de eisen voor beide. Mensen stapten van zowel S1156 als S1366 over op S1155. Dit kwam juist door de veel betere performance en overklokbaarheid. SB is ook een enorme klap voor AMD geweest.

De populariteit van SB S1155 zorgde er ook voor dat S2011 nauwelijks verkocht werd. Het was gewoon overbodig geworden om zo'n duur platform aan te schaffen.
SB word wel gebruikt in de mid-range maar dat is alleen omdat amd niks beters te bieden heeft voor die prijs.
Ik moet zeggen ik heb 2 SB systeemen gebouwd en ja het was lekker goedkoop maar ze presteerde nog nieteens gelijk aan de high-end van de vorige generatie. (systemen gebasserd op een e3-1230 en een i5 2500k.

S2011 werd nauwlijks verkocht omdat sandy bridge totaal faalde.
De performance was bijna gelijk aan westmere en multi was gelockt op de xeon's.

Ze hebben wel gesleuteld aan de topologie bij de servers vandaar de e5-46XX waar trouwens ook hardwarematig e5-26XX op kunnen vanwege dat bijde 2 qpi links hebben.
Net als dat er 8 E7-48XX's kunnen omdat die net zoveel qpi links hebben als de e7-88XX
Nee het kwam omdat S2011 een gigantisch overpricede chipset had, gesloopte CPUs(2/4 cores uitgeschakeld) en ook nog eens te dure CPUs had. Alles was veel te duur waar dit helemaal niet nodig was.
Wel als je naar de performance per watt kijkt
daar komt het nieuwe 22nm process wel tot zijn recht.
Inderdaad, en zuinigere processoren zijn belangrijk in het laptop segment.

Ik vraag me wel eens af als Intel zijn x86 instructie set mag opgeven, hoeveel sneller ze een processor zouden kunnen maken. 'Sneller' is natuurlijk een relatief begrip, omdat er vele vormen van processor performance zijn, zoals integer en floating point berekeningen. Daarnaast speelt branching en memory access ook een rol in applicaties. Andere toepassings gebieden profiteren weer van massal parallellisme.

De Itanium processor was bedoeld als die snelle vervanger. Large register files (e.g. de Itanium had 128 integer en floating point registers) werken voordelig omdat de compiler data access geheel in registers kunnen stoppen. Toch heeft die Itanium de verwachting niet kunnen waarmaken. Blijkbaar waren er ook nadelen aan die architectuur. VLIW bv schroeft het geheugen gebruik omhoog wat nadelig voor de snelheid is.

Blijft de vraag staan wat Intel zou kunnen doen als ze legacy geheel overboord mochten gooien.
Hardware en software is als de kip en het ei. Geen kip zonder ei, geen ei zonder kip. De evolutie van soft- en hardware heeft x86 groot gemaakt. En daarom is dat vooralsnog de leidende architectuur.
Itanum is overigens nooit gepositioneerd als x86 vervanger, maar wel als een 64 bit (only!) chip met heel specifieke toepassingen die moe(s)t concurreren met, bijvoorbeeld, de toen revolutionaire, multicore Power CPU's.
Itanum heeft geleden onder het gebrek aan evolutie: een volledig nieuwe architectuur en dus amper software noch ervaring in de markt. Dat heeft zelfs een 'grote jongen' als HP, een lijst met prachtige specs én steun van bijvoorbeeld Oracle niet kunnen verhelpen.
De cpu fabrikanten timmeren wél aan hoog temp aan de weg, een huidige cpu kent dan wel x86, maar is maar op een beperkt aantal vlakken te vergelijken met zijn voorouders. Dat begon al met MMX, en er worden gaandeweg alsmaar nieuwe instructies (en features) toegevoegd: evolutie ipv revolutie!
Diezelfde evolutie zorgt er inmiddels voor dat andere architecturen vanuit de mobiele markt ook richting pc bewegen; binnenkort hebben we voor het eerst Windows op ARM! Maar dat kan alleen maar omdat ARM, en ARM software, geëvolueerd is :)
Intel kan imho de legacy dus nooit overboord gooien (zéker niet in de commerciele markt); op zijn best kunnen ze samen met partners én een gepast budget, experimenten ŕ la Itanum opzetten om aan hoger tempo ervaring op te doen, en zo misschien sneller richting 'exascale' evolueren. Dŕt lijkt me dan ook het doel van dit vers geld.

edit:typo's

[Reactie gewijzigd door the_stickie op 15 juli 2012 21:26]

Om voor de Itanium geoptimaliseerde code te schrijven zal wel niet eenvoudig zijn, omdat het gebruik maakt van EPIC, wat destijds een revolutionair idee was maar achteraf gezien te revolutionair omdat compiler bouwers nooit in staat waren dat potentieel te benutten.

Nu met de x86 zitten er wellicht een heel boel (overbodige) instructies in en het aantal registers is ook beperkt. Een feature als 'out of order executie' kost een hoop transistors terwijl je dat wellicht ook in de software kn oplossen (zoals de Itanium architectuur dat voorstelde). De vraag zou dan ook zijn wat voor instructieset zou je nu in een processor stoppen als je geen last van legacy code hebt en je mag voor maximale performance gaan. Ik kan me indenken dat je begint met een flink aantal registers, misschien vaste lengte instructies en wellicht toch weer expliciete instructue parallellisme. Uiteraard meoten compilers daar op inspringen maar dat zal voornamelijk de achterkant van de code generatie zijn.
itanium werd geproduceerd in te oude proces technologien. Liep altijd generaties achter.
Intel heeft de kluit goed bedonderd met Itanium.

De prijs was ook navenant hoog.

$7500 voor de 1.5ghz itanium2, terwijl NASA die itanium2 1.5Ghz zo goed als gratis kreeg moest NL de hoofdprijs ervoor betalen (dus bestelden ze hier 1.3Ghz).

De vraag is in hoeverre bovenstaande intentieverklaringen effect hebben op de prijs waarvoor dan later geleverd wordt. Wat tekenen de fabrikanten voor die 10 a 20 miljoen dollar die ze krijgen voor toekomstige cpu's?

Dat USA, als ze grootste supercomputer bouwen, dat ze dan die dingen gratis krijgen?

Terugkomend op itanium. Intel moet al snel hebben geweten dat itanium een 'dead end' was.
Dat hele EPIC verhaal had een 1 cycle L1 nodig zo begrijp ik, juist voor het aanvoeren van die instrutiebundels die min of meer (om het dom te zeggen) de instructiedecoding dan vervangen; want de branching logica zit dan niet meer in de instructiedecoding maar in de bundels die je snel dient aan te slepen. Dat is gewoon niet hoog te klokken. Verder is het ook de vraag hoe slim het is om heel veel bundelsvoor niks te decoden, terwijl bij de x64 cpu's je veel minder overbodige instructies decode. Dat hele proces is wel de achilleshiel van de processoren en EPIC is daar simpelweg minder efficient.

Het was een floating point CPU, terwijl voor dure cpu's de integer performance juist erg belangrijk is. Voor floating point was op dat moment natuurlijk al de victory daar voor de goedkope kleine cpu's (zoals BlueGene gebruikte). Integers was het ding echt zwak in. Aanvankelijke itanium2 kon maar 2 integer instructies per 6 instructies in totaal (2 bundeltjes van 3 dus) verwerken per cycle. Lachwekkend weinig tegenover de x86's, die ook nog eens simpeltjes 2x hoger klokten. Direct factor 3 achterstand. Dat heeft intel bij de core2 wel eventjes goed beter gedaan... ...alle fouten bij itanium gemaakt zijn daar niet gemaakt.

Als je al factoren achterloopt op klokhoogte met itanium2 en dan ook achterloopt in procestechnologie, dan heb je een slak van een processor. Dan ook nog eens takketraag met cores toevoegen, hoewel dat ook geldt natuurlijk voor hun x64 ontwerpen aanvankelijk. Pas bij Nehalem liep intel echt voor met de release van de 6-cores.

De echte quadcore Xeons die kwamen ook pas vrij laat bij intel. Ze zijn gewoon erg traag geweest op alle fronten met cores toevoegen.

Dat is echter 10+ jaar na de aanvang van het itanium verhaal.

Nu heeft AMD gegokt en verloren met hun bulldozer ontwerp - ook natuurlijk een sukkelachtig iets als fabrikant om zo'n enorme uitglijder te maken. De grote vraag is of AMD zich ooit nog hiervan hersteld. Het ziet er niet goed uit hoor. Als veel kleinere speler op de markt kun je je zulke uitglijders niet veroorloven.

Intel heeft zich wonderbaarlijk goed hersteld van het itanium avontuur, maar de volgende uitglijder maakten ze alweer met knights corner / kings corner.

Een hybride gpu / cpu.

dus de nadelen van een CPU bij het produceren (hoge prijs, cache coherency etc) en de nadelen van een gpu voor programmeren.

Natuurlijk geen goed idee om dat in 1 chip te doen.

Dat plan is nu omgegooid naar een 100% manycore design zo lijkt het, maar het is nu al weer eventjes stil.

We zullen zien.

Waar ze echt met vele anderen moeten concurreren, daar doet intel het gewoon niet zo goed.

Alleen als ze hun patenten keihard kunnen uitspelen dan lukt ze alles ineens.

De grote vraag is waarom intel tijdje geleden nvidia niet heeft overgenomen, toen nvidia eventjes in de uitverkoop was. Die tesla's zijn precies wat intel nodig heeft en met intel sticker erop kosten ze niet $2k per stuk maar slijten ze ze simpeltjes voor $4k+ per stuk.

Lijkt erop dat intel dacht zelf wel eventjes wat betere HPC hardware neer te zetten op dat moment. Welnu dat is mislukt. We wachten af wat er gebeuren gaat, maar als HPC organisatie zou ik erg voorzichtig zijn met een nieuw intel ontwerp wat nog niet in de winkel ligt; intel heeft toch te veel al bewezen onbetrouwbaar te zijn in levering van HPC processoren. Alleen de bestaande Xeon lijn is natuurlijk duidelijk - daar zal deze HPC subsidie niet voor zijn.

[Reactie gewijzigd door hardwareaddict op 16 juli 2012 04:58]

Dat is anders in iedergeval in het desktop segment vrijwel hetzelfde gebleven, alleen het getal op de doos is duidelijk veranderd.
Mooi, ik hoop alleen dat deze super computer(s) ingezet gaan worden voor zaken als Folding @ Home en niet voor het simuleren van nucleare wapens.
Het is toch mooi dat supercomputers al die nare experimenten overbodig maken, of niet?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True