Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties

Intel heeft een overeenkomst getekend met Cray Research om vanaf ongeveer 2010 processors te gaan leveren voor een nieuwe lijn supercomputers met de naam Cascade. Op dit moment wordt nog van AMD-cpu's gebruikgemaakt.

Cray gebruikt de rekenkernen van AMD onder meer in zijn XT4-systeem, maar medio vorig jaar klaagde de supercomputerbouwer al over de vertraging waarmee AMD's Barcelona werd geleverd. Mogelijk heeft dit een rol gespeeld bij de beslissing om met Intel in zee te gaan, hoewel Cray dit tegenover The Register ontkent.

Het contract met Intel betekent overigens niet dat de samenwerking met AMD verleden tijd is, de supercomputerbouwer spreekt zelf van het bieden van een grotere keuze aan processortechnologie. Cray wil niet zeggen of er in de Cascade-lijn uitsluitend gebruikgemaakt zal worden van Intel-processors of dat er ook configuraties met AMD-cpu's beschikbaar zullen zijn. Dat was voordat de overeenkomst met Intel er lag, namelijk wel de bedoeling.

De deal behelst volgens de twee bedrijven een nauwe samenwerking op het gebied van processorontwerp. Gedacht wordt aan het combineren van 'gewone' cpu's zoals de Xeon met op specifieke taken gerichte coprocessors. Ook gaan Intel en Cray samenwerken aan verbeteren van de verbindingen tussen verschillende processors en cores in supercomputersystemen.

Cray XT5 supercomputer
Moderatie-faq Wijzig weergave

Reacties (39)

Zou het ook mogelijk zijn om de processoren van de verschillende merken samen te laten werken?
Ja, dat kan in een cluster; een cluster bestaat uit losse computers verbonden door een interconnectnetwerk en die losse computers kunnen best verschillende processoren hebben. Een supercomputer zoals van Cray is tegenwoordig ook een cluster, (alleen wordt dit veel verder geabstraheerd dan bij een gewoon cluster), dus ook daar zijn mogelijkheden.

In de praktijk wordt van deze mogelijkheid amper gebruik gemaakt.
Misschien omdat je in de praktijk een redelijk groot verschil hebt tussen een supercomputer en een clustercomputer.

Een supercomputer wordt aangeschaft puur vanwege de rekensnelheid, als een processor uitvalt is het goedkoper om hem gewoon uit te schakelen dan om hem te vervangen, een ander type processor gaat veel vertaalbandbreedte vragen. Nog daargelaten dat je waarschijnlijk je software moet aanpassen omdat je opeens niet meer die function call die op dat type processor snel is meer kan doen.

Een clustercomputer is snel en redundant en goedkoop. Bij een clustercomputer loop je altijd tegen beperkingen aan qua processor optimalisatie, bandbreedte etc. Maar aan de andere kant is een cluster computer wel makkelijker uit te breiden. Mits de software goed geschreven is kan een cluster computer zelfs beter functioneren dan een supercomputer ( je kan gewoon meerdere kleinere verschillende supercomputers bouwen die parallel de taken uitvoeren waar zij het snelste in zijn ) maarja, dan moet je die software wel even schrijven.

En qua software-optimalisatie is het nog steeds goedkoper om een supercomputer te hebben dan een clustercomputer ( 131.000 intel xeon valt makkelijker te optimaliseren ( het maakt niet uit waar je een taak naartoe stuurt, alles is even snel ) dan 65.000 amd's en 66.000 intell's gemixed ( het maakt opeens uit waar je iets naartoe stuurt en welke optimalisatie je gebruikt ) )

En weinig gebruik gemaakt van cluster computers? Google of is dat een JBOC.
Alle software die parallel werkt is tegenwoordig geschreven voor MPI en draait dus evengoed op clusters als op traditionele supercomputers. Alleen wat betreft latentie en bandbreedte zijn er nog verschillen, bij clusters praten we over microseconden, bij supercomputers over honderden nanoseconden.

Het aantal applicaties dat die traditionele supercomputer nodig heeft daalt, als je met een cluster al tot honderden nodes kunt schalen dan voldoet dat meestal aan de gevraagde rekenkracht.

Ik zeg niet dat er weinig van cluster gebruik gemaakt wordt, juist veel. Van heterogene clusters wordt echter weinig gebruik gemaakt, de meesten bestaan uit volledig uniforme nodes.
Klopt. Maar juist door het verschil in latency is een supercomputer beter geschikt voor bepaalde taken. Een cluster is goedkoper waardoor er voor beide een redelijk gescheiden markt is ontstaan. Kun je het met een cluster af, ben je gek als je een supercomputer koopt. Werkt een cluster niet goed genoeg is een supercomputer het enige alternatief
Als het mogelijk is de technische problemen te overwinnen, zijn er helaas de 'intellectuele eigendommen'. Deze zouden ervoor kunnen zorgen dat men eerst de juiste licenties op de patenten van de verschillende fabrikanten moet verkrijgen. Mogelijk zouden fabrikanten dat blokkeren, omdat ze het idee hebben dat als hun producten uitsluitend met de 'eigen technologie' werken en incompatibel zijn met andere merken, ze meer verkopen.

Anders was er toch vast ook wel een leipe mobo-bouwer geweest die een mobo had gemaakt waar je zowel een AMD als een Intel op kon prikken?
Nee, want die zijn natuurlijk niet pin-compatible, en je moet al een genie zijn om 2 totaal verschillende sockets op een ATX-bordje te proppen, en 2 NB en SB's.

In deze supercomputeropstelling vind ik het eigenlijk logisch klinken dat je verschillende CPU's zou gebruiken. Een ideale cluster bestaat namelijk uit verschillende "PC's", die elk een specifieke taak doen, verbonden met een zeer snel interconnetnetwerk.

AMD processors zijn op bepaalde vlakken een heel stuk sterker dan Intel CPU's (bv. memory bandwidth, totdat Nehalem er is natuurlijk). Als je dan de systemen met AMD inzet voor waar ze goed in zijn, en hetzelfde doet met de Intelsystemen, krijg je een superefficiënte oplossing!

Daarmee heb ik niet gezegd dat het ook daadwerkelijk zal werken, maarja...
Het probleem is dat een 10-20% snelheidsverschil, wat het snelheidsverschil tussen AMD/Intel in de praktijk is, nog niet echt de moeite is om moeilijk te gaan doen. Een heterogeen cluster geeft wat uitdagingen aan beheer, bepaalde veelgebruikte bibliotheken kunnen zowel voor AMD als Intel geoptimaliseerd worden, wat betekent dat je ze twee keer moet installeren en je gebruikers de juiste laten kiezen.

Pas bij een snelheidsfactor twee en groter verwacht ik dat men het de moeite zal vinden heterogene clusters te bouwen. Dat dat in de toekomst voor zal komen is waarschijnlijk, zowel AMD's Fusion als Intels Larabee zijn interessante processoren die in specifieke applicaties interessant zullen zijn. Ik kan me een heterogeen cluster met bijvoorbeeld afzonderlijke Larabee- en Nehalem-nodes voorstellen.
Eigenlijk is het verschil groter dan 10-20%. Qua snelheid kan een gemiddelde AMD CPU het niet bijbenen als je hem tegen één Intel zet, alleen zijn er belangrijkere zaken dan dit.

Met Intel zit je te hikken dat hij van een switch zijn pakketjes krijgt, via de SB naar de NB moet, van daar weer naar het geheugen gaat, weer terug naar de NB, naar CPU kern 1, die weer met kern 4 communiceerd over diezelfde NB. Etc etc.

Met AMD is er direct via Infiniband via HT met de CPU's te communiceren die direct weer toegang hebben per CPU node met hun eigen geheugen. Cores onderling communiceren via een snelle HT link, CPU's onderlink ook. Zo krijg je in een cluster als het ware een grid CPU's die ageerd als een supercomputer.

Probeer ik alleen de technologie zuiver theoretisch uit te filosoferen. Een fijt is zowiezo dat Opteron CPU's door HT (onderlinge bandbreedte) beter schalen in multi CPU oplossingen dan Intel. Als het schalen al een verschil van 80% op maakt tussen Intel en AMD naar 4 CPU's in voordeel van AMD, is het met een cluster dus niet die 10-20% winst van Intel welke op één CPU te behalen valt in een benchmarkje als desktop.

Daarbij heb ik zelf al erg sterk ervaren dat AMD CPU's enorm zuinig zijn, waarbij een zuinige Intel E2140 het qua verbruik moest afleggen tegen een Opteron. TCO zal hier dubbel profijt van hebben (koeling, densiteit etc. alleen al R&D op geheugen).

Het probleem wat werkelijk speelt, en vaker is voorgevallen, is de productiecapaciteit van AMD. Ondanks de opgeblazen TLB bug van de Barcelona, is de uitlevering van de B2 nimmer stop gezet naar fabrikanten voor clusters. Hierin is Cray gewoon realistisch, ondanks de niet verminderde productie van de B2 en het niet uitleveren naar standaard OEMs en eindgebruikers, was het te kort om op dit paard te wedden.

In mijn opinie is het openbaren van deze bug eerder marketing technisch gebaseerd, het is belangrijk de grootverbruikers aan te houden, zoals in dit geval dus Cray. De consument zal zich niet bedondert voelen daar AMD ze niet aan hun hebben uitgeleverd, er zat immers een 'bug' in. OEMs trekken wel weer bij.

De markt is kennelijk groot genoeg om een grote R&D investering te doen in een tweede leverancier. Wellicht niet de wil van Cray, maar noodzakelijk voor de continuïteit. Stilstand is immers ook achteruitgang.

Een combinatie van CPU en GPU in clusters is een fijt (daarom valt ATI onder de vlag van AMD), alleen multi CPU bakken met zowel Intel als AMD zal er niet in zitten, evenmin als in een cluster (specifieke taken daar gelaten als-in reken nodes tov file servers etc).
Een redelijk roze AMD bril. De taken die een cluster moet uitvoeren schalen vaak dramatisch beter dan het gemiddelde en zijn redelijk onafhankelijk van de onderlinge verbindingen als HT. Neemt niet weg dat er genoeg redenen kunnen zijn om AMDs in clusters te gebruiken, maar de voordelen van AMD zijn niet echt doorslaggevend. Vandaar dus dat bedrijven als Sun en Cray nu ook intel gaan gebruiken.
AMD's kunnen best sneller zijn dan Intel's in bijv memory bandwidth, maar de logica om uit te zoeken of een pakketje naar een AMD of een Intel moet kost waarschijnlijk al meer aan performance dan je ermee wint.

Nog daargelaten dat als je een memory-bandwidth bound task ( geen idee of dit bestaat, maar je snapt het idee ) hebt dat je dan opeens lastige timing problemen gaat krijgen als je deze over alle cpu's gaat uitvoeren, deze timing problemen moet je weer opvangen en hiervoor is weer logica vereist, deze logica kost weer bandbreedte en processorkracht.

Heel simpel gesteld, als je amd's 2x zo snel een pakketje kunnen verwerken als je intel's. Dan stuur je op tijdstip 0 1 pakketje naar je intel, 1 pakketje naar je amd. Op tijdstip 3 is je amd klaar krijgt hij nu een nieuw pakketje, het pakketje van de intel ter controle of gaat hij even niets doen. Op tijdstip 5 is je intel klaar met zijn pakketje, krijgt hij nu een nieuw pakketje, gaat hij zitten wachten tot de amd de controle klaar heeft om daarna de controles te gaan vergelijken, of gaat hij het 1e pakketje van de amd controleren, of gaat hij niets doen.
Denk dan eens aan 100.000 cpu's met enkele 1000'en pakketjes per seconde waarbij je altijd het risico hebt dat er een cpu uitvalt ( dus na een x tijd moet een pakketje opnieuw berekend kunnen worden door een andere processor ) en je bent ongelovelijk veel tijd kwijt aan housekeeping.

En dan heb ik het nog niet eens over specifieke optimalisaties waardoor berekening a snel op een intel is als hij volgorde 1-2-3 uitgevoerd wordt terwijl hij op een amd snel is als de volgorde 2-1-3 is.

Voor je het weet helpt alleen je housekeeping je superefficiente oplossing al om zeep.

In theorie kan het wel zoals jij zegt, maar in de praktijk is het goedkoper om het op te splitsen in 2 deeltaken en bij 2 rekencentra computerkracht in te huren dan het is om de software zulk soort optimalisaties te laten maken.
Op de manier dat jij het stelt is het inderdaad vrij lastig. Maar als je tientallen verschillende applicaties op je cluster draait is het best doenlijk de applicaties die goed op Intel draaien naar de Intel-nodes te sturen, en de applicaties die goed op AMD draaien naar de AMD-nodes.

Of stel dat je een dataset hebt die in x stappen bewerkt dient te worden tot een eindresultaat. Elke stap draai je op de machine die dat het best doet. Intel goed in stap 1? Dan wordt stap 1 op Intel-processoren uitgevoerd.
Ik denk dat de architectuur van de verschillende processoren te veel van mekaar verschillen. En daarnaast zijn ze denk ik koppig genoeg om niet met mekaar te willen werken. ;)
Hoe groot is de markt eigenlijk voor dit soort producten?

Verder goede ontwikkeling op Supercomputer gebied, maar helaas weer een tegenslag voor AMD.
Iedere universiteit heeft tegenwoordig minimaal één cluster of supercomputer. Daarnaast vind je ze in onderzoekslaboratoria, nationale rekencentrums en grote bedrijven. De markt is vrij groot en omdat een clustertje steeds betaalbaarder wordt ook groeiende. Cray is echter de highend van deze markt.
De markt voor zulke supercomputers is waarschijnlijk niet erg groot, maar het is natuurlijk wel een prestigezaak voor processorleveranciers. Het is natuurlijk mooie reclame als je kunt zeggen dat jouw processors in de snelste computers ter wereld wordt gebruikt. Waarschijnlijk is de indruk die je daarmee maakt voor Intel of AMD veel meer waard dan wat ze verdienen met het leveren van processors voor deze supercomputers.
Aan de andere kant is de verkoop van één enkele supercomputer qua aantal verkochte processors in sommige gevallen wel equivalent aan 131.000 consumentenbakken. Dus het hangt eraf of je in computers of geld telt.
Een cruise-schepenbouwer heeft qua klanten ook een kleinere markt dan een (kleine) autobouwer; dat wil niet zeggen dat het minder oplevert.
Mwah, opbrengst zal per verkocht schip wel groot zijn, maar neem je ook even de kosten in ogenschouw?

En cashflow en zo?

Ik denk zelf dat je dit soort Supercomputers het beste met standaard processors kunt vergelijken op de manier dat een Formule-1 wagen zich verhoudt tot een gewone personenwagen.

- innovatie
- prestige
- leuk

Zoals in de F-1 bepaalde dingen hun weg vinden naar personenwagens, zo zal bij het uitdokteren van de slimmigheidjes voor een supercomputer, die kennis ook z'n weg vinden naar de desktop cpu.
ik denk toch dat je het financiële aspect onderschat. Ten eerste is de markt voor "super"computers best groot (daarom niet persé voor cray, vergelijk met porsche in de autowereld). Elke universiteit wil er wel eentje, veel overheden, een hoop wetenschappelijke instellingen, de grafische industrie... maar ook bijvoorbeeld vliegtuigbouwers, autoontwerpers, militaire instanties enzovoort.

Ten tweede zijn er inderdaad waarschijnlijk relatief hoge R&D kosten, maar wordt daarvan een groot deel, zo niet alles (+ nog wat ;) )gecompenseerd door de hoge prijzen van dit materiaal. Bovendien heeft Intel net als vele andere high-tech bedrijven een voortdurende R&D gericht op heel diverse zaken. Zo is Intel al langer bezig met het gebruik van coprocessors en de bijhorende verbindingen, net als concurrent AMD overigens.
Volgens mij is een deal als deze in die zin ook positief voor Intel. Die kunnen profiteren van een gedeeld onderzoek wat ze anders mooi zelf hadden kunnen doen.

Als supercomputers bouwen trouwens enkel om innovatie, prestige en fun gaat, hoe komt het dan dat een commercieel bedrijf die dingen al sinds 1972 succesvol verkoopt?
Vast niet winstgevend ;)

natuurlijk is cray een paar keer overgenomen enzo maar jah O-)
Cray was dus compleet failliet, in principe is alleen de merknaam is overgenomen.
Ik vraag me af of ze dat binnenkort kunnen zeggen. Ibm is volgens mij al vrij lang de snelste in het gebied van supercomputers
En voor IBM was het voornamelijk Cray.
De markt is allesbehalve groot maar wel belangrijk, zowel voor gebruiker als hardware leveranciers. Mede door dit soort supercomputers hoeft de wereld niet meer blootgesteld te worden aan atoomproeven :)

Tel daarbij op dat je zoveel kunt simuleren dat het heel veel werk en geld bespaart op normale R&D, veiliger is en men dingen kan simuleren die nog niet in het echte leven te testen zijn. Tel daarbij op dat dat er ook soms dingen boven water komen waar je in zijn geheel niet op bepaalde uitkomsten rekend en dat zijn leuke "bonussen".

Maw, met recht supercomputers.
maar om nu op dit gebied op een relatief lange termijn zo'n contract af te sluiten, vind ik gewoon een beetje dom.
Ik vind dat er een behoorlijke dosis arrogantie uitstraalt van een uitspraak als deze... Denk je nou echt dat een nieuwe generatie supercomputers binnen een jaar ontworpen, gebouwd en getest kan worden? Nee dus, en daarom moeten fundamentele beslissingen zoals de gebruikte processor lang van te voren genomen worden.

Bovendien doet Cray zo'n selectie heus niet op basis van wat benchmarks die ze op AnandTech tegenkomen en een paar geruchten die ze op The Inquirer lezen. Reken er maar op dat ze de volledige roadmap van zoals Intel als AMD voor hun neus hebben gekregen, inclusief prestatieschattingen en samples, en daarnaast lange gesprekken hebben gevoerd met zowel managers als technici van beide partijen voor een belangrijke knoop als deze werd doorgehakt.

Maar goed, de andere verklaring is inderdaad dat ze bij Cray "een beetje dom zijn".

[Reactie gewijzigd door Wouter Tinus op 28 april 2008 21:29]

de andere verklaring is inderdaad dat ze bij Cray "een beetje dom zijn".
Ook daar zit vast een kern van waarheid in. Cray research ging immers in 1995 failliet omdat hun nieuwe erg goede computer teveel afweek van de oude. Cray research werd gekocht door SGI (meer vergane glorie!) dat in 2005 van de NYSE werd gegooid omdat ze onder de ondergrens van hun aandelwaarde kwamen (ze waren 60x minder waard geworden in tien tijd). Het bedrijf waardoor Cray Research daarna werd kocht - Tera - was ook niet echt succesvol met hun computers. Technisch liepen ze wel voorop, maar ze kregen het niet echt aan de man gebracht (ahum, wat een heerlijke arrogantie na het lezen van een beetje WP toch?). Voeg je dat samen krijg je een bedrijf dat brilliante producten maakt maar slecht in marketing is zou ik haast denken. Een bedrijf met goede ingenieurs (geeks zo u wilt) zonder marketingtalenten wordt vandaag de dag inderdaad afgedaan als 'een beetje dom'.
Ik moet toegeven dat mijn post erg kortzichtig was. Ik had totaal geen rekenig gehouden met de factoren die jij in jouw post benadrukt. Heb hem daarom ook maar verwijdert. Excuus voor deze fout.
Wel mooi dat jij al op je 16e meer verstand hebt van zakendoen dan Cray....

Er moeten mainboards en chipsets ontworpen worden. Er moet software geoptimaliseerd worden en heel veel getest. 2010 is minder dan twee jaar te gaan. Dat is niet veel tijd lijkt mij voor de ontwikkeling van een eliteproduct als een Cray.

Als AMD er weer helemaal bovenop komt kunnen ze die processoren ook gebruiken. Op 1 paard wedden is niet slim.

[Reactie gewijzigd door erikdenv op 28 april 2008 21:22]

Mwah een beetje community sites heeft 16 jarige (en ouder ook wel overigens) genieen rondlopen die meer verstand van zakendoen, ontwikkeling en filantropie dan menig top bedrijf ;) Mede hierdoor kun je ook menig post hier wel met een lepeltje zout nemen.
Dat daar gelaten ben ik eigenlijk benieuwd wat Intel belet dat Cray met beide in zee mag. Ik vind het ietwat vreemd dat Intel niet een alleen-recht opeist om hof-leverancier te worden zoals Intel nu ook doet voor bv Apple of menig OEM bouwer. Ook ben ik benieuwd wie verantwoordelijk is voor de kennis van de co-processors.
Intel heeft een enorme machtspositie op de desktopmarkt. Daar kunnen ze dus gerust een grote mond opzetten en een hoop eisen; omdat desktop-makers moeilijk zonder ze kunnen.

Echter, dat Cray al een poosje zonder Intel supercomputers maakt geeft al aan dat ze Intel niet per sé nodig hebben. Kijkend op de top500 lijst zie ik 320 EM64T bakken; en laat Intel nou net nogal achter gelopen hebben bij die x86_64 technologie op uitgerekend AMD. Kortom, omdat soms AMD voorop loopt en soms Intel is het fijn niet van een van de twee afhankelijk te zijn. Vooral gezien het feit dat x86_64 voorlopig enige tijd de toekomst lijkt te hebben wat betreft supercomputers.
He jammer, het was destijds zo'n mooie opsteker voor AMD. In aantallen is Cray misschien geen groot verlies als afnemer maar het geeft het imago van AMD wel weer een deuk.
In aantallen is Cray misschien geen groot verlies als afnemer
Cray blijft wel gewoon AMD systemen leveren hoor, alleen nu nemen ze Intel erbij.
Het contract met Intel betekent overigens niet dat de samenwerking met AMD verleden tijd is, de supercomputerbouwer spreekt zelf van het bieden van een grotere keuze aan processortechnologie.
Ik denk dat cluster computers de toekomst zijn.

Kijk maar een naar de diverse distributed computing projecten van oa DPC.
Dit zijn ook allemaal "clusters"
Ze staan niet naast elkaar maar werken wel volgens hetzelfe princiepe.
Mijn zusje keek net op mijn scherm en vond het een lange reeks verplaatsbare pashokjes.

Back ontopic:
AMD barcalona was ook niet heel goed qua prestaties meen ik me te herrinneren? En als Cray de highend machines levert gaan ze natuurlijk ook voor de beste prestaties.

Zoals al eerder gezegt, jammer dat AMD weer een tegenslag(je) heeft.
Nou, Barcelona heeft zo zijn goede en slechte punten.

De K10 familie van AMD is enorm snel in fp (floating pont) berekeningen. Veel sneller dan Intel op gelijke kloksnelheid (volgens deze benchmark kan een 2GHz barcelona een 3GHz conroe based Xeon aan). En volgens mij maken simulaties die ze op supercomputers draaien veel gebruik van fp berekeningen.

AMD heeft de geïntergreerde geheugen controler. Als ik het goed heb heeft het geheugen bij AMD meer bandbreedte met de processor dan de fsb (1333MHz) leverd. Ook zijn de latancies lager door de rechtstreekse verbinding met het geheugen.

Verder is HyperTransport ook een enorm voordeel voor de AMD processoren. Hierdoor kunnen ze met enorme snelheid veel informatie uitwisselen, iets wat niet mogelijk is met de front side bus.

Natuurlijk moeten we er ook bij blijven zeggen dat Barcelona lang is uitgesteld, vervoglens van de markt is gehaalt wegens de TLB bug, nogsteeds niet hoog klokt en best wel wat stroom verbruikt.

Ook moeten we op de informatie in het bericht blijven letten. Er staat dat de eerste systemen in 2010 komen. Op dat moment is Intel al overgestapt op Quick Path Interconnection. Dit wordt de vervanger van de front side bus waardoor veel voordelen die AMD nu heeft Intel ook krijgt.

conclusie: Nu is AMD nog een redelijke keus voor supercomputers, maar hier kan zeker verandering in komen. Ook kan alles in processor land snel veranderen, dus om te zeggen dat AMD slecht presteert zegt niet dat ze dit over 2-3 jaar ook nog doen.

edit:
Benchmark link toegevoegd

[Reactie gewijzigd door achtbaanfreak op 28 april 2008 22:37]

En volgens mij maken simulaties die ze op supercomputers draaien veel gebruik van fp berekeningen.
Een leuke vraag, de moeite van het uitzoeken waard. Zie o.a. hier (idd, ik heb er niet echt veel verstand van).

Zo te zien is dat inderdaad ongeveer hetzelfde als supercomputers doen. Supercomputers draaien immers voornamelijk Fortran programma's voor zover ik weet; en ik zie ook de typische supercomputer-bezigheden als het berekenen van verspreiding van vervuiling en ontwerp van deeltjesversnellers: De nieuwe LHC van het CERN wordt zelfs als mogelijke toepassing genoemd!

[Reactie gewijzigd door kidde op 29 april 2008 00:04]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True