Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Het nieuwe rekenmonster van het KNMI

Door , 122 reacties

Met 4752 cores, 60TB aan opslag en een rekenkracht van 58,2 teraflops is het KNMI de op een na snelste supercomputer in Nederland rijker. Ook het koelsysteem is geavanceerd en 'groen'. Hoog tijd voor een bezoekje.

Het KNMI heeft onlangs de op een na snelste supercomputer van Nederland in bedrijf genomen: het BullX B500-cluster van de Franse bouwer Bull. Het rekenmonster beschikt over 4752 cores en biedt een rekenkracht van 58,2 teraflops. Bovendien wordt het systeem gekoeld door middel van een milieuvriendelijk koelsysteem dat deels gebruikmaakt van warmte- en koudeopslag met behulp van grondwater, terwijl ook vrije luchtkoeling wordt ingezet. Tweakers.net sprak met Ronald van Pelt, consultant high performance computing bij Bull, en Rob van Schaik, IT-adviseur bij het KNMI-computercentrum.

Reacties (122)

Wijzig sortering
Waarom eigenlijk Intel CPU's? Ik kan me voorstellen dat er met veel floating points wordt gewerkt in de modellen. Zouden GPU cores niet beter zijn?
Tja, als hun software niet op GPUs werkt zouden ze dat ook nog eens een keer moeten aanpassen, optimaliseren, uitwerken etc etc voordat ze het daadwerkelijk kunnen gaan inzetten voor de weersvoorspellingen. Het kan niet zo zijn dat je weersvoorspelling er totaal naast zit vanwege bugs in de nieuwe software, aangezien veel industrieen er afhankelijk van zijn (luchtvaart, scheepvaart, transport etc). Het lijkt mij dan logisch dat ze voor nu op CPUs blijven zodat ze de komende 5 jaar er weer tegenaan kunnen. In die 5 jaar kan je mooi de tijd hebben om je software goed uit te bouwen voor GPU support.

Dat neemt niet weg dat je een punt hebt en mij lijkt het inderdaad een logische volgende stap in de evolutie van het KNMI.

[Reactie gewijzigd door silentsnake op 24 maart 2012 09:21]

Het is inderdaad een kwestie of er GPGPU code voor het model beschikbaar is. Daarnaast moeten er ook andere modellen op draaien, dus je moet afwegen of je dan een hybride systeem wilt neerzetten (CPU en GPU), en zo ja in welke verhoudingen?

Het probleem is dat veel van de modellen onderhouden worden door Consortiums, en niet (alleen) van KNMI zijn. Het HiRLAM Consortium bijvoorbeeld (zie hirlam.org) bestaat uit 10 Europese weerinstituten, en die heb je niet zomaar allemaal over op 100% GPU computing. ;)

De modernere modellen overigens zijn ook steeds meer 'gekoppelde' modellen, waarbij verschillende (onderdelen) van modellen aan elkaar geplakt worden om een beter resultaat te krijgen, of gewoon om de voordelen van samenwerking te hebben. Het Harmonie model dat KNMI gebruikt voor de verwachtingen is ook een samenvoeging van delen van Hirlam en delen van het 'Franse' model Aladdin.

Er zijn wel initiatieven van onderzoekers om bepaalde delen uit de code te draaien op GPGPU om te zien wat de winst is, bijvoorbeeld in Ierland, waar Met Eirann een groot GPU systeem ter beschikking heeft. Het zal er echter op neerkomen dat sommige delen beter geschikt zijn voor 'traditioneel' CPU, en andere delen typisch voor GPU.

Leuke uitdagingen voor de toekomst!
Was het niet zo dat GPU-berekeningen op floats slechts met beperkte (32bits) precisie kunnen? Afhankelijk van de modellen en algoritmes van het KNMI kan het dus best zijn dat de gpgpu-typen die ze tijdens het aanbestedingsprocess konden bekijken niet geschikt waren voor hun type rekenwerk.
Was het niet zo dat GPU-berekeningen op floats slechts met beperkte (32bits) precisie kunnen?
Nee. Alhoewel er wel een flink verschil in performance is tussen single- en double-precision floats. Bij consumenten kaarten is dit verschil gigantisch.
Veel high-end kaarten hebben al double ondersteuning, alleen de performance hiervan wil nog wel is tegenvallen in vergelijking met normale 32-bit floats
Goede double precision performance is precies waar de Nvidia Tesla kaarten voor dienen.
KNMI word grotendeels betaald door private sector die weervoorspellingen kopen.

En het is geen 3 dagen voorspelling, heb je de video uberhaupt wel bekeken? Er worden grote klimaat modellen mee gemaakt. Als je ooit wel is weerberichten kijkt op het journaal zie je nu al 2 weken modellen. Na een 4-5 dagen word de "stdev" tussen de berekeningen steeds groter (de tempratuur lijnen gaan steeds verder uit elkaar)

Doordat ze snel moeten rekenen voor die verre voorspellingen kan het niet zuiver. Anders ben je de voorspelling over 2 weken aan het uitrekenen, tegen de tijd dat je de uitkomst hebt is het nog maar 2 dagen over (bij wijze van spreke als het echt nauwkeurig is).

In theorie is deze supercomputer een 40x zo snel. Deze zal die berekeningen dus in een dag al gedaan kunnen hebben. en in 2 -3 dagen zeer zuivere modellen kunnen berekenen.

De keuze voor cpu's is logisch, voor GPU support moet de hele software overnieuw geschreven worden, en je wilt echt niet 1 klein foutje in de software waardoor je een weervoorspelling krijgt van the day after tomorrow *film*

GPU's kunnen het waarschijnlijk sneller uitrekenen, maar mischien is het ook niet efficient qua ruimte. Een videokaart heeft meer "ruimte" nodig dan een CPU. Dit komt door het pci-e systeem. Als gpu's bij wijze van spreken direct op moederborden konden worden geprikt voor dit soort toepassingen word het wel intressant. Dan krijg je vanzelfsprekend ook betere support voor software. Er is een reden dat intel xeon cpu's maakt met dubbele qpi bus (zodat cpu's met elkaar kunnen comminuceren)

Omdat de wens er was vanuit het bedrijfsleven. Meer rekenkracht in een tower behuizing/workstation.

Mischien maakt intel (of een ander bedrijf) over 5-10 jaar "Xpu's" (idk hoe ze het noemen) speciaal voor supercomputers. Gezien de investeringen erg groot zijn in supercomputers lijkt het me een intressante markt om hier specifiek voor te gaan ontwikkelen.
Het weer beter voorspellen kan wel degelijk. Men had voorheen nogal grote moeite met het voorspellen van het weer in heel Nederland. Als je het heel simplistisch bekijkt dan had men voorheen een weersvoorspelling waarbij ze gemiddelden namen en dat was dan het weer voor heel Nederland. Gevolg: er klopte geen bal van op lokaal niveau. Was er in het land regen voorspelt dan kwam het vaak voor dat het in diverse delen van het land kurkdroog was en bleef (om maar eens iets te noemen).

De lokale zenders hadden een veel nauwkeuriger weerbeeld omdat zij heel specifiek naar dat gebied keken en alleen de data voor dat gebied gebruikten (afkomstig van o.a. "weerfreaks"). Daarbij natuurlijk ook gebruikmakend van hun eigen kennis en ervaring.

Met een krachtigere computer kun je, zoals fdh hieronder al zegt, veel fijnmaziger gaan werken. Daardoor wordt je weersvoorspelling nauwkeuriger omdat je nu hetzelfde kunt doen als die regionale weermensen. Je voorspellingen per regio worden dus nauwkeuriger. Dat heeft een groot gevolg voor allerlei diensten en mensen. Landbouw, transport via water, weg en lucht tot aan wetenschappelijk onderzoek en diverse andere zaken aan toe. Tijdsmeting is namelijk ook gevoelig voor verschil in temperatuur en luchtvochtigheid maar de brandweer zal er ook blij mee zijn, weten ze wanneer ze code rood moeten afgeven en hoe het gesteld is met bijv. veengebieden.
Welke factoren? Jij gaat uit van factoren die onbekend zijn. Er wordt echter een statistische analyse gemaakt waarbij heuristiek wordt toegepast (bijvoorbeeld Monte Carlo simulaties). en dat betekend dat wanneer je meer iteraties van je simulatie kunt draaien je bij elke iteratie steeds iets nauwkeuriger bent.

hoewel het waar is dat het weer en het klimaat zich deels als chaotisch systeem gedragen is er veel bekend over chaotische systemen en daardoor wordt ook de voorspelbaarheid van deze systemen steeds groter. wat betreft het weer zal het bijvoorbeeld niet ineens 30 graden gaan vriezen op 1 augustus 2014 in Utrecht terwijl het in Amersfoort 24 graden + is en het de vorige dag in beide plaatsen nog +26 graden was.
/deelsofftopic

Kikker81, je hebt zeker wel een punt als het gaat over niet meer dan 3 dagen vooruit voorspellen. 'Probleem' is alleen dat de industrie,lucht en scheep -vaart , de gegevens belangrijk genoeg vinden om er voor te betalen. Dit valt dus ook onder de de sectie 'Diensten'. Zonder kan wel, maar het is makkelijk/veiliger als je de informatie wel hebt. En zo zijn en nog vele andere waar wij geld voor betalen.

Of je dit nou goed of slecht vind kan je maar beter niet over nadenken. Voor elke kostenpost van de overheid die weg(bezuinigd) wordt, komt er wel een andere in de plaats, of wordt een ander groter. Geld zullen we altijd blijven betalen en persoonlijk betaal ik liever belasting voor het KNMI "bereid zich voor op de bbq van morgen' dan subsidie voor onzinnige projecten. Hier wordt het allemaal iets te persoonlijk. Dus laat ik het hierbij.

Cheers
/deelsofftopic
In het filmpje (en op zdnet.co.uk, stond er een tijdje geleden ook een rapportage over weersvoorspelling) zag je dat de voorspellingen "fijnmaziger" werden uitgevoerd, waarbij men met kleinere gebieden kan werken.
Hierdoor kan men het weer correcter voorspellen.

Heb even het artikel opgezocht: http://www.zdnet.co.uk/ne...l-supercomputer-40095092/

In dat artikel wordt er duidelijk uitgelegd van wat de meerwaarde van meer computer power is voor weer en klimaat voorspellingen.
Gsve computer, maarreuhhh, wat het KNMI hier mee moet?
Het weer is zo'n 3 dagen vooruit te voorspellen, langer niet, ook met deze computer niet.
Het KNMI doet meer dan alleen het weer voorspellen, denk aan al het klimaatonderzoek wat ze doen. En daarbij: met meer rekenkracht kan je bijvoorbeeld je model gedetailleerder maken, en bijvoorbeeld rekening houden met meer factoren.
En wie betaald dit ding??
Ik gok dat ze bij het KNMI daar een mooi potje voor hebben.
Niemand weet welke factoren het weer/klimaat bepalen, niemand weet hoe groot de invloed van deze factoren op het weer/klimaat is.
Men voorspelt het weer niet beter sinds we computers hebben, de succes ratio van weersvoorspellingen zijn net zo groot als vroeger toen we met een natte vinger in de lucht en naar de vogels kijkend een voorspelling deden.

Ze zullen inderdaad de klimaat modellen sneller kunnen draaien, maar dat zegt natuurlijk niets over de betrouwbaarheid van deze modellen.

Ik neem ook aan dat ze hier bij het KNMI inderdaad een potje voor hebben en dat jij en ik het geld dat in het potje zit hebben verdiend.
4752 cores... Is zoiets vergelijkbaar met een cluster van 4752 thuiscomputers? Want dat zou je makkelijk kunnen halen als je de pc elke amateur klimaat enthousiasteling gebruikt om ze gezamelijk een model te berekeken, voor een fractie van de kosten.
Maarja, amateur klimaat enthousiastelingen zijn natuurlijk veel te ruimdenkend.

Volkomen belachelijk trouwens dat mijn initiele reactie omlaag gemod wordt als ik vraagtekens zet bij de zinnigheid van deze gezamelijke investering van alle hardwerkende Nederlandse burgers.
Je poneert een aantal stellingen zonder enige onderbouwing in je beide "bijdragen" die rieken naar een slechte first post en je komt nogal gefrustreerd over. En ook laat je je negatief over over anderen met je "amateur klimaat enthousiastelingen" die "natuurlijk" veel te ruimdenkend zijn.

Het is volgens http://nl.wikipedia.org/w..._Meteorologisch_Instituut een agentschap van het Ministerie van Verkeer en Waterstaat en wordt volgens mij dan ook betaalt door de belastingbetaler. Als schipper of vliegenier is de voorspelling van het weer van levensbelang en dat geeft het KNMI. De wetgever vindt deze taak dusdanig belangrijk, dat het e.e.a. heeft vastgelegd in de Wet op het Koninklijk Nederlands Meteorologisch Instituut:
Artikel 3
1. Het KNMI heeft tot taak:
a. het beschikbaar maken, houden en stellen van een algemeen weerbericht voor de Nederlandse samenleving;
b. het beschikbaar maken, houden en stellen van KNMI-gegevens;
c. het beschikbaar maken, houden en stellen van luchtvaartmeteorologische inlichtingen;
d. het verrichten van onderzoek;
e. het adviseren van Onze Minister op het terrein van de meteorologie en andere geofysische terreinen;
f. deel te nemen in internationale organisaties op het terrein van de meteorologie en andere geofysische terreinen;
g. het onderhouden van de nationale infrastructuur voor de meteorologie en andere geofysische terreinen,
h. het ten behoeve van de openbare lichamen Bonaire, Sint Eustatius en Saba op exclusieve basis beschikbaar maken, houden en stellen van luchtvaartmeteorologische inlichtingen, en
i. andere door Onze Minister aangewezen taken ten aanzien van de openbare lichamen Bonaire, Sint Eustatius en Saba op het terrein van de meteorologie en andere geofysische terreinen.
Prijzen aan de private sector (niet zijnde overheid) zijn vastgesteld in artikels 6 en 7, en artikels 8a/b gaan specifiek over de diensten aan de luchtvaart.

Betreft de vergelijking tussen de cores en het aantal pc's, gaat de vergelijking mank op de snelle lokale interconnect (Infiniband) en de directe links tussen de cores en processors zelf, het gedeelde geheugen en vast nog wat zaken die ik niet heb genoemd.

[Reactie gewijzigd door PcDealer op 24 maart 2012 10:28]

Wij hadden een keer hoorcollege van iemand van de KNMI. Ze doen dus ook veel aan milieu en klimaatberekeningen...
en veel data krijgen ze binnen via satteliet en verwerken met geografische informatie systemen.
De scheepvaart en luchtverkeer op de hoogte houden van de weersverwachtingen op korte termijn is het enige dat enig relevant nut heeft voor onze maatschappij, de rest is geldverkwisting.
Onzin, voor de landbouw (en daarmee de voedselvoorziening) zijn goede weersvoorspellingen ook van groot belang.

Daarbij wordt dit ding, zoals anderen ook al hebben genoemd, ook gebruikt voor het rekenen aan klimaatmodellen op de langere termijn.

EDIT: Ligt het trouwens aan mij of is er voor iets dat permanent achter de schermen staat opvallend veel moeite gestoken in de vormgeving?

[Reactie gewijzigd door Ook al Bezet op 24 maart 2012 12:42]

Ach, als je toch gaten moet maken in de voordeuren, kun je ze net zo goed een beetje fancy maken :D. Je bent toch al aan het lasersnijden :D.
De meerprijs van een mooi design is klein bier ivgm de échte kosten van de hardware. Bovendien is dat marketing. Nu zien we hier een "kwijlmachine" staan, waar anders een stel racks te zien zou zijn zoals veel tweakers op het werk elke dag in de serverrruimte zien staan.
Ze kunnen nu iig uitrekenen wat het effect is van hun eigen uitstoot aan toxide stoffen, zeer snel ;-)
Ik weet niet of je uberhaupt dat filmpje gezien hebt maar hier nog even een paar redenen:
-Het KNMI kan nu het weer BETER voorspellen
-Het KNMI kan het weer nu sneller voorspellen
-Het KNMI kan er nu weersvoorspellingen op doen (o.a. klimaatveranderingen)

[Reactie gewijzigd door RobKJ op 24 maart 2012 09:41]

wajooo :D dat is nog eens een leuke computer! :)
ook onwijs tof dat ze het is een toch wel leuk ''kast'' stoppen is weer eens wat anders dan de saaie rack opstelling :)

kan iemand mij trouwens misschien uitleggen wat dat ''teraflops'' betekend ik word niet heel veel wijzer van wikipedia http://nl.wikipedia.org/wiki/FLOPS

[Reactie gewijzigd door jjost op 24 maart 2012 10:13]

Heel erg basic zou je CPU's kunnen onderverdelen in 3 soorten, integer CPU's, fixed point CPU's en floating point CPU's. Het gaat hierbij om de manier waarop de getallen worden opgeslagen in het geheugen van de CPU. De meeste CPU's die wij als consumer kennen zijn floating point CPU's en ook voor supercomputers worden CPU's gebruikt die om kunnen gaan met floating point getallen.

Het aantal FLOPS geeft basically aan hoeveel bewerkingen met zulke floating point getallen de CPU per seconde kan doen. En dat is niet alleen afhankelijk van de CPU maar van het hele traject van aanlevering van data aan de processor, dus van de harde schijf naar het RAM geheugen naar het cache geheugen van de CPU. Daar komt ook een discrepantie vandaan die je in het filmpje tegenkomt dat volgens LINPACK een ander aantal FLOPS gehaald wordt dan het theoretische aantal FLOPS. Dit heeft te maken met het aantal hits and misses in de data die je in het geheugen verwacht. De CPU verwacht bijvoorbeeld dat hij de data uit de CPU cache kan halen maar het moet uit het RAM geheugen of erger van de harde schijf gehaald worden. Dat drukt (zeker bij dergelijke wetenschappelijke modellen) op de prestaties die je haalt.
Een FLOP is "floating-point operations per second" zoals op WIkipedia staat. Ofwel het aantal berekeningen die per seconde kan worden uitgevoerd. Tera is een aantal van 1 biljoen (1000 miljard).
Wat preciezer uitgelegd :) :

Een computer kan heel snel en rap zogenaamde integer berekeningen doen, deze zijn heel snel en altijd correct, tenzij het antwoord eigenlijk een komma getal moet zijn, omdat het alleen met hele getallen werkt.

Floating point operations zijn nodig om hele precieze komma getal berekeningen te doen. Maar, meestal zijn deze berekeningen niet 100% correct omdat een computer niet tot in de oneindigheid kan rekenen. Soms, dan klopt een FLOAT niet en dan krijg je incorrecte data, om dit te voorkomen worden altijd bij belangrijke berekeningen Double FLOATs gedaan. GPU's kunnen deze berekeningen meestal niet uitvoeren/veel trager uitvoeren waardoor zij niet gechikt zijn voor deze berekeningen.

[Reactie gewijzigd door Edek op 24 maart 2012 11:08]

Ze hebben het over energiebewuste keuzes in type cpu. Waarom dan niet een lowpower L-serie of zelfs een E-serie? Of is de L alleen zuinig en niet interessant qua performance per Watt?

[Reactie gewijzigd door PcDealer op 24 maart 2012 08:45]

Misschien omdat de E reeks een lager Max Memory Bandwidth en maar een quad core is, en de L-serie net te weinig CPU power kan leveren voor hun vereisten?
http://ark.intel.com/compare/47923,47926,52577,47919

In de keuze voor de Intel X5675 3,06GHz met een TDP van 90W versus 130W zal ongetwijfeld hun koelsysteem wel een belangrijke factor zijn geweest.
Warm water...daar zou je ook nog het kantoorgebouw mee kunnen verwarmen in de winter (of doen ze dat al en heb ik niet zitten opletten)
Dat doen ze zeer waarschijnlijk al. Met warmte-koudeopslag (WKO) wordt zowel warm als koud water opgeslagen in de bodem, op verschillende locaties op tientallen tot soms wel honderden meters diep. Het warme water wordt in de winter gebruikt om te verwarmen. Na het verlies van z'n warmte wordt het in het 'koude deel' opgeslagen. Dit koude water wordt in de zomer weer gebruikt om te koelen.

Een dergelijk systeem vergt ook een flinke investering, zeker niet enkel voor een serverruimte. Sterker nog, één flinke WKO kan gebruikt worden om hele woningblokken te voorzien van verwarming en koeling.
Het water dat aangevoerd wordt is 12-14 graden. Ik vraag me af wat de temperatuur is bij afvoer tijdens het draaien van een model.
Een stuk warmer, na de (relatief kleine) luchtkoeling komt hier de waterkoeling.
Ik schat tussen de 40-50 graden C.
Ik schat dat het niet boven de 20 graden uitkomt, ik schat op een graad of 16. De soortelijke warmte van water is vele malen hoger dan van lucht, en ook is een kilo water veel compacter dan een kilo lucht. Dus er komt veel meer massa aan water dan lucht langs de radiateurs, en dat water neemt ook nog eens meer warmte op per kilogram.
De daling van de luchttemperatuur is dus aanzienlijk, terwijl de stijging van de watertemperatuur zeer miniem is.
Dus er komt veel meer massa aan water dan lucht langs de radiateurs,
Ligt aan de hoeveelheid water natuurlijk. Als het nauwelijks warmer wordt, kun je toch beter met wat minder water toe?
energieoverdracht gaat veel efficiënter als er grote veschillen in t° zijn. Je kan de 'laatste' node dus niet koelen met water van 40-50°C. Daarom zal er wellicht méér water gebruikt worden om de verschillen zo groot mogelijk te houden in het hele koelcircuit.
Lucht heeft ook een massa

volgens wikipedia 1,293 kg/m3 bij standaard druk op zeeniveau
klopt niet helemaal; gewicht hangt af van luchtdruk, massa niet.
Een kilo lucht heeft altijd dezelfde massa (1 kilo) en hetzelfde gewicht (ook één kilo), bij gelijkblijvende zwaartekracht.

Alleen het volume van diezelfde kilo is anders bij variërende luchtdruk.
Dus je gewicht én massa van eenzelfde hoeveelheid (volume) lucht varieert.

(ritsaert zegt dit ook, maar ik denk ik doe het even zonder formules ;) )
Een kilo lucht heeft onafhankelijk van de zwaartekracht ALTIJD dezelfde massa in de klassieke natuurkunde en heeft alleen gewicht onder invloed van zwaartekracht.
De massa van een volume lucht hangt wel degelijk af van de luchtdruk (en de luchtvochtigheid). Even aannemende dat lucht een ideaal gas is dat geldt: pV=nRT. Dus de hoeveelheid massa (zeg even ruwweg n = pV / RT. Per volume krijg je dan n / V = p / RT. Dus: de massa is afhankelijk van de luchtdruk en temperatuur. De massa per "mol" lucht hangt ook nogal af van de samenstelling, voornl de luchtvochtigheid (RH). Dus: p, T en RH bepalen de massa van een volume lucht. en aangezien F=Ma geldt dat daarnaast de gravitatieconstante g (hier als a gebruikt) dan ook nog mede het gewicht bepaald.
ja daar heb je gelijk in, ik maakte de bekende fout massa en gewicht als 1 te zien.
maar 'you get the idea'
die zal rond de 20°C liggen. Bij de meeste industriële koelsystemen op water wordt een delta T van rond de 6°C aangehouden.

De medische scanners & de deeltjesversnellers die wij koelen werken met ijswaterregimes van 6-12°C.
Leuk om te zien, Was dat nou centreon/nagios dat hij open had om de servers te monitoren op het einde?
Lijkt er wel op inderdaad!
Ja en nee, het is een variant ( aangepaste versie ) op nagios.
Zag ik daar een Gnome-Desktop window (5min 32)? Weet iemand trouwens wat voor OS ze gebruiken voor dit systeem?
Volgens mij heb je de minuten verkeerd afgelezen, want 5:32 is het einde van het filmpje ;)
Ik kan zo snel even niet terugvinden waar je die Gnome desktop hebt gezien.
5min 10.
5min 32 is idd het einde
Het zou ook XFCE kunnen zijn... logische keuze omdat het lichter is dan Gnome, grafisch mooie interfaces zijn totaal niet intressant op zulke systemen.

Never mind, het is Gnome :) compare the two...

[Reactie gewijzigd door Blue_Entharion op 27 maart 2012 15:12]

Over 20 jaar doen we dit met ons mobieltje en lachen we hartelijk om dit trage antieke monster. :)
Over 20 jaar zouden CPU's 2^10 = 1024 keer zo snel moeten zijn.
Deze supercomputer heeft 58,2 terraflops.
Een overgeklokte galaxy nexus haalt momenteel ~100 megaflops.
1024*100M = 100Gflops.
Helaas, nog eens 18 jaar later wel.

edit:
Me 2500K haalt ~77 Gflops, die gaat er wel overheen in 20 jaar.

[Reactie gewijzigd door The_Double op 25 maart 2012 21:00]

Over 20 jaar staat dit x4 op ons bureautje.
Ben ook erg benieuwd naar de toekomst..
Het idee dat zulke systemen vervolgens in laptops terecht komen en dan voor Facebook en Farmville worden gebruikt (net als nu met de i5/i7 series) jeukt me dan wel weer...
Ik denk eerder dat je er 2x facebook op kan draaien dan :)
Dan kan je lekker virtueel gaan ploegen op een veld :D
Of over 20 jaar is je brein geüpload naar 20x zo'n ding.
Leuke videoreport! Rob van Schaik heeft gelijk als hij niet weet waar ze over 5 jaar zullen staan: als ze nu al zo'n grote stap hebben gemaakt dan beloofd dat veel goeds.

Echte IT-ers trouwens die met liefde hun nieuwste speeltje aan Tweakers, mede enthousiastelingen dus, laten zien. Mooi!
Kan dit alleen maar beamen!!
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*