Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 83, views: 17.132 •

Fujitsu is begonnen met het leveren van onderdelen voor een nieuwe supercomputer die in een Japans onderzoeksinstituut gebouwd gaat worden. Het nieuwe systeem, dat simpelweg K wordt genoemd, moet in 2012 gereed zijn.

De supercomputer wordt in het Japanse onderzoeksinstituut Riken gebouwd en wordt mede door de Japanse overheid gesubsidieerd. Het systeem, dat enkel de letter K als naam krijgt, wordt pas in 2012 in gebruik genomen. Tegen die tijd moet K in staat zijn de 10Pflops-grens te doorbreken. De huidige nummer 1 in de supercomputerranglijst, de Jaguar Cray XT van het Amerikaanse Oak Ridge National Laboratory, haalt ongeveer 1,75Pflops met pieken tot 2,3Pflops. Daarmee zou K ruim vijfmaal sneller worden dan de huidige recordhouder.

De K-supercomputer moet zijn prestaties kunnen neerzetten dankzij ruim 80.000 Sparc VIIIfx-processors. De octacores tikken op 2,2GHz en worden in ongeveer 800 racks geplaatst. De racks communiceren onderling via een mesh-netwerk in wat Fujitsu een zesdimensionale mesh torus-topologie noemt. De processors, die op 45nm door Fujitsu worden geproduceerd, worden door middel van een waterkoelingssysteem gekoeld.

De competitie in de top-500-lijst heeft nog twee jaar, tot najaar 2012, om de prestaties omhoog te schroeven. Naar verwachting zou dit met de inzet van Tesla-gpgpu's gecombineerd met Xeons kunnen. Dawning Nebulae is met Nvidia's en Intel chips gebouwd en ook Jaguar, met aan boord AMD's Opterons, kan nog worden uitgebreid.

Fujitsu-Riken K-supercomputerDe racks, Sparc VIIIfx-cpu en netwerkarchitectuur van K

Gerelateerde content

Alle gerelateerde content (25)

Reacties (83)

Dat is best wel een groot verschil van 1,75 (standaard) naar 10...

Waar gebruik je dit voor (wat echt meerwaarde heeft ten opzichte van normale servers/computers?)
Impact van bijvoorbeeld klimaat invloeden op het wereldklimaat, nieuwe weermodellen of bijvoorbeeld het doorrekenen van een zeer complexe bouw structuur (dam, etc) zijn dingen waarbij je dit soort systemen kan bereken. Hierbij geld uiteraard, hoe sneller het resultaat, hoe meer informatie er te verwerken valt voor de verschillende partijen. Universiteiten en rekenkamers staan vooral te popelen om van deze systemen gebruik te maken.
Alleen al wat zo'n supercomputer verbruikt is een impact op het klimaat.

Wat ik me afvraag is wat voor OS dit soort computer nou gebruiken?
Meestal varianten van Linux/unix en soms speciaal ontwikkelde proprietaire besturingssystemen.
De compute nodes draaien meestal een heel erg basic OS wat niet meer doen dan het aanbieden van een MPI library. De access nodes kunnen van alles draaien, meestal een aangepaste Linux variant.
Wat ik me afvraag is wat voor OS dit soort computer nou gebruiken?
De eerste 10 in de top 500 in ieder geval Linux.

Verder dan de eerste 10 heb ik niet gekeken.

[Reactie gewijzigd door worldcitizen op 29 september 2010 17:46]

De eerste 10 in de top 500 in ieder geval Linux.
Dankje, dat is een interessante link.

Van de top500 zie je bvb per "OS familie" 91% Linux; 4.4% Unix; 3.4% mixed, 1% Windows & 0.4% BSD (cijfers 06/2010).
En zo zie je ook dat het 10 jaar terug zo goed als helemaal omgedraaid was: 90.6% Unix; 5.6% Linux; 3.4% BSD (cijfers 06/2000).
Wat dacht je van het stroomverbuik? Neem eens het verschil tussen de 1e en 3e plaats:
1e plaats is 69,4% sneller (op de peak) dan plaats 3, maar de 1e plaats verbuikt wel 196% meer stroom dan plaats 3.

Tja, wie is vandaag de dag dan nog "winnaar"?
E.on, GDF Suez & RWE kennelijk.
ed: Of hoe ze in Japan ook heten dan.

[Reactie gewijzigd door kidde op 30 september 2010 16:12]

Alleen al wat zo'n supercomputer verbruikt is een impact op het klimaat.

Ik lag hier echt gewoon dubbel om; wat een heerlijke opmerking :P

Ik ga er verder vanuit dat hier een Unix-OS op draait; een of andere linux variant.
Alleen al wat zo'n supercomputer verbruikt is een impact op het klimaat.
klopt nogal!
uit de lijst gepost door worldcitizen zie ik dat de huidige nummer 1 supercomputer bijna 7 MW gebruikt!

Een gemiddeld Nederlands huishuiden gebruikt 3500 kWh elektriciteit per jaar. 7 MW is dus ongeveer het elektriciteitsverbruik van 17000 huishoudens. (of ▒4000 Amerikaanse huishoudens ;))
Een "dorp" van 17.000 Nederlanders? Je dacht toch zeker niet dat "het klimaat" daar ook maar iets van merkt?
Geen enkele druppel voelt zich aansprakelijk voor de overstroming
de manier waarop de energie gewonnen wordt voor zo'n supercomputer is impact op het klimaat, het verbruik zelf niet :Y)
Voor o.a. het klimaat/weer verwachten ze dat een supercomputer in 2030 genoeg rekenkracht heeft om het globale weer 2 weken precies te kunnen voorspellen! Vrijwel alles is uit te rekenen als de basis structuur bekend is dus des te meer rekenkracht des te beter.
Het globale weer 2 weken vooruit precies kunnen voorspelen. Wat je hier zegt is bijna een tegenspraak. ;) Je kan voorspelen dat het over 2 weken kouder wordt maar je kan nog steeds niet voorspelen of het over 10 of 13 dagen gaat regenen in Gouda.

Ik vraag me sterk af of mijn simpele voorspelmodel: "het weer morgen is hetzelfde als het weer van vandaag" al door serieuze modellen verslagen wordt. Als ik naar de weersvoorspellingen op TV kijk luidt het antwoord blijkbaar nog steeds nee...
Nou, dat simpele voorspelmodel wordt ook al gebaseerd op berekeningen en vergeet niet dat het pas 2011 is en de computing capacity elke 1,5 jaar verdubbeld :)
Dat is toch helemaal geen tegenspraak? Het globale weer over 2 weken precies voorspellen is het weer overal op aarde (=globaal) precies weten. Dus ook of het gaat regenen in Gouda.
Niet dat ik denk dat het ooit mogelijk gaat zijn om het weer precies te voorspellen, laat staan binnen 2 weken over de hele wereld. Dat hangt natuurlijk ook af van je definitie van precies. is op het uur exact weten of het ergens regent goed, of moet het op de minuut exact?
quote: Team-RiNo
Vrijwel alles is uit te rekenen als de basis structuur bekend is dus des te meer rekenkracht des te beter
Dat is theoretisch gezien. In de praktijk moet je ook rekening houden met de foutmarges van je metingen en het feit dat het gewoon onmogelijk is om globaal alle variabelen te meten. Je model mag dan nog zo perfect zijn, als je niet alle variabelen hebt heb je er nog niets aan.

[Reactie gewijzigd door Goderic op 29 september 2010 18:38]

Ik denk dat hier globaal als in "voor de hele wereld" wordt bedoeld.
Ik vraag me sterk af of mijn simpele voorspelmodel: "het weer morgen is hetzelfde als het weer van vandaag" al door serieuze modellen verslagen wordt. Als ik naar de weersvoorspellingen op TV kijk luidt het antwoord blijkbaar nog steeds nee...
Dat is wel heel kortzichtig. Zeker in onze streek verandert het weer nogal eens van dag tot dag. Dit wordt vrijwel altijd (voordat ik commentaar krijg: op zijn minst in grote lijnen) door de modellen goed opgepakt en alleen al hierdoor verslaan de huidige modellen het "morgen = vandaag" model ruimschoots.
Voor o.a. het klimaat/weer verwachten ze dat een supercomputer in 2030 genoeg rekenkracht heeft om het globale weer 2 weken precies te kunnen voorspellen! Vrijwel alles is uit te rekenen als de basis structuur bekend is dus des te meer rekenkracht des te beter.
Precies zal nooit lukken. Je blijft altijd een onzekerheid houden in de data die in je model gaat en een kleine fout daarin kan in een simulatie van enkele dagen grote invloed hebben op de uitkomst van je model. Daarom wordt er tegenwoordig ook veel met ensembleverwachtingen gewerkt waarin deze onzekerheid in de begintoestand met verstoringen wordt gesimuleerd. (zie: http://www.knmi.nl/waarsc...rwachtingen/ensemble.html).

Verder blijft het weer een chaotisch process en zal je dit nooit over een periode van twee weken 100% correct kunnen voorspellen. Maar, met meer rekenkracht kunnen de modellen wel op een hogere resolutie / fijnere tijdstappen worden gedraaid (elk meteomodel is niets meer dan een numerieke oplossing van met name de Navier-Stokes vergelijkingen) wat de fout in in ieder geval de numerieke oplossing verkleind.
sterker nog: het wordt ˇf voor de hele wereld (globaal dus) precies voorspellen.. ˇf nergens 2 weken vooruit nauwkeurig...

i[ets met: alle weersystemen zijn gelinked ed.... butterfly effect... of hoe je het ook wil noemen... een choas systeem (niet stochastisch want zo toevallig is het niet) zoals jubly al aangaf...]

edit: en in theorie is het natuurlijk mogelijk globaal een heel nauwkeuig raster neer te leggen... of x jaar... en zelfs om dan die NS met DNS (direct numerical) uit te rekenen....

[Reactie gewijzigd door SEtechnology op 30 september 2010 00:44]

Het raster om mee te rekenen is geen probleem. GFS en EMCWF rekenen nu al vrij nauwkeurig. Maar de input bepaald de kwaliteit van de output, en de input is veel te onnauwkeurig. Nu, over 20 jaar en over 50 jaar. Met satellietmetingen wordt het wel beter, maar grote delen van de aarde zijn ook via satellieten niet nauwkeurig te meten (de polen).
Het globale weer 2 weken vooruit precies kunnen voorspelen. Wat je hier zegt is bijna een tegenspraak. ;) Je kan voorspelen dat het over 2 weken kouder wordt maar je kan nog steeds niet voorspelen of het over 10 of 13 dagen gaat regenen in Gouda.
Mijns insziens kan dat wel, mits je alle variabelen weet. Als je alle variabelen weet (of een groot deel) en hun effect op het weer, dan kun je ook het weer zelf voorspellen.

Maar omdat er zoveel variabelen op zo'n enorme schaal zijn (op het kleinste niveau is elke molecuul in de atmosfeer een variabele, inclusief zijn beweegrichting, invloed op omliggende moleculen, invloed van zwaartekracht, temperatuur, magneetveld van de aarde, straling van de zon etc) moeten ze nu snijden in het detail van die berekeningen, omdat er gewoon niet genoeg computerkracht op de wereld is om zoveel variabelen te berekenen.

Hoe groter / sterker de supercomputer, hoe gedetailleerder en accurater ze kunnen rekenen, en hoe beter hun berekeningen kunnen zijn.

Natuurlijk is er dan ook nog een diepe kennis van meteorologie nodig, en een team analysten die na kunnen gaan waarom een voorspelling niet precies genoeg was - welke invloeden ze niet meeberekend hadden.
Je zou dan nodig hebben: 99.9% kennis en zekerheid van je begintoestand (100% gaat nooit; http://nl.wikipedia.org/w...idsrelatie_van_Heisenberg), 99.9% kennis van de meteorologisch processen (zie chaos maar eens te voorspellen; http://nl.wikipedia.org/wiki/Chaostheorie) en bijvoorbeeld exacte oplossingen van Navier-Stokes vergelijken (dan ben je meteen miljonair; http://www.claymath.org/millennium/Navier-Stokes_Equations/) en/of een onbeperkte rekenkracht om op alle schaalniveaus (wat je noemt, vanaf moleculair niveau) voldoende resolutie te hebben. Oftewel: dit gaat de komende 30 jaar nog niet lukken :)
je kan nog steeds niet voorspelen of het over 10 of 13 dagen gaat regenen in Gouda.
Gezien het feit dat het weer dan wereldwijd voorspeld zal worden, zal het zeker lukken te voorspellen of het gaat regenen in Gouda, mits voor de ligging van Gouda een foutmarge van 100km in acht genomen wordt ;)
dan moeten ze wel de menselijke invloeden meerekenen, want mij maak je niet wijs dat putin de enige is die zorgt dat het op zn verjaardag mooi weer is (of dat dat alleen op dat soort dagen wordt gebruikt)

edit: seeds uitstrooien om wolken leeg te laten regenen of te laten vormen. voor als mensen dat niet kennen.

[Reactie gewijzigd door Prototype666 op 30 september 2010 18:17]

Dat hangt niet af van de rekenkracht of het rekenmodel van van het aantal meetpunten en daarvan zullen er niet genoeg zijn. Je kunt niet in elke wijk een weerstation neerzetten.
Deze supercomputer zou een grote stap dichter in de buurt van een simulatie van het menselijk brein zijn. Als we met een normale supercomputer een brein van een muis kunnen simuleren, ben ik benieuwd wat we kunnen met dit technologisch wonder.

Verder zou je deze supercomputer ook voor medische applicaties gebruiken, bijvoorbeeld in het ontwikkelen van vaccinaties of nanotechnologie sondes die in de bloedbaan kunnen worden gespoten om het immune systeem te versterken, of een eind te brengen aan kanker.

Deze vorderingen in snelheid en capaciteit in supercomputers heeft talloze nuttige applicaties. Van het redden van levens tot het verbeteren van de LHC.
Ik dacht dat we nog niet verder waren gekomen dan een fruitvlieg. Op 1/10e van de tijd.
Een universiteit was het gelukt om een brein van een muis te simuleren, het was een geslaagde test, maar het menselijk brein is ongeveer 100 maal zo krachtig, dus dat zou in theorie ook een 100 maal zo snelle supercomputer nodig hebben.

Met die computer zou je het menselijk brein niet kunnen simuleren, maar het zou wel een grote stap in de goede richting zijn. Aangezien het menselijk brein tot nu toe nog steeds de snelste en meest gecompliceerde supercomputer ter wereld is, zou het een hele doorbraak zijn als we dat kunnen simuleren.
Ik vraag me altijd af hoe ze de intelligentie van een fruitvlieg, muis / rat, aap of 3 jarig kind inschatten en vergelijken met dat van een robot. Het lijkt me dat er veel te veel variabelen in zitten.
Vooral emoties en ethiek zijn nauwelijks wetenschappelijk te maken in de zin van absolute getallen - er is dus een ander type computer voor nodig met een andere vorm van rekenkracht.
Waarschijnlijk hebben ze een rekenmethode bedacht om de 'berekencapaciteit' van 1 synapse te vergelijken met die van een transistor. Op grote schaal zijn dat soort dingen vaak toch moeilijk te beredeneren (zie het noemen van ethiek / emoties hierboven), dus ze zullen vast starten op de kleinst mogelijke schaal.
de Jaguar is al van vorig jaar, dus tegen dat de K ge´nstalleerd is, is die alweer 3 jaar oud.

Veel tweakers vinden hun desktop dan al rijp voor de schroothoop ;)
Dan kan je met heel veel energie 1+1 doen. En dat dat dan met 10pflops!
ik vraag me dan altijd af waar al die brute kracht voor nodig is? wat wil je in godensnaam berekenen wat te lang duurt met een 2Pflops config?
De grote mondiale uitdagingen, zoals de kennis over het klimaat en het daaruit volgende veranderende weerbeeld, energie, duurzame materialen, lagetemperatuur processen, watermanagement en gezondheid zijn voorbeelden van bijzonder grote, maatschappelijk en economisch belangrijke opgaven die leiden tot complexe rekenproblemen. Maatschappelijk worden steeds hogere eisen gesteld aan deze wetenschapsgebieden om snel en zo nauwkeurig mogelijk antwoorden te geven die er toe doen
Dit soort systemen worden niet gebruikt voor dat soort marginale problemen waar geen cent voor te makken is. De grote supercomputers worden gebruikt om dingen te doen als het simuleren van kernwapens. Dat is veel belangrijker, uiteraard.
Neehoor dat simuleren van kernwapens gebeurt veelal op supercomputers die niet op de lijst staan.

Voor wetenschap vallen genoeg zaken te verzinnen die zulke harde rekenkracht nodig hebben, zoals onderzoek op nanoschaal, om bijv. nog snellere computers mee te bouwen. Maar natuurlijk ook voor het simuleren van chemische processen voor medische wetenschap en vooral astronomie en meteorologie kan al die rekenkracht wel gebruiken.
Japan ontwikkelt geen kernwapens. Dat mogen ze niet en dat willen ze ook niet. Het zal dus nogal degelijk voor civiele toepassingen zijn.
Ik kan me noch herinneren ergens gelezen te hebben, over wat voor supercomputer ze hadden gebruikt om maar een gedeelte van de hersenen van een kat na te botsen. Als ze dat bij mensen willen gaan doen, dan heb je echt wel wat rekenkracht voor nodig.
Een nieuwe Disney/Pixar film renderen :+
Japanners zo kennende willen ze graag iets meer kunnen vertellen over wanneer er waar een aardbeving plaatsvindt, welke gebouwen / bruggen dat overleven en welke niet, en wat er verander moet aan bruggen / gebouwen zodat ze het wel overleven.

Daarna wat de beurs vervolgens gaat doen, en o ja, dan ook nog graag real time ray tracing voor hun MMORPG 3D anime-games.
atoomexplosies, weermodellen, kwantummechanische processen, etc etc etc :)
Hmmm is 10 Peta Flops niet ENORM VEEL en het lijkt me dat ze beter dat rekenkracht dat wordt gebruikt om atoombommen klimaat verandering etc niet kunnen gevruiken voor Folding@Home achtige dingen want het lijkt me dat het enorm handig zou zijn als er een medicijn voor Alzheimers Etc. zou zijn dat goed zou werken.

@ Bubbles ik bedoelde iets dat op F@H leek maar niet F@H dus niet distributed computing

[Reactie gewijzigd door Edek op 29 september 2010 17:56]

Ik zou je graag gelijk willen geven, maar overheden, defensie en bedrijven denken daar anders over.

Overigens: op dit moment heeft F@H een 5,5 PFlops tot hun beschikking. Dat is wel eens meer geweest, meen ik te herinneren, maar evengoed is dat zeer stevig. Zo'n rekencentrum erbij zou mooi zijn, maar de grote vraag daarin is: wie betaald dat? Zoiets kost klauwen met geld en geen bedrijf of overheid die dan zegt: "oh, dat mag F@H wel volledig gebruiken voor nop" De leiding achter F@H heeft ook maar een beperkt budget wat ze van Stanford University krijgen, dus zijn ze voor hun onderzoek wel toegewezen op distributed (home) computing om hun rekenwerk gedaan te krijgen, aangezien ze zo'n rekencentrum absoluut niet (voor lange duur) kunnen betalen.

ninja-edit om bij te werken: Fair enough. Evengoed, het standpunt blijft staan. De reden dat ze zulke supercomputers niet op dat soort werk zetten: onzeker ˇf er bruikbare resultaten uitkomen en al helemaal onzeker binnen wat voor een tijdsbestek. Bedrijven hebben een winstoogmerk dus die willen dat risico niet lopen. Overheden hebben de neiging om niet op zulke lange termijn te kijken, maar enkel binnen de periode dat ze regeren (3-6 jaar meestal) en moeten de kosten wel kunnen verantwoorden met resultaten aan hun bevolking. Ze hebben al genoeg kosten te maken aan allerlei andere zaken. Als ze al geld in zo'n supercomputer stoppen, zien ze liever wel dat er iets mee gedaan wordt waar ze wellicht ook wat geld mee kunnen terugverdienen. Defensie: die heeft bij zoiets weinig baat en zijn meer geinteresseerd in b.v. kernexplosieberekeningen.

[Reactie gewijzigd door Bubbles op 29 september 2010 18:09]

Waarschijnlijk is het goedkoper voort te borduren op betere manieren om eiwitten te bekijken terwijl ze vouwen.

Nu kan dat nog niet, en daarom doet men dus die 'vouw-simulaties'. Maar een eiwit kan zelf in milliseconden (of hoe snel gaat dat vouwen eigenlijk?) doen / laten zien waar een supercomputer een uur over rekent.

Daar is men dus mee bezig, iets met verschillende kleurtjes markers op stukken eiwit plakken en zo, en dan met de nieuwste electronenmicroscoop van FEI bekijken.
Onderzoek waarbij enorm veel variabelen zijn. Atoombotsing zoals hier boven wordt aangegeven bijvoorbeeld. Dat kan op miljarden (biljoenen?) manieren. Dit moet allemaal gesimuleerd worden.
De K-supercomputer moet zijn prestaties kunnen neerzetten dankzij ruim 80.000 Sparc VIIIfx-processors. De octacores tikken op 2,2GHz en worden in ongeveer 800 racks geplaatst.
Dat zijn 640.000 cores op 2.2GHz.
Terwijl de Jaguar er 224.162 heeft op 2.6GHz.

Dan is nog steeds een flinke performance toename maar dan voor een groot deel gebaseerd op de kwantiteit.

Bij een gelijk aantal cores zou je op ongeveer een performance toename van 2 zitten.
Je kun SPARC en Opteron CPU's niet zomaar even vergelijken op basis van hun clock snelheden ik dacht dat we nu inmiddels wel een keer van de Mhz myth af waren. Daarnaast zijn ze gebaseerd op geheel andere structuren en dan ook nog eens van andere generaties.

[Reactie gewijzigd door hemelskonijn op 1 oktober 2010 14:52]

Jammer dat Fujitsu als zijnde producent van SPARC-based processoren het niet met dat platform probeert. Dat zou wel een boost kunnen geven in het ontwikkelen ervan wat uiteraard niet haalbaar is omdat de kosten hiervoor te hoog zijn.
"De K-supercomputer moet zijn prestaties kunnen neerzetten dankzij ruim 80.000 Sparc VIIIfx-processors. "

Volgens mij gebruiken ze wel SPARC hoor ;)
'Tegen die tijd moet K in staat zijn de 10Pflops-grens te doorbreken.'

But will it blend?
Nu hoeven ze alleen de U- en de T-supercomputer nog te bouwen en dan hebben ze een Kwalitatief Uitermate Teleurstellend systeem }>

On-topic: Als wij dit als 'consumenten' al kunnen ben ik benieuwd wat het leger (de black ops he?!) wel niet aan rekenkracht hebben staan. In de top 100 komt er overigens (voor zover ik kon zien) geen PS3 cluster voor. Ik d8 dat je daarmee ook flink wat kon bouwen?

http://tweakers.net/nieuw...-nieuwe-ps3-firmware.html

http://tweakers.net/nieuw...-miljoen-ps3-clients.html
PS3 clusters zijn er wel, maar dan voor de kleinere 'super' computers en onderzoeksprojecten. Ik denk dat ze voor de grote jongens toch een ander systeem zoeken. PS3's in zo'n groot project zul je om moeten bouwen om extra koeling toe te voegen, en ik geloof ook zo dat de PS3 per unit niet compact genoeg is.

Overigens is de #3 supercomputer, de IBM Roadrunner, voornamelijk uit Cell processors gebouwd - dezelfde processor die in de PS3 zit, ja.
Overigens is de #3 supercomputer, de IBM Roadrunner, voornamelijk uit Cell processors gebouwd - dezelfde processor die in de PS3 zit, ja.
Nee, dit cluster heeft een PowerXCell 8i die de opvolger is van de Cell Broadband Engine (Cell BE.
Zo. Zou die het raadsel van de Hitchikers Guide op kunnen lossen? Wat is nou die vraag waar het antwoord 42 op is?

[Reactie gewijzigd door Hoppa! op 29 september 2010 18:13]

het is de Ultieme vraag.


google heeft die vraag al jaren geleden uitgerekend op google calculator:

klikkie
"the answer to life the universe and everything"
42. Dat wisten we al :)
Toch 6x9 waarschijnlijk.
How many roads must a man walk down.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013