Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 81 reacties

De Pci Special Interest Group heeft verschillende details vrijgegeven over de pci-express 3.0-standaard. De standaard biedt tweemaal zoveel bandbreedte en ondersteunt videokaarten tot 300W.

Naast een hoger energieverbruik voorziet de organisatie achter de pci-express-standaard ook grotere videokaarten. In plaats van twee slots, zoals nu gebruikelijk is bij high-end videokaarten, mogen de kaarten in toekomst drie sloten in beslag nemen. De nieuwe standaard zal ook vergezeld worden door een nieuw type stroomaansluiting om de energiehonger van 225W- en 300W-videokaartenkaarten te kunnen stillen.

Pci-express 3.0 zal tweemaal zoveel bandbreedte kunnen leveren als pci-express 2.0, maar tegelijkertijd backwards compatibel blijven. De fysieke specificatie blijft ongewijzigd, alleen de elektrische specificatie verandert. Hoewel de plannen voor de nieuwe pci-express-standaard in grote lijnen bekend zijn, zijn deze nog niet definitief. Verwacht wordt dat de specificatie eind 2009 afgerond zal worden en dat de eerste producten rond 2010 het daglicht zullen zien.

8-pins stroomaansluiting voor pci-express 3.0
Moderatie-faq Wijzig weergave

Reacties (81)

Volgens mij is dit een reactie op de trend om meer gpu's op één enkel bord te plaatsen. Dus geen SLI/Crossfire meer via 2 kaarten en dus via 2 slots, maar alle stroom voor 2 gpu's via 1 slot. Zoals we zien met de GF7950X2 is de trend gezet en heeft nVidia sindsdien de GF9800X2 gelanceerd, terwijl ATI zelf begonnen is met multi-gpu oplossingen met de HD3870X2. Ook heeft ATI aangekondigd dat zij een multi-chip kaart gaan maken gebaseerd op de volgende generatie R700 Radeons. Meer GPU's op die bestuurd moeten worden via 1 pci-express sleuf zorgt dus voor een hogere eis aan zowel stroomvoorziening als bandbreedte. En deze stelling strookt bijna perfect met de vernieuwingen die pci-express v3 zal brengen.

Wat ik er dus van denk is dat men puur de vrijheid laat aan de gebruiker die kan kiezen om er een single PCB oplossing die 300W kan slurpen in te steken, ofwel een opstelling met 2 kaarten van 150W. Alhoewel de stroom ook kan geleverd worden via externe voedingskabels die rechtstreeks uit de computervoeding komen lijkt het mij op zijn minst goed met het oog op de toekomst en naar uitbreidingsmogelijkheden toe om tenminste al de mogelijkheid te voorzien.

Dat grafische kaarten ondertussen veel meer gaan verbruiken is maar deels waar, aangezien die terwijl ook veel beter kunnen presteren voor eenzelfde hoeveelheid opgenomen energie. Zoals anderen het hier al zeiden is het meer en meer zo dat game enthousiastelingen kiezen voor de lagere regionen van de high-end reeksen die samen met deftige prestaties ook nog relatieve zuinigheid en dus ook stilte bieden.

Ook lijkt het mij dat meer en meer mensen hun keuzes baseren op verbruik, aangezien een beest van een computer die 600W kan slurpen onder zware belasting en veel gebruikt zal worden al kan gaan wegen in de portefeuille.

Het is dus een beetje zoals SLI. Roepen van "ohnee, nu kunnen mensen 2 of 4 kaarten van elk 150W kwijt in hun computer, en wat met het verbruik?". Het gaat hem hier dus over de extremen die telkens meer vrijheid krijgen om extremer te worden. Dat wil dus nog niet zeggen dat de meerderheid mee zal gaan in die trend. Zeker nu er zoveel wordt gegooid met termen als "green power" en wat nog allemaal.

[Reactie gewijzigd door IveGotARuddyGun op 12 juni 2008 21:48]

Hmm, het plaatsen van meer GPU's op 1 bord is niet iets van de laatste tijd.

3Dfx was dat al aan het doen met de Voodoo 5 in juni 2000 (4 keer VSA-100).

En interessant, die kaarten waren de eerste die een externe eigen voeding nodig hadden, ipv via de AGP bus gevoed te worden.
Wat ik behoorlijk irritant vind is dat er nu 3 verschillende PCIe connectors zijn.
Je hebt een 4 pins (die nota bene lijkt op de 4 pins ATX stekker), een 6 pins en een 8pins stekker. Wat moet je daar nou mee als fabrikant van voedingen?? Ik heb hier bijvoorbeeld een 600 watt voeding met een 4 pins en een 6 pins PCIe stekker, daar heb ik dus vrij weinig aan als ik 2 kaarten heb met een 6+ pins aansluiting of 1 kaart met 2 6+ pins aansluitingen.

Om het dan ook nog even over het stroomverbruik te hebben... Die 300 watt is marketing praat, het is gewoon onmogelijk om zoiets met een heatsink en lucht te koelen. Boven de 150watt moet je al vrij snel aan de waterkoeling.
Meeste fabrikanten van grafische kaart leveren een verloopstekkertje mee waarop dan een één of twee 6- of 8-pins pci-express power connectors worden aangesloten op een kabel met standaard molex verbinding.
Goeie PSU fabrikanten zetten op de stekker waar ze voor zijn.

M'n Antec 500 Watter heeft op de connector mooi Pci-E staan. Dat is kraakhelder.
300 watt is inderdaad behoorlijk veel maar het geeft je wel een behoorlijke head space als je als ontwikkelaar rekening houd met energie monsters.dat mag ook wel als we nog vaker energie monsters zoals de radeon 2900xt of nvidia gtx280 gaan zien. pci express 3.0 zal net zo als pci express 2.0 een behoorlijke vooruitgang in de prestaties met zich mee brengen. de dubbele bandbreete zal denk ik pas echt goed benut kunnen worden als je sli of crossfire wil draaien.
tomshardware had hier wel een leuk artiekel over.
http://www.tomshardware.c...pci-express-2-0,1915.html
Ik ben geen gamer, maar dit lezend kan ik alleen maar concluderen dat het veel efficiënter (goedkoper) is om met een console aan de slag te gaan.

Overigens betekent een verbinding die je met max. 300W mag belasten niet dat die verbinding met 300W moet belasten. Minder mag ook. Dit leidt tot standardisatie van de verbinding, die je vervolgens ook voor meerdere doeleinden kan gebruiken. Misschien kunnen we straks wel de monitor via de videoaansluiting van energie voorzien.

Ook las ik hier een tijdje geleden over een systeem met vier videokaarten, dat rekenwerk verzorgde voor wetenschappelijke doeleinden. Ik kan me voorstellen dat je hiervoor maximaal presterende GPU's gebruikt.

Ik zou het trouwens een goede zet vinden als de GPU zich, wat energiebehoefte betreft zich beter en nauwkeuriger dan nu gangbaar is, kan aanpassen aan het aangeboden werk. Het idle verbruik van hoog-presterende GPU's ligt veel te hoog.
Monitor voeden via de graka zou moeten kunnen inderdaad, de huidige LCD schermen verbruiken tegenwoordig niet veel meer. Mijn 21.3" samsung verbruikt max 63W. Met deze specs van 300W moet dat makkelijk kunnen. Voordeel is dan ook dat als je pc uit staat, de monitor niet nog een kleine hoeveelheid energie verbruikt (staat niet meer in stand-by, aangezien de graka geen energie meer levert.

Qua idle verbruik zitten GPU's inderdaad veels te hoog. Laat ze wat dat betreft maar eens naar de CPU's kijken, die verbruiken veel minder als ze weinig te doen hebben. Volgens mij moet een gpu toch veel minder kunnen verbruiken als er enkel 2D beelden te verwerken zijn, in principe loopt ie dan op zn sloffen. Jammer genoeg is het dan wel weer zo dat Vista met z'n Aero weer 3D zit te produceren.
Het mag van mij zeker wel wat minder watts worden

ik heb een 535watt voeding maar kreeg laaste de melding dat me videokaart niet genoeg kreeg en dat hij zichzelf daarom omlaag ging kloken om dit te Compeseren maar dat vondt ik al aardig aso eigenlijk heb niet eens een crossfire setup dadelijk heb je gewoon 2 voedigen nodig 1 voor je pc en 1 voor je 2 videokaarts

iedereen is bezich met omlaag schroeven van watts behalve de graphics card zijn ze ook niet echt op de markt aan letten maar toch alleen op sneller en sneller wat het ook maar moet kosten

en tuurlijk snoitkever kosten bepaalde onderdelen veel vermogen en ligt er ook aan dat een videokaart natuurlijk een relatief klein oppervlakte heeft maar een moederboard zit ook vol met de zelfde onderdelen en een proccesor maar je ziet die toch niet zo enorm aso verbruik hebben maar ik denk dat het zuiniger kan
Ehh, kunnen ze ipv de kaarten nog meer stroom te laten trekken niet de fabrikanten pushen om energiezuinigere kaarten/componenten te maken? 300W voor een videokaart is toch niet normaal meer?
De videokaarten mogen maximaal 300 Watt zijn.

Dit is dus ook de grens voor de fabrikanten, ze moeten te allen tijden onder deze grens zien te blijven, het liefst zo ver mogelijk eronder.

Ja, ze hadden het max aantal Watt nog kunnen verlagen, maar het is toch uiteindelijk aan de fabrikanten van de videokaart om het verbruik zo laag mogelijk te houden.
Nu hebben ze nog de kans om High-end PCI-e 3.0 kaarten uit te brengen, die wel veel verbruiken maar wel nog de eerste generatie 3.0 kaarten zijn.
Na verloop van tijd wordt dit toch weer minder in verbruik.

Als er iets nieuws komt is het altijd eerst met een hoger verbruik, dit blijft verder ontwikkeld worden en dan wordt het vanzelf zuiniger etc.
Tja, maar fabrikanten kunnen rustig een kaart uitbrengen die toch meer stroom vereist.
Stroom komt toch meestal direkt van voeding naar videokaart.

[Reactie gewijzigd door bangkirai op 12 juni 2008 22:55]

Kan wel maar dan heb je ook aanzienlijk minder snelle kaarten. Als we het zo bekijken zouden Ferrari en hummers ook niet meer mogen rijden omdat ze te veel slurpen. Soort gelijk probleem hier. Als je dat wilt kun je een mid range kaart kopen die niet zo veel gebruikt.

En Idle gebruiken ze dat dus niet alleen bij het gamen. Maar als je kijkt dat een Office pc 50 watt nodig heeft is dat natuurlijk erg veel.
Tegenwoordig gaat het gemiddelde tdp van alle videokaarten omhoog. De vergelijking met een ferrari gaat ook niet echt op. Die is maar voor een enkeling weggelegd terwijl veel mensen zo'n moderne gpu in hun computer laten lassen. En zolang er vanuit de markt vraag is naar alsmaar betere prestaties en zij niet onder druk worden gezet vanuit de EU of de states om verplicht zuiniger te werken gaat dat tdp alleen nog maar verder oplopen. Je wilt immers geen terrein prijsgeven op het gebied van prestaties en dit is blijkbaar de makkelijkste manier. Alleen bedrijven als VIA springen hier een beetje op in, om die niche markt van zuinige chips aan te vullen. Typisch voorbeeld van het ontbreken van global governance.

De computer en gamesmarkt groeit, en dit soort ontwikkelingen bezorgen extra veel co2 terwijl we daar juist op moeten bezuinigen.

[Reactie gewijzigd door alexvkan op 12 juni 2008 21:50]

Wat een onzin. Kijk naar CPUs die zijn toch in de loop van der tijd ook alleen maar sneller geworden met meer en meer cores. Ondanks dat zijn ze ook vele malen efficienter en zuiniger. Het lijkt wel of het omgedraaide geldt voor videokaart bakkers.

Ik doe er iig niet aan mee.
In het geval van Intel
De laatste generaties zijn misschien toevallig net iets zuiniger geworden dan voorheen. Ook hierin ligt (gedeeltelijk) ten grondslag dat de generatie daarvoor (Pentium 4) echt veel energie verbruikte, en er dus ook zeer goede koeling nodig was.

Verder in het verleden zien we het energieverbruik alleen maar toenemen. Van ~2 watt voor de 80286 tot 100+ watt nu. De prestaties zijn misschien relatief snel toegenomen, maar 'steeds efficienter/zuiniger' kun je ze in dit opzicht niet noemen.
Nou, de performance per watt is nu hoger dan vroeger (voortgang techniek) en in dat opzicht dus wel efficienter.

Maar absoluut zuiniger zijn moderne CPUs inderdaad niet, het totaal-verbruik ligt vele malen hoger dan vroeger. En waar de oldschool IBM PC/XT een 130W voeding had, heeft een gemiddeld moderne PC zo'n ~400W voeding ...
Reply op SKiLLa:
Waarvan de gemiddelde moderne pc aan het stopcontact onder full load minder dan 180watt verbruikt.... Het aantal watts dat de voeding aankan, betekent niet het werkelijke verbruik.

Ik vraag me af hoeveel mensen bij het kopen van een videokaart (of complete pc voor non-t.net bezoekers ;)) rekening houden met de kosten van het stroomverbruikt. Mijn pc en randapratuur verbruik per jaar ~¤315 aan stroom.

Een groot deel van de tijd die ik achter de pc doorbreng, heb ik geen behoefde aan dvd-bays, een goede videokaart + cpu, of meerdere harddisks.
Aan de andere kant wil ik geen tweede zuinige pc erbij, omdat ik weet (uit ervaring gebleken) dat beide pc's tegelijk aanstaan.

[Reactie gewijzigd door a fly op 13 juni 2008 00:50]

a fly: Binnenkort hybrid SLI, waarbij een simpel onboard videokaartje het scherm aanstuurt als er weinig gevraagd wordt en je 9800GTX pas wordt aangeslingerd als je gaat gamen. Scheelt een berg stroom en je merkt er nagenoeg niets van als ik de previews zo lees. Dat soort technieken moeten we meer hebben denk ik. Idealiter iets als het volgende:
Ben je in Word een brief aan het typen worden alle insteekkaarten inclusief videokaart uitgeschakeld met alleen een eenvoudige onboard versie die nog actief is, is slechts 1 core van de CPU actief, wordt teruggeschakeld naar een enkele Dimm of de bussnelheid flink gereduceerd. Extra harde schijven gaan naar een powerdown stand. De chipset kan dan ook langzamer functioneren dankzij de teruggeschakelde bandbreedte, waardoor je computer als geheel grotendeels ligt te slapen. Je zou hierbij ook de koeling kunnen betrekken, fans die langzamer draaien of sommige helemaal uitgeschakeld. Ga je dan gamen, dan wordt alles weer geactiveerd Kost je misschien 1 seconde bij het opstarten van je spel, maar voor mij zou dat geen bezwaar zijn. Als je dat echt goed uitwerkt op platform niveau zou je van 180 Watt naar zoiets 50-80 Watt terug moeten kunnen lijkt me.
CPUs in 2000 verbruikten minder stroom dan een processor nu. Zelfs de eerste P4 processoren waren zuiniger dan een quad core nu is. Tien jaar daarvoor konder CPUs nog passief gekoeld worden.

Daarnaast gaat de vooruitgang bij videokaarten echt wel een stuk harder dan bij processoren. De snelheid van de high-end kaarten verdubbelt ongeveer elk jaar/anderhalf jaar, terwijl CPUs het met veel minder verbetering moeten doen. Nehalem komt een jaar na Penryn, maar lijkt toch echt niet meer dan 50% winst te geven, laat staan 100%.
Als we het zo bekijken zouden Ferrari en hummers ook niet meer mogen rijden omdat ze te veel slurpen
Mooie vergelijking, want dat soort auto's zijn prima energiezuinig te maken, alleen worden ze er 2x zo duur van. Het is meer dat bij die auto's het gewoon niet boeit hoeveel rendement het motorblok oplevert.

Dat is bij videokaarten ook. In het benedensegment moeten kaarten passief gekoeld kunnen worden. In het middensegment moet het allemaal nog een beetje schappelijk blijven, maar de topperformers mogen zoveel energie verbruiken als ze maar te pakken kunnen krijgen. Maakt eens uit als daarmee het rendement omlaag gaat, zodat de snelste kaarten bijvoorbeeld 10W per GFLOP doen (geen id, ik zeg maar wat) terwijl de langzamere kaarten diezelfde GFLOP in 5W kunnen gieten. Zo krijg je bij wijze van spreken dus 2x zoveel performance bij 4x zoveel vermogen.

Het is maar wat je belangrijk vindt.

[Reactie gewijzigd door _Thanatos_ op 12 juni 2008 20:55]

Het rendement bij een ferarri blok is wel dergelijk van belang hoor. Een laag rendement betekend namelijk veel warmte productie wat voor koelingsproblemen zorgt waardoor ze on-aerodynamische radiatoren moeten plaatsen die voor meer gewicht en luchtweerstand zorgen en dus de prestaties beinvloeden.
Kijk maar naar die bugati met 1000PK. Daar liggen iets van 13 radiatoren in.
Het rendement van een Hummer is niet slecht en zeker bij Ferrari is die zeer goed.
Dus daar is niet veel winst meer te halen.
Want als Ferrari een beter rendement zou kunnen halen krijg je dus ook meer vermogen dus meer snelheid. Bij de Hummer is het verbruik zo hoog omdat hij een zeer hoge lucht weerstand heeft en enorm veel gewicht heeft mee te slepen.

Voor de doeleinden waar de Hummer voor is ontwikkeld doet hij het ook helemaal niet slecht. Het is alleen dat hij wordt gebruikt om de kinderen naar school te brengen en voor die toepassing is hij zeer ongunstig.
Maar dat is het zelfde als een 9800GTX gebruiken om Aero weer te geven.
Vind het wel een mooi vergelijk, maar de nadruk op energie besparing mag wel hoger. En daar is ook ruimte voor:

Een auto gebruikt bij 120 km/h aanzienlijk meer brandstof per kilometer dan bij 100 km/h. Wrijving gaat namelijk exponentieel omhoog met snelheid. Dat zelfde zie je met processoren, het verbruik gaat ook expenentieel omhoog met de kloksnelheid.
Daar zit de mogelijkheid om energie te besparen: Juist door i.p.v. dubbele kloksnelheid meerdere cores op een langzamere klok te laten draaien, kun je performance per watt verbeteren.
Ik snap dit ook niet helemaal het gross van de mensen heeft voldoende aan een onboard kaartje. Terwijl er toch zoveel ontwikkeling zit in deze kaarten. waarvan je zou zeggen dat de meeste die niet gebruiken.

Verder heb ik het gevoel dat gamefabrikanten steeds slechter worden/minder tijd besteden aan het optimaliseren van hun spellen. De nieuwste gfx card kan het toch wel aan.
Helemaal mee eens. Dit is een hele slechte ontwikkeling. Er worden energiezuinige monitors geintroduceerd waarmee wel 45% energie wordt bespaard (nieuws: LG claimt 's werelds efficiëntste monitor) maar dan hebben we het over ongeveer 15 watt. Wordt aardig om zeep geholpen zo.
In zie de volgende headline al.... PCI Express 4.0 ondersteunt Magnetron...
2 of 4 van deze kaarten van 300 Watt in SLI of Crossfire = kerncentrale in je tuin als voeding 8)7
kern splitsing of kern fusie ? pci-express 4.0 heeft vast een materie anti-materie reactor nodig :+

maar effe serieus een 3 slot brede kaart die 300watt slurpt dat is toch niet normaal meer
kunnen ze geen efficiënte kaarten maken die minder stroom gebruiken kleiner zijn en geen heethoofden zijn of willen ze dat niet omdat dat teveel tijd kost
ik denk het laatste
Jawel hoor die zijn er toch ook... Uiteraard niet dezelfde prestaties, want dat vereist meer stroom/koeling.

Waarom geeft iedereen de fabrikanten de schuld als hun voor ons kaarten gaan maken... en ze dat niet zouden doen als wij ze toch niet zouden kopen? dus wordt boos op diegene die dat ding daadwerkelijk kopen. maar ga niet zo zeueren tegenover fabrikanten die doen gewoon vraag & aanbod spelletjes...
4 kaarten: 4x 300 = 1200 W =: 1 kerncentrale
wasmachine ~ 2400 W =: 2 kerncentrales
droger, vaatwasser, magnetronoven erbij, dat wordt dan een drukke bedoening in je tuin.
Dat valt wel mee hoor, mijn wasser trekt hoogstens 2,1KW met 8Kilo.

Maar ik heb zo'n vermoeden wie de sterkste voeding voor pci-e 3.0 als eerste op europese bodem heeft staan :P (ThermalTake)

Die gasten zijn immers nu ook al druk bezig met 2X 2KW gevallen :P
en meerdere 1.200W+ gevallen 8)7

Ik moet alweer nieuwe kasten gaan suggurereren, 16 slots moederborden.?
4X3=12 |:(

Laast staan wat voor koel-eisen er gaan komen.. :X

Wel vet handig voor véééél hdd's overigens :*)

[Reactie gewijzigd door rj1093 op 12 juni 2008 21:50]

Ach zolang we nog geen krachtstroom hoeven te gebruiken.......
Hmm, heb wel krachtstroom aansluiting in garage in elk geval :D
Videokaarten zouden in principe wel steeds zuiniger kunnen worden, als ze kwa prestaties op hetzefde nivo zouden blijven hangen. Maar omdat ze ook steeds beter moeten presteren gaat dat niet op.
Het zou iig wel mooi zijn, als ze dat in de toekomst nog beter voor elkaar zouden krijgen.

Steeds (veel)betere prestaties, met hetzelfde energieverbruik :P

[Reactie gewijzigd door pcgek op 13 juni 2008 09:08]

CPU fabrikanten slagen er dan toch maar in.
Vergelijk bvb eens een P4 met een nehalem/penryn.
Denk dat prestaties van videokaarten harder zijn toegenomen dan cpu de laatste jaren.
En daarbij is de P4 gewoon een uitschieter in verbruik dus niet echt eerlijk om daarmee te vergelijken. De P4 had zelf al veel minder moeten gebruiken dan het deed... Dus als ik een auto maak die 1:1 rijd met 50pk en daarna 1 die 1:1.2 rijd met 75pk is die ineens zuinig? Nee wel zuinigER maar NIET zuinig!
Vergelijk bvb eens een P4 met een nehalem/penryn.
Dan bedoel je zeker niet de P4's uit 2000/2001, met een TDP van 50-70Watt?
cpu zuiniger
hd zuiniger
mobo zuiniger
graka nog meer slurpen?

heeft dit iets te maken met de voedingen? ;) zodat fabrikanten eig nog kunne nverder werken aan grotere psu zoals 1000W+

persoonlijk vind ik het tch niet echt een vooruitgang :(
BAH, noemen jullie jezelf nou tweakers.

Allemaal moeilijk doen over hoeveel Watt een grafische kaart anno 2008 gebruikt, ik vind het allemaal wel meevallen.
Tuurlijk kan het wel energie zuiniger maar dan is de uitval tijdens de productie te groot en zouden de prijzen van high end kaarten starten vanaf 20.000 euro ofzo. is dat wat je wil ?

( uitval tijdens productie zorgt samen met R&D voor hoge prijzen van hardware ) stomme kleiner maken (lees energiezuiniger) 1000 chips bakken en 10 weggooien op 65nm of 1000 chips bakken en 750 weggooien op 25nm. welke koop jij de 65nm voor 10 euro of de 25nm van 800 euro ?

ziehier mijn VGA history

Trident 1MB > 3dmark > ~N/A
S3 S540 32MB > 3dmark > ~N/A
Geforce MX 440 64MB > 3dmark > ~600
Radeon 9800 pro 128MB > 3dmark > ~8000
Geforce 8800GTX 768MB > 3dmark > ~20000

*gebaseerd op 3d mark 2001SE

PS. je kan wel zuinig gamen, neem dan onboard video en speel commander keen op 320x200. wil je echter de nieuwste games spelen met hogere kwalliteit dan wat een xbox360 of ps3 kan koop dan een sli opstelling met idd een dikke voeding (of nog liever 2)

KIES ! OF je gaat voor energiezuinig OF je gaat voor snelheid.

[Reactie gewijzigd door SmardyBardy op 13 juni 2008 10:15]

Of voor beide, maar dan als de gulden middenweg. M.a.w. nieuwe(re) spellen spelen, maar met lagere resoluties en/of minder details. Dan ziet het spel er weliswaar minder goed uit, maar altijd nog beter dan op je vorige systeem.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True