Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 79 reacties
Submitter: superwashandje

De komende HD 7000-gpu's waar AMD momenteel onder de codenaam 'Southern Islands' aan werkt krijgt mogelijk ondersteuning voor de nieuwe pci-e-standaard. Pci-e 3.0 heeft per lane een dubbel zo hoge bandbreedte als de huidige 2.0-versie.

Volgens de Turkse technologiesite Donanimhaber krijgen AMD Radeon HD 7000-gpu's een pci-e 3.0 x16-interface. Pci-e 3.0 is backwards compatibel met pci-e 2.0 en heeft een doorvoersnelheid van 8 gigatransfers per seconde. De huidige pci-e 2.0-standaard heeft een maximum snelheid van 5 GT/s. Door overhead te verminderen, die bij 2.0 aanwezig is, is de feitelijke snelheid van pci-e 3.0 dubbel zo hoog. De beschikbare bandbreedte per pci-e-link in één richting is ongeveer 1GBps, terwijl bijvoorbeeld een videokaart in een pci-express-16x-slot maximaal 32GBps tot zijn beschikking heeft.

De specificatie van pci-e 3.0 is eind 2010 gepubliceerd. Aanvankelijk werd gedacht dat Sandy Bridge E van Intel ondersteuning voor pci-e 3.0 zou krijgen, maar onlangs verschenen berichten dat dit in eerste instantie niet het geval zou zijn. Omdat Intel niet in staat zou zijn de hardwareondersteuning van pci-e 3.0 afdoende te testen, zou het bedrijf besloten hebben bij de eerste lichting van de X79-chipset voor Sandy Bridge E, de pci-e 3.0-technologie niet toe te voegen. Daarmee zou ook de kans op een uitstel van de introductie van Sandy Bridge E verminderd worden, schrijft Vr-zone.

Moderatie-faq Wijzig weergave

Reacties (79)

Hmm, maar als je bedenkt dat bij de huidige generatie kaarten het verschil tussen PCI-e 2.0 x8 en x16 niet eens merkbaar is, vraag ik me af wat de toegevoegde waarde is voor de HD7000 serie. Die zullen niet opeens twee keer zo meer bandbreedte gebruiken als de HD6000 neem ik aan.

[Reactie gewijzigd door SytseHartvelt op 18 juli 2011 17:38]

De HD7000 serie zal hier inderdaad niet veel aan hebben maar dat is het doel ook niet.

Hiermee geeft ATI aan dat men het tijd vind dat men de nieuwe standaard geimplementeerd word.
Dit zal enige tijd kosten vooraleer alle fabrikanten dit standaard maken (en ATI geeft ze nu dus een duwtje). En dan nog eens enige extra tijd vooraleer alle enthousiastelingen dan ook effectief een ondersteund moederbord hebben (wat nu eenmaal de bijna enige afzetmarkt is voor high end)

Daarnaast zal ook wel het idee van meerdere gpu's spelen bij ATI en bij een dubbele GPU op 1 kaart is er wel degelijk een groot verschil tussen PCI-e 2.0 x8en x16
Gezien ATI(AMD), CPU's, chipsets, en GPU zelf kunnen leveren op referentiebordjes kunnen ze hier best wel iets geoptimaliseerd voor bouwen...
Tja kunnen ze op hun dozen zetten "PCI-e 3.0 ready" zoals ze dat met DX11 hebben gedaan :D
Mij baart meer zorg tussen PCI2.0 & PCI3.0 hoe groot of klein het verschil daartussen is anders wordt het een beetje gekke werk een 7xxx te kopen met een PCI2.0 moederbordje
PCI-e 3.0 heeft is ene vermenigvuldiging van de bandbreedte.
Dit door een hogere doorvoersnelheid, maar vooral door de hogere efficiëntie (van 70% naar 85% ofzo).
Snelle SSDs die er op getest zijn blijken al vaak sneller (PCI-e SSDs).
Ander voordeel is dat lanes dus meer kunnen, ook handig voor Thunderbolt en andere toekomstige technieken, maar of de VGA kaarten het nodig hebben, dat moet ik ook eerst nog zien.
Al ga je dan met een 8x bij 8x opstelling wel volledig gebruik maken van het geheel zonder NF200 chip (of ja dat is voor nVidia, maar je snapt mijn punt)
Anders leren we eens begrijpbaar nederlands te schrijven?


Het klopt dat de "efficientie" (voor zover dat het juiste begrip is), flink is toegenomen bij PCIe 3.0, door van 8b/10b encoding over te stappen naar scrambling (met een encoding van 128b/130b. Hierdoor is de overhead gezakt van 20% naar 1,5%.
Echter zit de grootste toename vooral in de verhoogde datafrequentie. Immers: (8-5)/5*100% = 60%

Op den duur zal PCIe 3.0 inderdaad leuk zijn voor Thunderbolt en vergelijkbare technieken, echter heeft bijvoorbeeld thunderbolt wel een update/revisie nodig voordat het hier gebruik van kan maken. Gezien Thunderbolt net geintroduceerd is zal deze update nog even op zich laten wachten.

Het allergrootste voordeel van PCIe 3.0 zit hem gewoon in de hogere data frequentie, en dan niet dat een x16 slot nog sneller is geworden dan deze al was. Maar dat je nu met een x1 slot kan waar je eerst x2 voor nodig had, en bij PCIe zelfs nog x4 voor nodig had. Ondanks dat de PCIe 3.0 controller veel complexer is als de PCIe 2.0 controller, is deze wel goedkoper om te implementeren dan om een PCIe 2.0 controller (en moederbord) te maken met 2x zo veel lanes.

Door de bandbreedte per lane te verhogen kunnen we in principe af met de gelijke (of minder) hoeveelheid lanes. Immers, één PCIe 3.0 lane is ruim genoeg voor twee USB 3.0 poorten, terwijl je eerst nog 2 lanes nodig had. Hetzelfde geld voor bijvoorbeeld een raid kaart, waar je eerst 4 á 8 lanes nodig had, kan je nu af met 2-4.


Overigens: Waar heb jij al PCIe 3.0 SSD's, of reviews daarvan gezien? De eerste moederborden met PCIe 3.0 komen pas over een paar maanden uit! Overigens heeft AMD het zich wel goed bekeken, ze leveren de eerste PCIe 3.0 moederborden en de eerste PCIe 3.0 videokaarten...

[Reactie gewijzigd door knirfie244 op 18 juli 2011 21:43]

Anders leren we eens begrijpbaar nederlands te schrijven?
En vervolgens :
blah encoding blah scrambling blah overhead blah update blah lanes blah reviews
:)
waarschijnlijk werkt een 7xxx zelfs nog prima op een 16x pci-e1.x slot.
enkel als je alleen maar 4x sloten tot je beschikking hebt zou er een verschil zijn tussen 2.0 en 3.0.
Mij baart meer zorg tussen PCI2.0 & PCI3.0 hoe groot of klein het verschil daartussen is anders wordt het een beetje gekke werk een 7xxx te kopen met een PCI2.0 moederbordje
Klopt, laat Intel eerst maar eens met pci-e 3 compatible Sandy Bridge moederborden komen dan zien we wel verder. Om voor die tijd om deze reden een HD 7000 kaart te kopen lijkt me nutteloos.
dat mischien niet, maar bij een dubbele bandbreedte, heb je voor dezelfde data maar 1/2 lanes nodig, waardoor je MB design simpeler kan, of je kunt met even veel beschikbare lanes op je MB meer devices aansturen.
Daar heb je wel een goed punt ja.

Hoe zouden twee van de high-end 7xxx's het doen op PCI-e 2.0 x8/x8 doen trouwens? Hoeveel performanceloss zou dat zijn? Anders moet ik tegen eind dit jaar een nieuw mobo halen..
Wat ik mij afvraag is wat voor invloed dit heeft op de chipsets. Moeten deze nu ook daadwerkelijk sneller worden of is het alleen dat het 'protocol' efficiënter geworden is door overhead te verwijderen?

Mocht het puur een efficiëntie-slag zijn, dan is dit zeer goed nieuws aangezien een pcie x16 slot (momenteel) dan overbodig zou zijn en een mobo meerdere x8 slots zou kunnen krijgen wat dan voldoende voor een videokaart zou zijn (wat vaak al het geval is nu, zie SLI en Crossfire opstellingen).
wat de meerwaarde voor de videokaart zelf is weet ik niet maar voor een pc op zich lijkt het me zeker wel handig.

crossfire en sli schijnen de preformance van de revodrive3x2 aardig te vertragen dus een hogere doorvoer van pci-e zou geen kwaad kunnen er word steeds meer op aangesloten.
sata controllers netwerk kaarten ssd schijven geluidskaarten.
Zeker bij dual video cards ( sli of crossfirex) is het wel degelijk merkbaar.
Als er dan een kaart in een x8 slot zit, vormt dat een behoorlijke bottleneck.

Ook met één kaart is het verschil aardig duidelijk, maar niet problematisch.
Wat ik mij afvraag, is hoeveel watt de pci-e 3.0 kan leveren. Met de pci-e 2.0 standaard was het volgens mij 75 watt. Wat tot gevolg heeft dat de high-end kaarten nog extra connectors nodig hebben.
Ik verwacht niet dat het heel veel meer gaat worden, tenslotte komt er niet meer koper te liggen, dus op een gegeven moment zal er niet meer vermogen doorheen gejaagd kunnen worden zonder hitte problemen...
Na die Bulldozer benchmarks vertrouw ik die turken niet meer :9
Hoewel de melding een beetje lomp is, vind ik dit niet geheel onterecht. Voor de mensen die de afgelopen maanden het AMD nieuws en discussietopic hebben gevolgd valt vast en zeker op hoe vaak donanimhaber met zogenaamd gelekte informatie komt. Maar heel weinig blijkt daarvan te kloppen. Of ze nemen alles over van een ronduit onbetrouwbare bron, of ze zitten zelf dingen te verzinnen, maar ik heb nog maar bar weinig vertrouwen in hun berichten.

The site that cried wolf?
Volgens mij was PCI-e 2.0 geen bottleneck voor de videokaarten. Misschien doen ze dit voor marketingsdoeleinden? :?
Tegenwoordig is haast alles wel voor marketingsdoeleinden. ;)
Meh, je ziet dat de huidige generatie SSDs al te snel is voor SATA-2, dus wat SATA standaarden betreft deze wel mooi mee schaalt met de beschikbare technologie. De PCI-e 3.0 standaard daarentegen kan ik momenteel nog geen toegevoegde waarde voor verzinnen, misschien een raidcontroller met enkele tientallen SSDs eraan of iets in die richting.

HardOCP bewees echter al een tijdje terug dat zelfs op extreme resolutie met de zwaarst beschikbare kaarten, er geen merkbaar performanceverschil is tussen PCI lanes op x16 en x8 speed, en het verschil zelfs op x4 snelheid in deze situatie verwaarloosbaar is.

Met andere woorden, de videokaarten van deze generatie krijgen de bandbreedte van PCI-e 2.0 nog lang niet vol, ik ben benieuwd wanneer we dit echt nodig gaan hebben. Waarschijnlijk wanneer multi-display 2560x1600 de norm is en low-end kaarten de GTX580 gillend naar huis sturen, dat kan dus nog wel even op zich laten wachten ;)
Helemaal gelijk.
Als je een beetje gaat nadenken over de cijfers dan ga je zien waarom PCI-e 3 voorlopig onzinnig gaat zijn.

PCI-e 2.0 x16 doet 32GB/s (volgens het artiekel. Volgens Intel doet de PCI-e 16x bus van de P55 chipset 16 GB/s).
De CPU kan onmogelijk deze datarate volhouden omdat het gewoon niet zoveel data kan genereren. Je hebt welliswaar 8(4) kernen die niet tegelijk van de PCI-e bus gebruik kunnen maken, maar laten wij daar vanuit gaan. Dan heb je bij 3 GHz 24 cpu klokcycli tot je beschikking. Daarin moet je data ophalen, data verwerken en data naar de graka dumpen. Dat is niet zoveel als je bedenkt dat je ook nog stuurcode moet draaien, dat het OS daat nog tussenkomt, dat de driver zelf nog de nodige cycli nodig heeft.
Dus voor genereren van data is het overkill.

De normale geheugenbandbreedte is ongeveer even groot (2x 10GB/s interleaved).
Dus je zou dan je werkgeheugen in korte tijd kunnen dumpen in je graka, maar dan moet het weer gevuld gaan worden. En dan zit je weer aan de grenzen van je CPU. Redelijk zinloos.

En de data van disk af trekken is al helemaal geen optie, die zijn een stuk langzamer dan de CPU en werkgeheugen.

De enige reden zou kunnen zijn om meerdere grafische kaarten met elkaar te laten praten. Je zou dan een soort transparant geheugenmodel kunnen maken waarbij niet elke kaart dezelfde geheugeninhoud nodig heeft. De kaarten kunnen dan snel genoeg uit het geheugen van de buren lezen.

Maar of dis echt zo nodig is?
Ik denk van niet en dat maakt PCI-e 3.0 gewoon weer een leuk naampje waar je NIEUW boven kunt plakken.
Je vergeet dat GPUs via de PCI-e direct uit het RAM mogen snoepen, waarmee je een aardige snelheid kunt halen (1600 Mhz x 64 bits per cycle x 2 dankzij dual-channel = 25.6 GB/seconde), aangenomen dat je CPU zichzelf even kan vermaken. Vergeet overigens niet dat overgepompte data niet verdwenen is, maar gewoon door je CPU bewerkt kan worden, zodat alles alvast klaarstaat voor het volgende frame.

Daarnaast is die bandbreedte opeens heel interessant als je alle data moet uitwisselen tussen GPUs vanwege SLI. Nou wordt beeld meestal om-en-om opgebouwd tussen je kaarten, maar er kan een boel gerecycled worden van de informatie van je vorige frame, wat dan wel verstuurd moet worden.

Voorlopig hebben we geen PCI-e 3 nodig voor gamers, maar ik kan het nut absoluut zien voor data-intensievere applicaties, 3D-renders, GPGPU en wat het ook maar is waar AMD op dit moment op mikt. NVidia is met haar GF100 al die kant op gegaan, en ik vermoed dat ook AMD nu meer de berekeningen-kant uitgaat met haar 7000-serie.
In 1600 zit de dual-channel al opgenomen, dus maar 12,8GB/seconde.
Huh wait wut? Je bedoelt dat de dual-channel al in de 64-bits zit misschien, maar die 1600 is echt het aantal megahertz waarop je RAM intern werkt hoor...
Dan moet ik je waarschijnlijk heel erg teleurstellen dat er geen RAM geheugen is dat intern op 1600MHz werkt. DDR3-1600 werkt op 'slechts' 200MHz. bron
Per chipje ja, maar je geheugenlatje kan 16 van die chipjes bevatten. Je moet bedenken dat je die als een soort RAID 0 kan aanspreken.
Oh shit, foutje aan mijn zijde, ik verwar dual channel met double data rate. Excuus!
"Daarnaast is die bandbreedte opeens heel interessant als je alle data moet uitwisselen tussen GPUs vanwege SLI. Nou wordt beeld meestal om-en-om opgebouwd tussen je kaarten, maar er kan een boel gerecycled worden van de informatie van je vorige frame, wat dan wel verstuurd moet worden. "

Ja, dat is ook wat ik bedoelde.
Het vram kan dan gewoon gedeelt worden en hoeft dan niet zoals nu op elke kaart hetzelfde te zijn.
het is natuurlijk niet alleen bandbreedte wat er veranderd in pce-e 3.0 er komen ook verbeterede en nieuwe features die mischien wel het 1 en ander verbeteren.

computers van vadaag de dag hebben voor gewoon gebruik ook niet meer dan 4GB geheugen nodig maar op 8 gig werken ze toch echt een stukje beter.

als het simpelweg een verdubbeling van bandbreedte zou zijn had pci-e 3.0 niet bestaan.
Als je bedoeld dat er op computers van vandaag de dag voor gewoon gebruik zware geheugen vretende applicaties draaien en/of dat er op gevirtualiseerd word ....ja dan ben ik het met je eens.

Je voorbeeld klopt niet maar je stelling wel.
Het voordeel van meer bandbreedte is dat de latency lager zal uitvallen.
op dit moment is pci 3.0 voor gpu's nutteloos in mijn mening.

maar voor de "dommere" consument is dit wel iets het is 1.0 hoger! en het klinkt mooier.
waarschijnlijk dat nvidia hier ook mee afkomt dus het zou een verloren verkoopkans zijn moesten ze nog pci 2.0 gebruiken...

marketing zou dus een goed mogelijke oplossing zijn.
De domme consument weet niet eens wat PCI-e is. Deze koopt een computer en bekijkt of deze mooi is en eventueel snel, waarbij hem het verschil tussen PCI-e 3.0 en 2.0 niet eens opvalt.

Vergeet niet dat er zeker enkele jaren overheen gaan voordat PCI-e 3.0 bij moederbordfabrikanten geïmplementeerd is. Opzich is het een prima zet, hiermee kan zoals gezegd x8 slot voldoende bandbreedte geven voor een huidige midrange tot higend-chipset, wat de kosten van de chipset en moederbord doen dalen.
MSI en nog een andere fabrikan (Asrock of Abit) hebben al moederborden met PCI-e 3.0 op de markt...
nieuws: Computex: MSI maakt moederbord met derdegeneratie-pci-express
Die zijn er nog niet, dat gaat over een aankondiging van borden pci-e3.0 borden voor Sandy Bridge op een computerbeurs, eigenlijk prototypes. Plus zoals het artikel al aangeeft, die komen er voorlopig nog niet want Intel gaat nog niet direct pci-e3.0 ondersteunen.
Dat is inderdaad waar. Intel heeft dat zelfde trucje uitgehaald met de Z68 mobo's. Daar staat op dat het Rev. 3.0 is, terwijl Z68 pas kwam na de bug in Rev. 2.0. Z68 draagt dus Rev. 1.0.

Mensen blijven er in trappen:|
De Z68 is natuurlijk geen losstaand ontworpen product, het is gewoon een variant van de 6 chipset lijn, en waarschijnlijk gebaseerd op de 3de revisie van die lijn.
Daarnaast heb ik nog nooit een consument naar de revisie van de chipset zien kijken, en dat weten de marketingjongens bij Intel ook wel.
Waarschijnlijk zie je op de Intel site nergens een grote vermelding van dat revisie nummer....
Nou, ik heb tot voorkort bij een van de grote computerzaken van Nederland in de showroom gestaan, maar er zijn echt een hoop mensen die daar geobsedeerd van hoor;). Er kwamen zelfs mensen met hun mobo terug omdat CPUz een ander rev nr aangaf.
Dat het nu nog niet zo is, wilt niet zeggen dat het over een jaartje of twee nog zo is. Waar het wel handig kan zijn is SLI/Crossfire zonder bijbehorende bridge, op high-end grafische kaarten is PCI-e x16 2.0 wel de bottleneck in een SLI/Xfire opstelling zonder bridge. Wie weet kunnen we hierdoor zonder de bridge met high-end kaarten toch praktisch dezelfde resultaten halen als met een bridge ;)
Dat waarschijnlijk wel. Een nieuwe DirectX of OpenGL specificatie komt er volgens mij voorlopig niet, dus moeten ze iets verzinnen om de HD7xxx aan de man te brengen.
aan de andere kant, kun je met een verdubbeling van je bandbreedte nu een x4 slot in je mitx mobo bouwen - om eerlijk te zijn vraag ik me zowiso af, waarom er nog zoveel 16 kaarten worden gebouwd, terweil het ontwerken van 4x mobo's aanzienlijk eenvoudiger lijkt...
Gewoon incrementele verbeteringen. De pci-e bus wordt iets energie efficienter. Waarschijnlijk komen er in de toekomst ook minder pci express lanes op een moederbord, waardoor de chipset en het bijbehorende moederbord goedkoper geproduceerd kunnen worden.
minder lanes lijkt me sterk er word steeds meer aangesloten via pci-e

op een beedje pc heb je 1 of 2 videokaarten een netwerk kaart één of meerdere sata controllers een geluidskaart en mischie wel een pci-e ssd.

snap ook niet helemaal hoe minder lanes echt veel geodkoper gaan worden maar dat zal wel aan mij liggen.
Lijkt mij niet zo moeilijk wat hij bedoeld.

Als je pci-e 3.0 hebt, en je dubbele bandbreedte kan sturen over 1 lane, heb je slechts de helft van de lanes nodig voor de oude snelheid, waardoor je veel borden met minder lanes kan uitvoeren, daar de snelheid die 2.0 bied voorlopig in bijna alle gevallen voldoende is.
1 lane kost x ruimte 16 lanes kosten 16 x ruimte, een gemiddeld mobo heeft maar ruimte voor 8x en dus bouw je een mobo in 2 lagen, (duurder dan eeen enkel laags printplaat)... zo moeilijk is dat niet .... toch?

hoe simpeler het designe, - hoe goedkoper de productie, - thats all
Waar haal jij vandaan dat de bus efficienter met energie zal omgaan?

Het is eigenlijk alleen een aanpassing op softwareniveau.
AMD is de laatste tijd erg goed bezig met hun GPU divisie, eens kijken wat nVidia de komende tijd gaat doen met hun Kepler kaarten. Southern Islands vs Kepler gaat weer erg spannend worden :Y)
ja kan er ook niet op wachten de 6xxx en 5xx waren een doorborduursel op de vorige chip de nieuwe serie is altijd interesant om te zien wat er gaat gebeugen.
Volgens mij zwakt het de laatste thuis juist af, zie nVidia maar eens met hun 560 bijvoorbeeld die heel goed mee komt met de 6950.
Tegen welk verbruik, warmte en prijs? Daar blijft AMD heer en meester op.
Afzwakken zeker niet. Totale marktaandeel van discrete GPU is ongeveer 65-35 in het voordeel van Nvidia, maar als je gaat kijken naar het DX11 marktaandeel is het ongeveer 50-50 met AMD lichtjes in het voordeel. Nvidia had geen antwoord op de HD5xxx reeks en daar zijn ze enorm veel marktaandeel mee verloren. Pas met de GTX460 en de GTX5xx reeks hadden ze terug echt competitief vermogen. Op dit moment is Nvidia een beetje stiller en sneller, maar AMD is dan weer goedkoper per performance en verbruikt minder. Al bij al kan je geen miskoop doen deze generatie, dat gebeurt niet echt vaak. AMD maakt trouwens de laatste 2 jaar terug winst, na jarenlang verlies draaien. Het is niet omdat ze op de highend CPU markt het wat opgegeven hebben dat ze plots dood zijn hoor.
Waarschijnlijk kost support voor PCI-e 3.0 niets of nauwelijks extra in productie kosten en moeten ze vroeg of laat compatibiliteit ontwikkelen dus doen ze het maar zo snel mogelijk.
Het is een standaard voor een aansturing, dus alleen code moet herschreven worden?

Ik blijf het verbazingwekkend vinden dat er elke keer meer door een stukje koper gestuurd kan worden. Dit is in feite nog steeds hetzelfde koper dat in een XT zat...
Tenzij die 7000 serie monster gpu's worden (wat ik heel erg stiekem ergens wel hoop), zal het inderdaad niet veel uitmaken of het nu 2.0 of 3.0 is.
Maar als het produceren van grafische kaarten of gpu's met 3.0 ondersteuning niet meer kost dan ze met 2.0 te maken, zou het dom zijn het niet te doen vind ik.
Kijk naar 64-bits, begon een jaar of 7 geleden en nu nog zit er weinig tussen 32 en 64 bit behalve dat je meer geheugen (HDD en RAM) kan aanspreken.
Kijk naar dual/quad/.. cores, die ondersteuning begint nu langzaam te komen in sommige games.


Verbeteringen of niet, het zal langzaam opgezet moeten worden voordat fabrikanten/developers volgen en de gevolgen van een 'upgrade' merkbaar is. Het kan bijvoorbeeld zijn dat nu x16 vs x8 weinig uitmaakt, omdat daarop videokaarten worden geoptimaliseerd (immers is dat wat de meeste gebruiken). Misschien dat met 3.0 videokaarten je een enorme performance drop ziet als je het op 2.0 gebruikt.


Bovendien.. iemand moet de eerste zijn, want het merendeel zal altijd wachten 'op die ander' voordat ze zelf beginnen het te ondersteunen.
heb gister nog ff een review zitten lezen over die bandbreedteverschillen tussen x4 x8 x16.
Nou benutten de meeste spellen die idd niet, maar een enkele profiteert hier wel van.

http://www.tomshardware.c...x-480-x16-x8-x4,2696.html

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True