Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties
Bron: HotHardware

Nadat twee maanden geleden de GeForce 6200 op de pijnbank gelegd werd en we gisteren nog aankondigden dat nVidia de TurboCache-versie van deze kaart aan het voorbereiden is, wist HotHardware al twee exemplaren te bemachtigen om aan een nader onderzoek te onderwerpen. Het gaat om een model met slechts één 16MB-geheugenchip en om een model met twee van deze chips, wat resulteert in 32MB geheugen. Voor de rest zijn beide PCI Express-videokaarten identiek met een gpu op 350MHz en geheugen op eenzelfde kloksnelheid (700MHz DDR). Theoretisch heeft het 16MB-model beschikking over 2,8GB/s bandbreedte naar het lokale geheugen, terwijl het 32MB-model over 5,6GB/s kan beschikken.

Door de TurboCache-technologie kunnen deze kaarten echter ook met het systeemgeheugen communiceren en optimaal gebruik maken van de bandbreedte die PCI Express biedt, wat resulteert in een totale bandbreedte van respectievelijk 10,8GB/s en 13,6GB/s. Hiermee zullen de kaarten tot 128MB ondersteunen in een systeem dat in totaal 512MB RAM heeft. Het TurboCache-principe wordt verder uitgebreid besproken en uitgelegd in de review, waarna men overgaat naar het testen zelf. Hiervoor werden de kaarten geïnstalleerd op een DFI Lanparty 925X-T2 met een Pentium 4 560 op 3,6GHz en 1GB RAM. In de eerste 3DMark05-benchmark valt meteen al op dat zelfs de goedkoopste kaart met 16MB on-board geheugen erin slaagt alle tests succesvol af te werken en dat zelfs met een relatief kleine achterstand op de 32MB-versie.

GeForce 6200TC

In Final Fantasy loopt de achterstand echter meteen op, wat het voordeel van de hogere bandbreedte illustreert. Ook in Halo op een resolutie van 1280x1024 zien we dit fenomeen terug, met een 32MB-kaart die meer dan dubbel zoveel frames per seconde laat zien als de 16MB-versie, terwijl de voorsprong op 1024x768 nog beperkt bleef tot 13 procent. Ook in Far Cry, Doom 3 en Half-Life 2 zien we dit verschijnsel steeds weer opnieuw. Opvallend is overigens dat de GeForce 6200TC met 32MB geheugen in Half-Life 2 bijvoorbeeld nog 41,45 frames per seconde weet weer te geven. Hoewel beide kaarten geen enkele keer echte hoogstandjes laten zien, is het nVidia daar ook niet om te doen, aldus de reviewer.

Deze kaarten zijn bedoeld om DirectX 9-functies te implementeren in een betaalbare videokaart. nVidia liet overigens nog weten dat er bepaalde keuzes gemaakt zijn tijdens het ontwerpen van de kaart waardoor bijvoorbeeld z-compressie niet ondersteund wordt. Bovendien wordt er momenteel aan een nieuwe ForceWare-driver gewerkt waarmee de AA-prestaties aanzienlijk zouden verbeteren. Met zijn uitgebreid gamma eigenschappen, in principe zelfs alles wat de GeForce 6800 ook heeft, is deze kaart volgens de reviewer dan ook in staat om zelfs de recentste games te draaien voor respectievelijk slechts 79 en 99 dollar voor de 16MB- en 32MB-kaart.

Benchmarkscores GeForce 6200TC (fps)
Halo (1024x768) 17,21
19,96
Halo (1280x1024) 6,2
14,49
Far Cry (1024x768, geen AA of AF) 11,95
19,14
Far Cry (1024x768, 2xAA, 8xAF) Werkt niet
14,24
Doom 3 (1024x768) 10
20,3
Half-Life 2 (1024x768) 27,53
41,45
Oranje: Scores 16MB-model | Rood: Scores 32MB-model
Moderatie-faq Wijzig weergave

Reacties (49)

Ze hebben de kaart alleen in een high-end PC getest. Je kunt zo de maximale prestaties wel goed zien maar hoe presteert deze kaart in een budget PC?

De kaart is immers gemaakt voor een budget PC, met minder ram, tragere CPU. Ik denk dat de prestaties van de kaart dan flink afnemen.
GeForce 6200TC met 32MB geheugen in Half-Life 2 bijvoorbeeld nog 41,45 frames per seconde weet weer te geven...
Dat is ongeveer wat mijn Radeon 9800 Pro ook haalt.. En deze kaart is ongeveer 1/3 van de prijs?! :(
@med1c
Jouw Radeon 9800Pro haalt echt veel meer.

Heb je niet gewoon een vreselijk trage cpu of zo?

Een 9800Pro moet zo'n 60 fps halen met 4xfsaa en 16af. Dit kaartje doet dan 10 fps.
3 GHz, 2GB RAM @ 400MHz. Weet niet wat jij een trage CPU noemt ofzo maar dat valt volgens mij wel mee.
Inderdaad geen trage cpu.
In dat geval zou jij met het grootste gemak HL2 op de allerhoogste settings moeten kunnen draaien inclusief fsaa en af en alsnog veel sneller zijn.

Heel vreemd. (Herinstallatie overwegen? ;))
Tis alleen een Intel en das nou weer jmmr he :Y)
Zelfde settings?

AF / AA?

Er zijn meerdere factoren natuurlijk.

Behalve dat beeldkwaliteit van de kaarten.
Hoewel de beeldkwaliteit van nVidia nooit echt slecht geweest is. Misschien is dit dus ook wel een hele interesante kaart zelfs voor diegene die voor een laag budget een game kaart willen hebben.

Ik doel hierbij vooral op dat personen die voorheen een budget kaart kochten puur met het oog op ik gebruik alleen Office en de rest kan mij niets schelen.

Echter wanneer ze een spelletje wilde spelen ging dat niet.
En dat kan nu dus wel.

Of een andere mogelijkheid :
Een oom van mij heeft een half jaar geleden een offerte bij mij aangevraagd voor een leuke mid-range / high-end PC waar hij Far Cry goed op zou moeten kunnen lopen in de hoge settings.

Ik heb hem een offertte gemaakt :
Athlon 64 3000+
ASUS K8V
1GB DDR 400 Corsair TwinX
GeForce FX5900 128Mb (de alom befaamde goed flashbare Leadtek LX series.)
74-gb Raptor + 160GB 7200Rpm Sata schijfje.
+ 17" TFT Iiyama 16Ms

Doordat ik de onderdelen goedkoop kon leveren kwam ik op een prijs van rond de 1100 euro.

Wat ik persoonlijk een mooie prijs vindt / vond.

Nu is hij er uiteindelijk niet mee in zee gegaan omdat de videokaart niet 256 mb was en hij bij de Makro een P4 3GHz zag met een GeForce FX5200 256Mb zag voor een lagere prijs.
En een 256 mb videokaart volgens hem veel sneller was dan het door mij geselecteerde model.

Echter ietwat later kreeg ik te horen dat er iets mis zou zijn met zijn pc omdat al zijn spellen liepen als een powerpoint presentatie.

Ik vertelde hem dat dat aan zijn trage videokaart moest liggen en hij de spellen niet op high settings moest spelen.

Echter ik kon hem hier niet van overtuigen want hij had per slot van rekening toch een 256 mb kaart???

|:(

Moraal van dit verhaal tot betrekking met dit artikel waarop ik reageer.

Hoewel voorheen budget kaarten totaal niet geschikt waren voor het spelen van de nieuwere games lijkt het er nu op dat dit eindelijk zal kunnen.
Dit heb ik ook al meerdere keren meegemaakt.
Wat ik dan altijd doe, is ze dit vragen:

Wat heb je liever? Een Pentium3 500 MHz met 2 GB geheugen of een Pentium4 3000 MHz met 512MB geheugen?
Dan kiezen ze toch wel voor de P4.

En dan zeg ik gewoon dat 5200 sinoniem staat voor snelheid, en dat omdat 5900 groter is, die ook sneller is. Mochten ze dan nog niet overtuigd zijn, laat ik ze de echte klokfrequenties er van zien. Dan zijn ze meestal wel overtuigd hoor :P
En als ze dan nóg niet overtuigd zijn, laat je ze gewoon een benchmark van een bekend spel zien.
Ik snap niet, dat ze altijd met die fps shooters vergelijken. Die zijn dus echt geen van alle zwaar.
Laten ze maar is komen met benchmarks van everquest2, world of warcraft, horizons of zelfs de ouwe ww2online met zn abnormale verre horizon.
Kijken wat er gebeurt als er rond de 100 of zelfs meer spelers met allemaal eigen textures kledij etc moeten worden gerenderd.

Anekdote:
Ikke: Hallo, ik zocht eigenlijk nieuwe videokaart, heb nu een 9600xt, maar die trekt de spelen, die ik nu doe nauwelijks.
Verkoper: Oh, u heeft zeker doom3 aangeschaft?
Ikke: nee, hoor, die trekt hij makkelijk, gaat me om eq2, ww2.
Verkoper: stilte, zegt hem dus niks.
Ikke: zat te denken aan de 6800GT.
Verkoper: *hehe dat ken ik!* ja das leuke kaart, alleen verwachten we hem rond januari weer in de winkel.

Maar ff serieus: weet iemand benchmarks hoe nieuwe videokaarten bijvoorbeeld presteren in nieuwe mmorpg? Met de benchmarks van doom en halflife kan ik zeer weinig, vooral omdat ati en ook nvidia, zn drivers speciaal aanpast voor deze spelen, waardoor er altijd zeer vertekend beeld plaats vind.
Dit weer je vast niet, maar tegenwoordig draaien mmorpg's gewoon op dezelfde engines als FPS-games hoor.

Neem Vampire BloodLines - The Masquerade, die draait gewoon op de source engine...
Vreemd om te zien dat half-life2 zo een hoge score haalt.
Zeker als je het vergelijkt met een halo, die grapische toch veel zwakker is.

Edit: Typo
Niet zo vreemd.
Halflife 2 is niet zo zwaar in vergelijking met andere nieuwere spellen. Sommige sites beweren zelfs dat het gewoon nog steeds een quake1 engine is met allerlei shaders toegevoegd en de textures in hl2 zijn niet erg gedetailleerd wat wijst op lage resolutie textures en daar heb je met zo'n kaart dus mazzel mee.
Dit wil niet zeggen dat ik persoonlijk HL2 niet gaaf en mooi vond, maar het is geen doom3 qua graphics
Quake 1 zou ik niet durven zeggen maar de HL2 engine is "last years technology" dus zeker net het nieuwste van het nieuwste. Vergeet niet dat HL2 vorig jaar was uitgekomen moest alles goed zijn gegaan (gebundeld met 9800/9600 kaarten). Als je dat in gedachte houdt is farcry en d3 veel recentere technologie. HL2 Q3 2003, Farcry Q1 2004, D3 Q2 2004.
Doom3 is juist de oude generatie.
Gewoon DX8.1 technologie (in de opengl variant dan) met een schaduw techniek die in te toekomst niet gebruikt zal worden omdat andere technieken veel efficienter zijn en beter aansluiten op de sterke punten van de huidige videokaarten.


Er zijn een heleboel andere redenen aan te geven waarom HL2 beter presteert. Een voor de hand liggende is dat HL2 veel minder belasting op de PCI-E bus geeft.
Zoals al gezegd zijn de textures in HL2 niet bijzonder gedetailleerd. De details worden juist gemaakt met normal maps in combinatie met pixel shaders.
HL2 wil gewoon heel veel pixel shader kracht.

Als de bottleneck van je kaart de bus is, terwijl de bottleneck van het spel de gpu zelf is, dan is het volstrekt logisch dat dat spel minder negatieve invloed heeft van de bus.

Terwijl Doom3 net zoals andere oude generatie spellen veel meer beslag legt op de bus. Uiteraard heeft die dan veel meer last dan HL2.

De verwachting is dat in de toekomst de pixel shader performance nog veel belangrijker gaat worden. En dat daarmee de snelheid van het geheugen (en in dit geval de pci-e bus) relatief gezien nog minder van belang gaan worden.

Daarom waarschijnlijk ook dat zowel ATI als Nvidia juist nu weer nieuwe interesse tonen in dit soort budget videokaarten.
HL2 mag dan wel net nieuw zijn en de HL2-aanbidders modden Bas! dan wel omlaag met Trolls, maar hij heeft wel gelijk (al is dat Q1 verhaal waar hij naar refereert natuurlijk onzin, maar hij zegt ook niet dat het waar zou zijn).

Het blijft een feit dat HL2 een van de laatste is van een oude generatie en Doom3 de eerste van een nieuwe generatie.
Mjt: interessante theorie over die bus.
Dus de bus wordt meer belast door D3 dan door HL2? Ondanks het feit dat het hier over PCIE gaat, de opvolger van AGP8x, nota bene was AGP meer dan snel genoeg. Maar nu zeg je dat zelfs PCIE niet meer volgen in D3? Sterk hoor. Wat voor een gigantische bus kan die belasting dan wel aan?

De snelheid van de bus wordt minder van belang in de toekomst zeg je. Kunnen we terug naar ISA dan? Waarom wordt dan PCIE ontwikkeld?

Dus oude games belasten de bus, nieuwe niet. Nieuwe games geven meer fps dan oude hierdoor (jouw verklaring).
Logisch gevolg: toekomstige games zullen alleen maar sneller en sneller draaien. Dus nooit meer upgraden! Hoe nieuwer het spel hoe sneller het zal lopen want ja hoor die bus wordt minder en minder belast.

Mooie theorie, nu nog iemand vinden die dat gelooft.

En als laatste: een opengl variant van dx8.1? Dit moet echt een typo zijn.
aval0ne, als je nou eerst eens gaat nadenken voor je dit soort kritiek geeft.

AGP was inderdaad snel genoeg. Om de simpele reden dat spellen al het geheugen lokaal op de videokaart hadden en dus de AGP bus amper hoefden aan te spreken.
Nu heb je dus een videokaart waarbij het meerendeel van het geheugen niet op de videokaart zelf zit, maar via de AGP/PCI-E bus benadeert moet worden.
Vanzelfsprekend is de belasting van de bus daarom veel en veel hoger is dan bij traditionele videokaarten.
(zo vanzelfsprekend dat ik het in mijn eerdere reactie niet vermeld heb, maar blijkbaar dus niet voor iedereen vanzelfsprekend)

Dus moet je gaan kijken welke spellen van die verandering nou veel last gaan ondervinden. En dat zijn dus typisch de oude spellen en Doom3. En met name HL2 is een spel dat er minder last van zal ondervinden.
Dat kan je duidelijk zien bij elke benchmark waarbij dezelfde gpu generatie wordt getest met verschillende core en memory snelheden. Of bv overklok tests. Bij somige spellen is de core de bepalende factor, terwijl bij andere het memory dat is.
Kijk bv naar de Radeon9500 en Radeon9600 videokaarten. In moderne shader intensieve spellen deed de 9600 het beter. Maar op dat moment waren er nog niet zoveel spellen waarvoor dat gold, zodat gemiddeld de 9500 de snellere videokaart was.

En wat betreft jouw kinderachtige opmerking over opengl. Iedereen die mijn reactie met een objectieve blik leest ziet meteen wat er bedoeld wordt: Dat de technieken die gebruikt worden van het nivo zijn dat gebruikt wordt in dx8.1. Maar dat het uiteraard in de gelijkwaardige functies in opengl geprogrammeerd is. Dus PS1.4 nivo shaders in Opengl. Maar met dx8.1 weet iedereen precies wat er bedoeld wordt, en in opengl is dat gewoon minder duidelijk gedefinieerd en wordt het verhaal alleen maar onnodig gecompliceerd en verwarrend.
De beperking komt niet als eerste in de bus alswel in het gewone geheugen.. dat loopt niet op die PCIe snelheden. Dus dan zit je hypersnelle bus te wachten op het geheugen (DDR400 = 3.2GB/sec in burst) Het voordeel van een shader is dat die extreem klein is ten opzichte van een texture die hetzelfde effect bereikt (normal maps etc).
Ja ik kan me nog wel herinneren dat er in januari dit jaar een beta release van Half-life2 uitkwam van -ANON maar deze versie was echter helemaal anders dan de hl2 final van vandaag. Ik vond het toen zelfs meer op doom3 lijken :?
(al is dat Q1 verhaal waar hij naar refereert natuurlijk onzin, maar hij zegt ook niet dat het waar zou zijn)
Waar het verhaal vandaan komt kan ik wel gokken : HL1 was gebaseerd op de Q1 engine. Extreem getweakt, dat wel. Het was zeg maar een Quake 1.9 engine geworden :+.

Bij het lekken van de HL2 source herinner ik me nog geruchten dat de source veel weghad van HL1 oid. Of de engine ook bekeken is of wat dan ook, geen idee. Maar dat zou wel verklaren waar de geruchten vandaan komen. Aan de andere kant, als een oude engine zó ver getweakt is, met heel veel onderdelen herschreven, dan mag je het zo langzamerhand wel een nieuwe engine noemen.

Onmogelijk is het dus niet, maar ik zou het niet weten :). Het zou me gezien HL1 nog wel Q1 code had niet verbazen als er nog wat regeltjes naar HL2 zijn meegekomen, maar veel meer dan een paar regeltjes ook niet, denk ik. Als het al zo is ;)
Echt klinkklare onzin. De Source engine is gewoon from scratch opgebouwd. Misschien dat ze es wat uit beschikbare code hebben gecopy/paste, dat doet elke programmeur tenslotte. Half-Life 2 doet qua graphics echt niet onder aan Doom 3 (als je er even rekening mee houdt dat Doom 3 ontzettend donker is met kleine omgevingen) en presteert toch beter. Dat heeft ook te maken met efficienter programmeren en gebruik maken van beschikbare resources.

Opvallend trouwens dat gisteren in het nieuwsbericht gemeld werd over deze kaart dat er een 3D Mark 2005 score van 2500 mee te behalen viel. Daar werd al hevig aan getwijfeld maar dat blijkt terecht te zijn aangezien in dit artikel de score nog geen 500 is voor de 32 MB kaart...
de Halo-port staat dan ook niet bekend voor zijn super geoptimaliseerde code...
toch een nette kaart voor een instapmodel vind ik
Made by Micro$oft ;). (hm, eigenlijk zit daar toch een grond van waarheid in, aangezien hun besturingssystemen er toch ook zo op gemaakt zijn dat ze steeds zwaardere pcs vergen...)

Halo is gewoon een game die niet gemaakt is om op pcs te draaien. Het is een game die voor consoles diende (Xbox,...) en waarbij dus de code volledig geoptimaliseerd werd voor deze consoles.
Bij het omzetten naar de pcversie hebben ze dan ook helemaal geen moeite gedaan om de game wat te optimaliseren voor de pcs. Vandaar het wat brakke uitzicht vergeleken met Doom III/HL 2/Farcry terwijl het toch wel op zijn minst even zwaar is als deze games.
Waarschijnlijk komt dit omdat de drivers geoptimaliseerd zijn voor HL2.

maar het is er inderdaad vanaf te zien dat dit een budget kaart is. al hoewel 75 euro nog best wel aan de prijs is vind ik. Maargoed PCI-X zal waarschijnlijk nu eenmaal wat duurder zijn dat de (verouderde) AGP kaarten
Lichtelijk offtopic misschien, maar ik zie op die foto een DVI en een D-SUB uitgang. Wil dat zeggen dat je op deze kaart ook 2 monitoren naast elkaar kan aansluiten ? Dat zou het namelijk een ideaal kaartje maken voor bijvoorbeeld mensen die veel grafisch werk doen en daarvoor veel desktop ruimte nodig hebben, maar geen dure kaart willen aanschaffen. Zelf heb ik een GF4 Ti4400 met ook zo'n achterkant, waar 2 monitoren aan hangen. Dat was een dure kaart, deze zijn erg goedkoop voor wat je er voor terugkrijgt en als 'ie werkelijk dual-monitor kan denk ik dat 't 'n heel interessant product is.
Wil dat zeggen dat je op deze kaart ook 2 monitoren naast elkaar kan aansluiten?
Als je op de tweede pagina van de bron kijkt ( http://www.hothardware.com/viewarticle.cfm?page=2&articleid=614&cid=2 ), zie je dat de 6200 serie (net als de 6600 en de 6800 serie) ondersteuning heeft voor nView Multi-Display. Je kan er dus meedere monitoren aan hangen.
Overigens is het enige verschil dat er geen SLI ondersteuning is (maar wel als enige TurboCache ondersteuning).

Ik denk niet dat gamers deze videokaart zullen kopen, maar waarschijnlijk hebben veeleisende windows gebruikers, die grafische software met DirecttX 9 ondersteuning gebruiken, er wel wat aan.
voor mensen die longhorn willen draaien is DirecttX 9 een vereiste:
http://www.tweakers.net/nieuws/35213
Maar nog steeds zijn deze kaarten aardig duur in vergelijking met een Club3d Radeon 7000/TD R (¤ 32,-) of Asus V9400-X/TD (¤ 39,-) die ook met DVI en D-sub zijn uitgerust. Alleen is de TurboCache kaart waarschijnlijk wat sneller bij het eventuele spelletje.

/edit/De hierboven door mij gestelde kaarten zijn wel zonder PCI Express, maar goed, degene die nu een moederbord koopt mer PCI Express geeft hoogstwaarschijnlijk ook net iets meer uit aan een videokaart./
Deze kaarten zijn bedoeld om DirectX 9-functies te implementeren in een betaalbare videokaart.
Dat kunnen de door jou voorgestelde kaartjes op hun buikprintplaatje schrijven.

edit: een 9550 heeft DirectX 9-functies, goedkoopste is 64,50 in de pw.
Ik zie liever dat alle nieuwe modellen TurboCache ondersteunen. Ik denk dat de videokaart dan net iets langer mee kan als de games over een paar jaar weer meer geheugen nodig hebben...
Persoonlijk koop ik nl. niet elk jaar een nieuwe videokaart, daar heb ik het geld niet voor over.
Prestaties in games hangen echt niet af van de hoeveelheid geheugen hoor... Je GPU wordt eerder gewoon te traag (of ondersteunt geen nieuwe functies hardwarematig, zie DirectX9)
Ik snap dat het niet alleen aan de hoeveelheid geheugen ligt. Het is echter wel een combinatie van beide (GPU + geheugen). En ik denk dat een wat oudere videokaart dan niet iets langer (paar maanden / jaar) mee kan komen. Mocht de GPU het probleem zijn, dan brengt een snellere processor uitkomst.

Overigens verlang ik echt geen toprestaties, misschien ligt het daaraan. Speel nu best veel NFS U2, en dat draait voldoende goed met een GF2 MX-400 met 64 MB geheugen... :)
Goedkopere kaarten worden meestal in bugetsystemen gezet. Dat zijn dus systemen met over het algemeen minder geheugen dan dure systemen. Dan ga je wel verschil merken in algehele pc prestaties als de videokaart zomaar even 128 MB van je mem afsnoept. Met 1 GB ram zal je er niet zoveel last van hebben, maar de meeste mensen die dat hebben, besteden ook wel wat meer aan hun videokaart.

De prestaties vallen mij erg mee. Ik had slechtere prestaties verwacht.
Ik weet nog wel dat ik met mijn oude S3 Savage4 32MB (64 bit geheugenbus zoals de TNT2 M64) het dubbele aantal FPS kon halen in Unreal Tournament door dat ding geforceerd AGP geheugen te laten gebruiken op mijn K6/2-350. Als je dan bedenkt dat er ook nog 16MB versies waren met 32bit geheugenbus...

AGP geheugen of in dit geval TurboCache hoeft helemaal niet nadelig te zijn blijkt wel weer.
Volgens mij heeft elke budget kaart tegenwoordig toch dual monitor support of niet?
Dit type kaartje gaat wel een succes worden..

Trek zometeen de eerste de beste packardbell of HP kantoormachine open en er zal wel dit type elcheapo chippie in zitten..

En door de manier van opbouw (weinig chippies en serieel verbonden) zie ik zometeen deze chip op mening onboard moederbord verschijnen.
Ik vertelde hem dat dat aan zijn trage videokaart moest liggen en hij de spellen niet op high settings moest spelen...
Dat begrijp ik prima. Een 9800 Pro is alleen niet echt een trage videokaart ofzo en zeker niet te vergelijken met een FX 5200. Ik draai 1280 x 1024 zonder AF/AA....

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True