Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 87 reacties
Bron: AMD Zone

AMD Zone heeft een review uitgevoerd met Call of Duty 2 en verschillende videokaarten, waaronder een Sapphire Radeon X850 XT PE, een Leadtek Winfast PX 7800GTX Extreme, een Leadtek 6800 GT en tot slot een Sapphire Radeon X800 XL met 512MB geheugen. Deze videokaarten werden allen geÔnstalleerd op een Gigabyte K8NXP SLI-moederbord met een Athlon 64 3800+ en 1GB werkgeheugen. Opvallend detail is dat het spel de grafische instellingen automatisch lijkt aan te passen aan de mogelijkheden van de kaart.

Zo worden op een resolutie van 1600x1200 pixels automatisch minder details weergegeven dan op 1280x1024, ongeacht wat de gebruiker verder instelt. Dit kan eventueel voor een vertekend beeld zorgen in bepaalde benchmarks. Na uitgebreid testwerk komen de reviewers tot de opmerkelijke conclusie dat 512MB geheugen op een videokaart wel degelijk nu al zinvol kan zijn. In dat geval is het interessant dat ATi's X1800 wel met deze hoeveelheid uitgerust zal zijn, terwijl de GeForce 7800 GTX van nVidia het met 256MB moet stellen.

Call of Duty 2 (2xAA en AF)
1600x1200 4,1
14,4
26,1
1280x1204 19,1
19,3
33,1
1024x768 26,3
28,8
46,7
Groen: GeForce 6800 GT | Oranje: Radeon X800 256MB | Rood: Radeon X800XL 512MB
Moderatie-faq Wijzig weergave

Reacties (87)

Ok en waar staat die 7800 GTX in het grafiekje???
Uit het Call of Duty 2 -topic
De x850xt 512 mb is gewoon een stuk sneller dan de 7800gtx :/
Dit verschijnsel ligt vermoedelijk niet aan de 7800GTX maar aan de COD2 engine die nogal heel erg onberekenbaar schijnt te zijn. Die engine loopt onder water te klooien met quality instellingen waar de gebruiker geen invloed op heeft. Zo krijg dus je dus geen apples to apples vergelijking.

Moet je zien hoe een 7800GTX op 1280x1024 gedetecteerd word:
[[url="http://www.amdzone.com/pics/gaming/callofduty2/1280texture.JPG"]afbeelding[/url]]

En dan nu op 1600x1200:
[[url="http://www.amdzone.com/pics/gaming/callofduty2/1600texture.JPG"]afbeelding[/url]]
Juist ja, 7800GTX gedetecteerd als 128MB videokaart... vervolgens worden de grafische instellingen daar automatisch op aangepast, en word de videokaart benaderd als een 128MB videokaart ("cap used texture memory at 112 MB")... en dat op 1600x1200 met AA/AF... vind je het gek dat de performance dan bagger is: 128 van de 256mb videoram uitgeschakeld op die reso in de eye-candy mode :Z

Overigens vraag ik me sowieso af hoe de makers van die game het voor elkaar krijgen om zo inefficient met videoram om te gaan. Memory bandwith limitaties worden al zichtbaar op 1024x768 zonder AA/AF... dat is ongehoord met 256mb videoram, hebben die gasten nog nooit van texturecompressie gehoord ofzo?
En als ik de screenshots zo globaal bekijk zijn FarCry, HL2 en Doom3 nog mooier dan COD2 ook... :Z

Verder vind ik het ook jammer dat de test niet eveneens is uitgevoerd op een systeem met 2GB ram... als COD2 zo'n geheugenverslinder is lijkt me dit zeker wel een interessant scenario. Battlefield2 loopt op de hogere reso's ook een stuk beter met 2GB...
Even een rekensommetje:
Backbuffer 1600x1200 = 1600x1200x4 / (1024*1024) = 7 MB.
Backbuffer 1024x768 = 1024x768x4 / (1024*1024) = 3 MB.
Ja?

En dan met standaard (dus niet geoptimaliseerd) AA, x2
Backbuffer 1600x1200 = 3200x2400x4 / (1024*1024) = 30 MB.

Op de onderste, ongeoptimaliseerde resolutie heb je dus al 30 MB videogeheugen nodig, om iets op het scherm te krijgen.

Misschien berekent CoD2 dat, en rekent hij uit hoeveel geheugen hij overhoudt voor textures??

EDIT: Stupid, 32 bits is 4 bytes
Bijna goed.
Je bent vergeten dat er minstens gebruikt gemaakt moet worden van double buffering (anders heb je tearing bij iedere frame).
Indien je triple buffering gebruikt moet je dat (uiteraard) maal 3 doen.
dus 1600*1200*4b*2 = 60MB.
Triple buffering is wel goed voor de iq maar het levert imo teveel mouselag op, vandaar heb ik het liever niet. :)
...heeft er niets mee te maken, maar ik moet ff zeiken over je schrijf methode:

1600x1200 = 1600 x 1200 x 4 / (102481024) = 7MB

er staat dus dat 1600 x 1200 = 7 Mb

En dan zijn de meeste het kwijt wat je doet... ik noem dit BREIEN met getallen

Hetzelfde als:

7 + 2 = 9 x 5 = 45
7 + 2 = 45...tja klopt ook niet
wordt in de framebuffer maar niet maar 3 bytes per pixel opgeslagen? de 8 bit alpha wordt immers niet naar je monitor verstuurd, toch?
Ik ben al geen rekengenie, maar het lijkt me toch simpel. Ok, misschien had het iets duidelijker gekund...

Met antialiasing op 2x wordt de buffer 2x uitgerekt (2x zo breed, 2x zo hoog, 4x eigenlijk). 1600x1200 wordt dan dus 3200x2400.

Nu wel duidelijk?
De x850xt 512 mb is gewoon een stuk sneller dan de 7800gtx
Alleen op 1024x768 is de X850XT sneller, en op 1600x1200 laat de single 7800GTX ook de X800XL achter zich.

Daarbij zijn er ook nog een aantal problemen in de COD2 engine (zie post van Cheetah).
Grafieken met de 7800GTX kun je hier vinden:
[[url="http://www.amdzone.com/pics/gaming/callofduty2/aaafoff.jpg"]afbeelding (No AA/AF)[/url]]
[[url="http://www.amdzone.com/pics/gaming/callofduty2/aaafon.jpg"]afbeelding (AA/AF enabled)[/url]]

Ik vind deze scores nogal vreemd eigenlijk. Het voordeel van 512MB boven 256MB word normaal gesproken pas zichtbaar bij grote textures, dus bij hoge resoluties met AA/AF.
Hier zie je gebeuren dat de X800XL 512mb sneller is dan de 7800GTX op 1280 (zowel met als zonder AA/AF > met andere woorden: de 7800 loopt daar al tegen zijn geheugenlimiet aan - erg typisch)... maar vervolgens langzamer is dan de 7800GTX op 1600x1200..!? Hoe kan dat? Als geheugenlimieten al merkbaar zouden worden vanaf 1280 zou de X800XL zwaar moeten ownen op 1600...
Verder doet de 7800GTX @1280 AA/AF exact dezelfde framerate als @1600 AA/AF!? :?

Gezien de scores van de 512mb X800XL t.o.v. X850XT zouden memory bandwith limitaties trouwens zelfs al zichtbaar worden op 1024x768 (zelfs zonder AA/AF). Ik heb dat echt nog nooit gezien.

Het lijkt alsof er is iets heel vreemds aan de hand is met die COD2 engine... en zou wel eens hieraan kunnen liggen:
Opvallend detail is dat het spel de grafische instellingen automatisch lijkt aan te passen aan de mogelijkheden van de kaart [...] Zo worden op een resolutie van 1600x1200 pixels automatisch minder details weergegeven dan op 1280x1024, ongeacht wat de gebruiker verder instelt.
Het hele feit dat die engine blijkbaar zelf (aan de hand van de ingeprikte videokaart) bepaald wat voor details die weergeeft - waar de gebruiker dus geen invloed op heeft - wekt weinig vertrouwen. Hoe kun je er hier zeker van zijn dat appels met appels worden vergeleken? En als ik naar die scores kijk vraag ik me werkelijk af of dit dus ook daadwerkelijk het geval is...
In een apple to apple vergelijking zou het trouwens sowieso ook wel heel erg handig zijn geweest als de reviewer een X800XL 256mb had meegenomen in de review, om die tegenover de 512mb variant te zetten ;)
op 1600 loopt de 850 tegen zijn rekenlimiet aan..kun je nog zoveel geheugen hebben maar da helpt ook geen kont....


Mja d'r zitten idd wat wazige dingen aan die engige..als ie een 7800 detecteerd en alle textures op high laadt is dat natuurlijk unfair tov een x850 die minder goede textures voor zijn bakkes krijgt....
cheetah: "Het voordeel van 512MB boven 256MB word normaal gesproken pas zichtbaar bij grote textures, dus bij hoge resoluties"

Dit is toch geen verband? De textures worden niet groter als je resolutie hoger wordt.
Het is juist heel logisch dat het texture geheugen belangrijk is bij lagere resoluties bij dit spel aangezien de textures eenvoudiger worden gemaakt bij hoge resoluties en dan dus minder uitmaken.
De 7800 staat niet in de benchmark, van beide Nvidia kaarten wordt ook nergens een geheugen aantal genoemd. Er wordt overal doorgedraven over de Ati kaart met 512MB.

Is dit niet gewoon een pro-Ati testje? Ik vind de hele review maar vrij nietszeggend.
Kan aan mij liggen, maar volgens mij bestaat de 7800 serie alleen maar in 256 MB versie

Correct me if wrong
Nvidia fan boy's....

Dit nieuws gaat over prestatie verschillen bij verschillende hoeveelheden geheugen. Het gaat over het feit dat 512MB kaarten bij games als Call of duty 2 al zinvol is. Niet over Nvidia of Ati prestatie verschillen. Voor benchmarks met nvidia kaarten kun je in het bron artikel kijken.

Net een stel voetbalvandalen die de naam van hun clubje niet genoeg in het nieuws terug vinden. Kom op zeg gedraag je eens volwassen. Doe in iedergeval een poging tot.
Ik heb een Radeon 9800XT, ik weenie tegen wie jij het hebt als je nvidia fanboys noemt...
Volgens mij wordt AMD Zone gesponsord door ATI... ;)
Ik heb net de Demo gespeeld (COD2) dit heb ik met mijn GeForce 6800 GT (422/1100) gedaan op 1280x1024 met alles op het hoogst en totaal geen schokkerig beeld.

ben er nog niet achter wat de console code is om je frames op het beeld te toveren maar dat zal minimaal 50+ zijn geweest.

Het mooi is dat als je over in de woestijn rijd ook echt die warmte ziet die je normaal ook op asvalt ziet zo`n waas. En rook komt er ook genoeg in voor wat alstijd een goede test is voor je VGA kaart.

eisen COD2:
1.Minimum System Requirements

- 3D Hardware Accelerator Card Required - 100% DirectX(R) 9.0c compatible 64 MB Hardware Accelerator video card and the latest drivers
- English version of Microsoft(R) Windows(R) 2000/XP
- Pentium(R) 4 1.4GHz or AMD Athlon(TM) XP 1700+
- 256 MB RAM (512 MB RAM recommended)
- DirectX(R) 9.0c (Not included with Demo)
- 100% DirectX(R) 9.0c compatible 16-bit sound card and latest drivers.
- 100% Windows(R) 2000/XP compatible mouse, keyboard and latest drivers
- 700 MB of uncompressed free hard disk space (plus 800MB for Windows(R) 2000/XP swap file)

Important Note: *Some 3D accelerator cards with the chipset listed here may not be compatible with the 3D acceleration features utilized by the Call of Duty(R) 2 Demo. Please refer to your hardware manufacturer for 100% DirectX(R) 9.0c compatibility.

This product does not support Microsoft(R) Windows(R) 95/98/ME or NT.

SUPPORTED CHIPSETS:
- ATI(R) Radeon(R) 8500
- ATI(R) Radeon(R) 9000
- ATI(R) Radeon(R) 9200
- ATI(R) Radeon(R) 9500
- ATI(R) Radeon(R) 9600
- ATI(R) Radeon(R) 9700
- ATI(R) Radeon(R) 9800
- ATI(R) Radeon(R) X300
- ATI(R) Radeon(R) X550
- ATI(R) Radeon(R) X600
- ATI(R) Radeon(R) X700
- ATI(R) Radeon(R) X800
- ATI(R) Radeon(R) X850
- NVidia(R) Geforce(tm)2 Ultra
- All NVidia(R) Geforce(tm) 3/Ti Series
- All NVidia(R) Geforce(tm) 4/Ti Series
- All NVidia(R) Geforce(tm) FX Series
- All NVidia(R) Geforce(tm) 6 Series
- All NVidia(R) Geforce(tm) 7 series

@Erik_van_H:

hoe haal je het console voor je? De ~ werkt niet (naast de 1)
\cg_drawfps 1 of 2 of 3 (werkt alledrie)
Beetje een scheve benchmark wat hier staat. Titel zegt dat 512mb nuttig is voor CoD2, maar hier heb je 3 verschillende kaarten waarvan 1 512mb is. Vind ik dat je voor een echte vergelijking 3 dezelfde kaarten moet nemen met elk ander aantal geheugen.
Natuurlijk ook interessant om te kijken wat hier het verschil zal zijn tussen 128 en 256, aangezien dit bij praktisch elke game echt maar een kwestie van een paar puntjes is bij benches.

Ik denk eerlijk gezegd niet zo veel, want zijn de engines van die oudere kaarten (bijv FX5700) wel snel genoeg om 256 mb vol te pompen en bij te houden?
Call of duty 2 zou niet meer speelbaar zijn op 1024 * 768 op een 6800GT????????

Lijkt me wel heel erg sterk. Misschien niet met alle nieuwe eyecandy(Volumetric clouds e.d.), maar toch.......
Wat ik me ook afvraag of dit niet gedeeltelijk ook samenhangt met de 1GB werkgeheugen in het gebruikte testsysteem.
Spellen als BF2 hebben daar nu al te weinig aan dus ik denk dat de uitslagen er best eens anders uit kunnen zien als er bijvoorbeeld 2GB intern geheugen was gebruikt.

Maar dit geeft wel aan dat je tegenwoordig niet genoeg geheugen kan hebben in je game-systeem

PS. mike_mike, jij zegt dat je een game op 25fps nog speelbaar vind maar dat gaat er bij mij toch echt niet in.
op 25fps dan rollen mn ogen na een paar uur gamen uit mn hoofd, en waarschijnlijk ben ik al veel eerder vertrokken uit ergernis omdat het zo gaar loopt.
mijn idee is:
25fps = RUK
50fps = gaar
75fps = speelbaar
100fps = zoals ik het wil zien
En als het ff kan wil ik graag ook 1600x1200 resolutie.
Maarja, dan moet ik volgens mij een nieuwe pc gaan bestellen :D<div class=r>[Reactie gewijzigd door [X]Death996]</div><!-- end -->
PS. mike_mike, jij zegt dat je een game op 25fps nog speelbaar vind maar dat gaat er bij mij toch echt niet in.
op 25fps dan rollen mn ogen na een paar uur gamen uit mn hoofd, en waarschijnlijk ben ik al veel eerder vertrokken uit ergernis omdat het zo gaar loopt.
mijn idee is:
25fps = RUK
50fps = gaar
75fps = speelbaar
100fps = zoals ik het wil zien
Als ik bv in mijn vriendenkring kijk dan ziet niemand noemenswaardig verschil boven ongeveer 30 FPS. Natuurlijk is het mooier als je het verschil tussen 30 en 100 daadwerkelijk laat zien. Maar je vergeet dat niet iedereen zin/geld heeft om z'n computer te upgraden maar WEL een nieuwe game wil spelen, dan nemen ze wel degelijk genoegen met 25+ FPS. Heel acceptabel als je een game single player wilt uitspelen met je huidige systeem.

Als jij 75 FPS pas speelbaar noemt dan ben je ontegenzeggelijik verwend, kom op zeg, zelfs de arcades doen het met 60 FPS. Bij PC games ligt de verwachting/eis nu eenmaal lager.

Nogmaals, jij hebt het misschien meer over online multiplayer, dat is een ander verhaal omdat je dan echt nadeel hebt. Maar het leeuwendeel van de gamers speelt de games singleplayer.

Die-hard gamers, zoals jij blijkbaar bent, maken maar een klein percentage uit van de totale gamers. Je hebt gelijk als JIJ het onspeelbaar vindt, maar de meerderheid vind dat echt niet.
ik heb de demo gespeeld gemiddeld 20 fps en goed speelbaar had hem toch al na 4 minuten uitgespeeld :)
Dan heb je niet alleen een nieuwe pc nodig, maar ook een nieuwe monitor, 1600x1200x100 trekt niets behalve misschien enkele top CRT schermen. Een LCD gaat al niet verder dan 60 dus volgens jou bewering vallen alle LCD schermen per definitie in de "gaar" categorie, beetje overdreven lijkt me...
Call of duty 2 zou niet meer speelbaar zijn op 1024 * 768 op een 6800GT????????
Het is een beetje overdreven om te zeggen dat 26 FPS niet speelbaar is. De meeste PC gamers nemen daar wel genoegen mee, voor die-hards en bij multiplayer kan het wel een probleem worden. Of bedoelde je een hogere resolutie?
Interessant is het om te kijken in hoeverre deze resultaten beinvloedt zijn door crappy detection. Ze testen niet voor niets een beta. In plaats van dit als revolutionair resultaat te presenteren zouden de mensen van AMD zone zich moeten afvragen of ze deze resultaten uberhaupt wel moeten publiceren. De bias die door de videokaart detectie wordt ingevoerd is namelijk niet te detecteren. 1 foutje daar en de resultaten zijn volkomen anders.
Hmm volgens mij klopt er niet erg veel van deze test.
Ik draai met mijn 9800 Non-pro 128 bit op 1280x1024 met 4x aa en alles op het hoogst zelfs nog dik meer als 40 frames. Nog beter als die 6800 GT in die test, en de 7800GTX
Lijkt me allemaal beeeeetje sterk...
Opvallend detail is dat het spel de grafische instellingen automatisch lijkt aan te passen aan de mogelijkheden van de kaart [...] Zo worden op een resolutie van 1600x1200 pixels automatisch minder details weergegeven dan op 1280x1024, ongeacht wat de gebruiker verder instelt.
Verder geen commentaar nodig me dunkt ;)
Ik draai met mijn GF4TI4200 nog ruim 80 fps dus dat zegt niets.
Ik ben heel erg in de war; ik heb nog nooit zoveel tegenstrijdige benchmarks gezien als bij CoD2. Ik heb een 9800Pro en het spel is eigenlijk op 1024x768 al niet speelbaar, tenzij ik naar bilinear filtering en AA uit ga.

Veel mensen schakelen volgens mij echter Force DX7 in en dan vliegt het spel inderdaad; de graphics gaan dan echter terug naar CoD 1 niveau.
Als COD2 inderdaad zelf detailniveau aanpast aan de kaart dan betekent het dat er in het spel reeds voorgeprogrammeerde instellingen staan.
Wie zegt dat deze voor nvidia en ati kaarten hetzelfde zijn? Met andere woorden, in plaats van driver optimalisaties die benchmarks kunnen verstoren (al dan niet op een eerlijke wijze) wordt dit door COD2 zelf gedaan.
Op deze manier is het inderdaad appels met peren vergelijken....
Ik denk dat je gelijk hebt. Volgens past de game engine het detail aan zodat de fps ongeveer gelijk blijven.

als ik naar deze graph kijk lijkt me dat erg plausible:
http://www.amdzone.com/pics/gaming/callofduty2/aaafoff.jpg

Waarschijnlijk als je gelijke screenshots naast elkaar ziet zullen verschillen zien.
plau∑si∑bel (bn.)
1 geloofwaardig klinkend
Ik vind de uitkomst van de review nogal vreemd.

Het is in een aantal gevallen zelfs zo dat de ATI X800XL de 7800GTX voorbij rijd.
De X800XL is onderhand qua computerjaren gezien alweer een wat oudere kaart die niet tegen de high-end kan opboxen.

Vooral het feit dat Call of Duty 1 nogal in het voordeel van nVidia geschreven was maakt me heel erg verbaasd over de uitkomst.
call of duty 1 was een opengl spel, om dat dan als voordeel van nvidia te zien vind ik wat krom, omdat nvidia (of de ontwikkelaars van cod) er weinig aan kan doen dat ati's opengl support achterblijft
Begrijp nu waarom me laptop crashte.. :P zware game zo te zien (hoewel de read me file nog lage minimale specs aan geeft)

Extra info: COD2 draait op een hele andere engine.. ipv OpenGL (aangepast Quake3 engine ) is het nu een directx engine.

Standard checkt ie inderdaad wat je kaart kan. Zo stond bij mij Force Direct X 7 op ON. (ati9600)
Als ze dit vergeten uit te zetten en Nvidia zet het wel standard op OFF dan kan ik wel begrijpen waarom ATI hogere scores haalt.

:7
Uiteraard kan je natuurlijk ook gewoon in je drivers settings bepaalde waardes vast zetten zoals FA en AS.

Zal vanavond eens extra low settings proberen heehe misschien crasht ie dan niet... automatisch zet ik alles op very high.
Ik heb een radeon 9700pro 256bit 128Mb, hier stond de DirectX 7 op OFF. Het draaide met moeite op 1024x768, verder stond alles uit.(geen AAen AF e.d.)

Op het moment dat ik de DirectX 7 optie op ON zette ging de framerate van 25 naar 200.
Het is dus duidelijk dat de DirectX7 optie voor de mindere kaarten gemaakt is.

Als ze dit vergeten uit te zetten en Nvidia zet het wel standard op OFF dan kan ik wel begrijpen waarom ATI hogere scores haalt.

Dit geld dan waarschijnlijk alleen voor de kaarten die lager zijn dan de 9700PRO of voor alle kaarten met 128Bit bus.(zoals de 9600)
Het lijkt me onwaarschijnlijk dat bij de X800 series de optie op "On" gestaan heeft, aangezien de kaart dan zo'n 600% sneller zal zijn.(waarschijnlijk CPU limited)

edit @ DEXSTAR
Deze optie zit in COD2 demo bij grafische opties ;)
Misschien wel een stom vraagje maar waar staat die optie om DiretcX 7 On/off te zetten met de catalist drivers die ik draai zie ik voor mijn 9600pro nergens zo'n optie staan.
CoD heeft geen hdr !

op extreme-systems is een hele thread over de CoD2 demo ism 512mb....

zo schijnt er bij veel ati-kaarten geen schaduw weergegeven te worden...ook met andere kaarten (6600) is er wat ''corruptie'' te zien...

ik denk dat we beter nog effe kunnen wachten op het volledige spel..

ik lees net ook dat maar de helft van het video-ram wordt herkend bij de 7800gtx op 1600x1200, en dat ie daardoor wat instellingen lager zet die zelf niet in te stellen zijn !! :Z
ik heb het helemaal eens hiermee je kan nog niet op een testen op een spel waar alleen een demo van is.

ik heb toen joint operations uit kwam ook de demo gespeeld die echter ook helemaal vol met fouten zat
het voledige spel was overgerens veel lichter dan de demo versie

dus ga nu nog geen conclusies treken op een een game waarvan de engine nog niet eens goed is...
Ik denk dat ze bij de ontwikkkeling van COD2 de plank een beetje misslaan. COD 1 was een grote hit, en was zelfs met mijn gefoce 2 (jaja :9) nog goed te spelen op 1024*768. Als je echt 512 mb videogeheugen nodig hebt denk ik daat veel mensen het spel niet kunnen spelen, omdat het dan brak loopt. Als het op een 6800 GT al niet meer te spelen zou zijn, hoe zit dat dan met de mainstream 6600 en x600-700 kaarten :? of de oudere generaties kaarten? Het lijkt me dat je met een 9800 pro dit nog best zou moeten kunnen spelen, maar in mijn ogen wijst dit testje anders uit...
Dat zie je verkeerd denk ik. Het ligt maar net aan de instellingen die je gebruikt. Wat hier alleen gezegd word is dat er met hoge instellingen gebruik gemaakt word van meer dan 256Mb aan videogeheugen.

Als je met je gemiddelde mainstream kaart de bijbehorende gemiddelde instellingen gebruikt, dan zal dit net zo goed draaien.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True