Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 34 reacties
Bron: HardOCP

Kyle van HardOCP heeft een review geschreven over nVidia's nieuwste monster, de GeForce2 Ultra. Zoals bekend is dit gewoon een GeForce2 met een opgevoerde core met snel geheugen, en een flink prijskaartje. Kyle, niet echt bekend als nVidia fanaat, is erg positief over de kaart: iets wat ook wel mag als ie op 1600x1200 60 frames per seconde op de beeldbuis zet :

What to say about the Ultra? If you were not impressed by the numbers that we have seen here today, then it is very likely you will not be impressed by anything...so get the hell out of here will ya?! I would be willing to bet the majority of you are a bit taken with the power of this card even if you are dyed-in-the-wool 3dfx diehards. There is no denying that NVIDIA is on top of their game...and everyone else's at this point.

[...] Speaking of money, who the hell can afford $500 for a Video Card? My gawd that is a lot of money, but if you dominate the market, I guess you can do what you want. We can bitch about the price all we want, it just comes down to two questions. Can you afford it? Is it worth US$500 to you? If you answered "yes" to both of these, then I guess we have another soon-to-be GeForce2 Ultra owner in our midst. The rest of us will use our "extra income" to get that copy of Daikatana out of the bargain bin for $5.99......

Let's put price aside for the time being. There is no doubt in my mind that the GeForce2 Ultra delivers the best combination of speed and image quality found in any Vid Card costing less than $1000. That may change in a month or two, but if you want the best today, you want the Ultra. Remember this is coming from a hardened 3dfx user, but the truth is the truth. 3dfx has their work cut out for themselves, that is for sure.
Moderatie-faq Wijzig weergave

Reacties (34)

Ja, inderdaad. Er is echt totaal geen sprake meer van concurrentie. Je bent of dom of je koopt een nVidia based videokaart :)

Het wordt hoog tijd dat er een beetje concurrentie komt, niet alleen door de prijs, maar ook om de vooruitgang een beetje te porren. Als er geen concurrentie komt zal nVidia niet veel haast maken met een opvolger van de GF2 Ultra, waarom zouden ze ook: een concurrent van een eigen GPU op de markt brengen??? Ik vraag me alleen af of er wel snel een betere chip van een andere fabrikant zal komen... Dat is niet makkelijk, ze zullen die vanuit het niets moeten ontwikkelen. :(
Ik ben een geweldige fan van Nvidia maar voor de 2D graphics ligt matrox toch weer op een iets hoger niveau en dus zou ik dan hier toch weer voor kiezen. Maar nogmaals: Nvidia is en blijft op dit moment de beste voor toepassingen als games.
Je bent of dom of je koopt een nVidia based videokaart
Ik zou er iets in willen toevoegen,
Als je voor snelheid (fps) gaat, ben je dom of je koopt een nVidia.
Want de S3 Savage, of de G400 hebben echt wel beter beeldkwaliteit, S3 is alleen trager, en de G400 is niet veel mooier.

<font color=#786562>* ]DrPain[ voelt zich aangesproken....
</font><font color=#786562>* ]DrPain[ heeft een matrox G400 DH :9</font>
nou ik denk dat nvidia ECH WEL haast gaat maken om met een nieuwe chip te komen hoor, nog mooier nog sneller nog duurder want daarmee gaan ze de concurrentie nog even iets meer op achterstand zetten. Kijk die beeldkwaliteit is natuurlijk belangrijk maar als het niet vooruit te branden is heb je er dus nix aan..
Ik ga ook voor de Radeon.

A) Beeldkwaliteit bijna Matrox-niveau. Iets wat je van de GeForce (2) zeker niet kan zeggen.
B) Bijna net zo snel als GeForce 2 GTS; In hogere resoluties vaak sneller.
C) Drivers van ATI zijn zeer nieuw. Volop ruimte voor verbetering (=meer snelheid etc.). Er schijnt momenteel een ATI-driver in de maak te zijn die de performance echt nog een flink stuk zal opdrijven.
D) HyperZ, geen bandbreedteprobleem (Radeon's 8,2 Gbit/sec tegen GeForce 2's 5,2 Gbit/sec). HyperZ doet dit oa door speciale compressie en een methode om snel de Z-Buffer te legen en te vullen.
E) 65 MB DDR voor rond de 900 piek. Zeker 100 piek goedkoper dan elke andere 64 MB DDR GeForce 2 GTS. Voor die 900 piek heb je er ook een TV-IN en TV-OUT op. Vooral die eerste ontbreekt op veel GeForce kaarten.
F) DirectX 8 features als Keyframe Interpolation en Vertex Skinning (met 4 matrixes). Als spellen dit zometeen gaan ondersteunen (en dat gebeurt, want er worden al spellen met deze functies gemaakt), dan zal de Radeon de GeForce 2 GTS zeker voorbijstuiven. (GeForce 2 heeft eik geen specifieke DirectX 8 only features). Deze kaart gaat dus eik langer mee dan een GeForce 2 (nee, ik ga niet over een half jaar weer 900 piek dokken)
G) Zowel Dot3, Emossed en Environmental bumpmapping worden ondersteund (GeForce 2 ondersteund de laatste niet (tenminste, dat heb ik begrepen)
H) Snellere T&L engine dan die van de GeForce 2 (hoewel dat uit de benchmarks nog niet blijkt. Denk dat dit een driver-issue is)
I) FSAA met beduidend minder grote performance hit dan GeForce 2 (hoewel de V5 nog steeds superieur is)
J) Anisotropic Filtering, beduidend mooier dan bilineair of trilineair filteren.

Need I Say More? ;)
A) Beeldkwaliteit bijna Matrox-niveau. Iets wat je van de GeForce (2) zeker niet kan zeggen.
De Geforce produceert inderdaad een veel minder scherp beeld (vooral aan tekst op hoge resoluties te zien) dan Matrox kaarten. Echter de Geforce 2 GTS produceert wel een zeer scherp beeld wat dat van Matrox evenaart.
B) Bijna net zo snel als GeForce 2 GTS; In hogere resoluties vaak sneller.
Wanneer voor de Geforce 2 GTS de Detonator 2 drivers gebruikt worden, dan is inderdaad de ATI Radeon op hogere resoluties sneller. Echter de rollen zijn omgedraaid (en niet zo'n klein beetje ook) zodra de Detonator 3 drivers gebruikt worden. :9
C) Drivers van ATI zijn zeer nieuw. Volop ruimte voor verbetering (=meer snelheid etc.). Er schijnt momenteel een ATI-driver in de maak te zijn die de performance echt nog een flink stuk zal opdrijven.
ATI heeft in het geval van drivers en optimalisaties een zeer slechte naam. Ook Matrox lukt het niet in tegenstelling tot nVidia om snelle drivers te schrijven. Wat betreft kwaliteit en snelheid van drivers ben je op dit moment het beste af met nVidia.
D) HyperZ, geen bandbreedteprobleem (Radeon's 8,2 Gbit/sec tegen GeForce 2's 5,2 Gbit/sec). HyperZ doet dit oa door speciale compressie en een methode om snel de Z-Buffer te legen en te vullen.
Daar heb je helemaal gelijk in. Echter door slechts twee triple texturing pipelines kan de Radeon de Geforce 2 GTS niet aan qua brute kracht in multitexturing spellen, ondanks de zeer interessante HyperZ die relatief gezien veel goed maakt.
F) DirectX 8 features als Keyframe Interpolation en Vertex Skinning (met 4 matrixes). Als spellen dit zometeen gaan ondersteunen (en dat gebeurt, want er worden al spellen met deze functies gemaakt), dan zal de Radeon de GeForce 2 GTS zeker voorbijstuiven. (GeForce 2 heeft eik geen specifieke DirectX 8 only features). Deze kaart gaat dus eik langer mee dan een GeForce 2 (nee, ik ga niet over een half jaar weer 900 piek dokken)
Deze functies zijn inderdaad zeer leuk en best bruikbaar, echter we hebben nu toch onderhand wel door dat het behoorlijk veel langer duurt voordat er fatsoenlijke support voor is dan dat nVidia en ATI altijd beloven. T&L is een voorbeeld wat op zich wel nuttig is maar nog lange niet tot het uiterste benut wordt. Hetzelfde geld voor EMBM van Matrox.

Trouwens, de Geforce 2 GTS ondersteunt net als de Radeon pixel shader wat toch een behoorlijk belangrijke nieuwe feature van DirectX 8 is.
G) Zowel Dot3, Emossed en Environmental bumpmapping worden ondersteund (GeForce 2 ondersteund de laatste niet (tenminste, dat heb ik begrepen)
Dat is blijkbaar dus niet waar. EMBM is in feite niets anders dan displacement mapping en laat dat nu een van de mogelijke functies van de shaders van de Geforce 2 zijn. Dus theoretisch is het mogelijk, alleen is er misschien nog geen driver support voor indien geen shaders gebruikt worden.
J) Anisotropic Filtering, beduidend mooier dan bilineair of trilineair filteren.
Anisotropic filtering wordt zelfs minstens al vanaf de Geforce ondersteunt. En werkt ook inderdaad. Ik heb zelf een Geforce, dus ik kan het weten. ;)

Dus uiteindelijk bekeken zijn zowel de Radeon en de Geforce 2 GTS mooie kaartjes. De Radeon biedt meer features, terwijl de Geforce 2 GTS meer snelheid en betere drivers biedt. Dus het is gewoon een afweging wat JIJ wilt, toch? ;)
Jajaja sneller, beter en mooier dat is allemaal wat we willen. Ik zelf ben een enorme fan van NVDIA dus begrijp me niet verkeerd. Maar wat ik nou wel eens leuk zouden vinden is dat game-developers de mogelijkheden eens ten volle gaan benutten. Het verbaast mij dan ook dat we zo weinig games zien die T&L ondersteunen. Gelukkig heeft NVDIA dat signaal opgepakt en is een eerste grote en verre gaande samenwerking met EPIC aangegaan :D . Zij gaan dan ook in UNREAL 2 T&L gebruiken. Dat is de kant die we op moeten. Verder zou ik iedereen aan willen raden om gewoon te wachten tot NVDIA de NV20 uitbrengt en als je echt aan vervanging van je video kaart toe bent koopt dan een gewone GeForce256.
Waarom de meeste software fabrikanten nog niet begonnen zijn met T&L te implementeren?
Dat komt omdat het overgrote deel en dan spreek ik over 95% van het totale aantal mensen die games kopen en spelen nog geen videokaart met t&l gekocht hebben en er nog heel veel mensen op een tnt1 tnt2 ofzelfs voodoo2 e.d. draaien.
Een deel van die 5% van de markt die wel al een geforce (2/mx) heeft koopt meestal de spellen niet maar heeft zo zijn bronnen om goedkoop aan spellen te komen en ook een brandertje.

Wat Epic doet is dus ook meer innovatief voor hun zelf en persoonlijk denk ik dat daar een flinke sponsoring van nvidea achter zit en ook een voordeel van positieve PR. Want als unreal 2 zo'n super zwaar geval wordt met vele pologonen e.d. dan zal dat ding overal in alle tests gebruikt gaan worden (gratis reclame).

Maar ik denk wel dat het omslagpunt ongeveer nu bereikt zal worden want de betaalbare geforce 2 mx en de in prijs gezakte geforce 1 zullen nu steeds meer in systemen verschijnen. Dus er zullen nu meerdere spelfabrikanten gaan volgen.

Persoonlijk strompel ik nog met een tnt1 hiero, maar ben aan het sparen..
Oja die percentages zijn een schatting en gelden niet voor de tweakers maar voor alle mensen met een computer die een spelletje spelen.
Ik hoop 3dfxdat snel komt met goede concurentie, dan gaan die achterlijke prijzen teminste een beetje naar beneden ;) tuurlijk mag ati ookwel met een 3d monstertje komen hoor! :7
Hoezo geen competitie :P
wat dacht je van de ATI Radeon ??? die is qua snelheid (op 32bits) zeker zo snel en de beeldkwaliteit is iig stukke beter :9
En dan te denken dat ie ook nog met MAXX technologie "dubbel" zo snel kan worden

eagle77 OUT
De Radeon is op hoge resoluties ongeveer even snel als een Geforce2. De MAXX (als hij komt) zal ongeveer even snel worden als de GF2U denk ik, maar dan is er denk ik ook al wel een nieuwe GF... Dat was met die Rage MAXX ook al zo, die kwam ook een stuk te laat.
Denk het niet, je zegt het zelf al, de Radeon is op hoge resoluties en zeker op 32 bits minimaal even snel als een Geforce 2. Soms zelfs sneller.

De GF2 Ultra is iets van 20%-30% sneller dan een gewone GF2.

Als je dus de Radeon Maxx krijgt, dan is dat eigenlijk gewoon een verdubbeling van capaciteit, omdat alles dubbel wordt uitgevoerd. (Zie SLI principe van 3dfx)

Dit houdt dus in dat performance technisch de Radeon Maxx (theoretisch) twee keer zo snel is als de gewone Radeon. Aangezien dit nogal optimistich is, zullen we zeggen Radeon Maxx = Radeon + 80% aan performance. (Dit i.v.m. bereken overhead, timing, enz)

Maar alsnog een flink stukkie sneller dan de GF2 Ultra, omdat die maar iets van 20%-30% sneller is dan de "gewone" GF2.
Even ter verduidelijking nog. De ATI Radeon is inderdaad sneller dan een Geforce 2 GTS in hogere resoluties als men voor de Geforce 2 GTS de Detonator 2 drivers gebruikt.

Met de onlangs uitgebrachte Detonator 3 drivers is zelfs de Geforce 2 GTS in iedere resolutie (dus ook de hoge resoluties) sneller dan de ATI Radeon.

Dus de Geforce 2 Ultra is niet uitgebracht als antwoord op de ATI Radeon. Ik verwacht dat deze is uitgebracht om alvast de markt op te snoepen die de Voodoo5 6000 zou moeten gaan innemen qua fillrate. Je kunt nu al zien dat de Geforce 2 Ultra al meer dan twee maal zo snel is als de Voodoo5 5500 in hoge resoluties, dus theoretisch gezien zal de Voodoo5 6000 zo rond de koers van de Geforce 2 Ultra komen te liggen.

Nadeel van ATI's max structuur is dat je extra lag introduceert van 1 frame. Dit is niet zo erg als er genoeg fps gehaald wordt, maar zo gauw het druk op je scherm wordt dan zal die lag in echte tijd groter worden. Daarom ben ik persoonlijk niet geinteresseerd in hun techniek.
Ik vind niet dat een bedrijf erg slim is als ze een concurrent voor hun eigen produkt gaan uitbrengen. Stel je voor dat Microsoft ook Linux had gemaakt..... :P
Ik vind het HEEEEEEEL slim om concurrentie voor je eigen produkt uit te brengen en het aantal kaarten bouwers zo breed mogelijk te houden.
Stel je voor:
Vader met zoontje staat in de winkel om een computer in elkaar te laten zetten. In het rek staat 1 3dfx, 2 verschillende matroxkaarten, 1 s3 kaartje en 3 verschillende nvideakaarten waarschijnlijk nog verschillende merken ook nog.
Keuze voor een nvidea met de ogen dicht is dan al zowat 50%. En je wilt de mensen de kost niet geven die een kaart kopen met de ogen dicht (hoe mooi de doos is die eromheen zit).
Nadeel is dat nvidea interne concurrentie creeert maar het voordeel is dan wel dat het de externe concurrentie moedeloos maakt door telkens meer en nieuw spul uit te brengen onder verschillende namen en merken.
Dat gebeurt wel hoor, volgens mij is microsoft ook indirect de grootste aandeelhouder van netscape :o Kan dat ik het fout heb maar geloof dat ik dat hier lang geleden eens heb gelezen :'(
Er is prima concurrentie op dit moment hoor...keuze genoeg (nvidia brengt bijvoorbeeld ook de zeer goed presterende en goedkope MX uit).
Als het over prijzen gaat valt het ook wel mee, 3dfx is vaak slechter (lees: hoger) geprijsd dan nvidia...
Ik denk dat deze kaart zich zeker prima zal kunnen meten met de v5 6000, en die zou toch wel weer wat duurder worden (600$ of meer, maar het kan zijn dat die prijs onder druk van de concurrentie zal dalen)
--slaat op het bericht van Paxlie--

waarom niet? als ze maar verkopen! maakt het ze echt niet uit of het het ene of het andere product is...verder ik denk dat de geforce 2 ultra nu al uitbrengen wel een goede zet is want het heeft ze weinig research gekost en ze komen hiermee lopen ze weer 2 straten voor op 3dfx!
wat een prijzen wat een prijzen, voor 700 piek voor een vidkaart heb je bijna een proc en mobo bij elkaar van topstaat.

ik vind het echt meer normaal, en weet je waarom die prijzen gewoon zo hoog blijven van ze? .. omdat TOCH weer over de 50% van de gamers en snelheidsjurken die kaarten kopen voor zoveel geld.

ik zal eerlijk zijn, als ik geld zat had zou ik ook zo'n kaart halen, maarja.

het lijkt wel zo'n situatie te worden net zoals dat gedoe met benzineprijzen :+


anyways, wat hierboven denk ik dat de reden dat die prijzen gewoon alsmaar hoger worden.

grtz
AHL
Nou, dat ligt er maar aan wat jij onder een top processor verstaat. ;) Voor 700 piek heb ik niet wat ik beschouw tot een topprocessor en een goed moederbord.

Maar ik ben het wel met je eens dat de prijzen van videokaarten wel belachelijk hoog is. En niet alleen die van nVidia. De Voodoo5 5500 is ook zwaar duur, en heeft in mijn ogen minder te bieden dan een Geforce 2 GTS.
Reactie op Sonix666:
De Geforce produceert inderdaad een veel minder scherp beeld (vooral aan tekst op hoge resoluties te zien) dan Matrox kaarten. Echter de Geforce 2 GTS produceert wel een zeer scherp beeld wat dat van Matrox evenaart.
Wat ik aan screenshots gezien heb, in reviews gelezen heb en van gebruikers (o.a. op GOT) gehoord heb geeft de Radeon toch beduidend beter beeld dan een Geforce 2 GTS! Vooral de lighting-effecten van de Radeon zijn stukken beter.
Wanneer voor de Geforce 2 GTS de Detonator 2 drivers gebruikt worden, dan is inderdaad de ATI Radeon op hogere resoluties sneller. Echter de rollen zijn omgedraaid (en niet zo'n klein beetje ook) zodra de Detonator 3 drivers gebruikt worden.
Dit zou best kunnen. Ik heb er eik niet op gelet toen ik een aantal reviews las welke detonators er gebruikt waren. Misschien dat jij een page weet met een mooie vergelijking, waaruit blijkt dat jou redenering klopt? (ps. GeForce 2 GTS 64 MB is WEL sneller in hoge resoluties.....ik had het hier dus specifiek over 32 mb).
ATI heeft in het geval van drivers en optimalisaties een zeer slechte naam. Ook Matrox lukt het niet in tegenstelling tot nVidia om snelle drivers te schrijven. Wat betreft kwaliteit en snelheid van drivers ben je op dit moment het beste af met nVidia.
Ja, ik ken idd de reputatie van ATI. Ik had een maand of 2 geleden ook nog geroepen: ATI? Das zo'n klotemerk......veel te veel op de OEM-markt gericht en dus slechte drivers en redelijke performance (hoewel de 128 MAXX toch errug lekker scoorde in die tijd ;). Tijden veranderen nou eenmaal. Twee jaar geleden riep ik ook nog: AMD? Dat suckt! Nu zit ik hier ook te genieten van een Thunderbird 800, en ik ben nog nooit zo gelukkig met een processor geweest. En qua drivers? Tja, ik hoop dat ATI hier in de toekomst idd sneller mee is. Tuurlijk zullen ze Nvidia niet snel verslaan, want die zijn erg fanatiek daar :) En het schijnt dus echt waar te zijn, dat ATI een soort "Detonator 3-achtige" driver aan het maken is. Ik wacht af :)
Daar heb je helemaal gelijk in. Echter door slechts twee triple texturing pipelines kan de Radeon de Geforce 2 GTS niet aan qua brute kracht in multitexturing spellen, ondanks de zeer interessante HyperZ die relatief gezien veel goed maakt.
Klopt:
GeForce2 GTS = 4 dual texturing pipelines
Radeon = 2 tripple texturing pipelines

Ik geeft toe dat de oplossing van Nvidia meer snelheidswinst oplevert. Maar wat ik in de reviews heb gelezen is dat de methode van de Radeon zeker niet slecht is, en kan in de toekomst nog wel voor verassingen gaat zorgen (de methodes hebben allebei hun voor- en nadelen).
Deze functies zijn inderdaad zeer leuk en best bruikbaar, echter we hebben nu toch onderhand wel door dat het behoorlijk veel langer duurt voordat er fatsoenlijke support voor is dan dat nVidia en ATI altijd beloven. T&L is een voorbeeld wat op zich wel nuttig is maar nog lange niet tot het uiterste benut wordt. Hetzelfde geld voor EMBM van Matrox.

Trouwens, de Geforce 2 GTS ondersteunt net als de Radeon pixel shader wat toch een behoorlijk belangrijke nieuwe feature van DirectX 8 is.
Dat van die Pixel Shader had ik idd over het hoofd gezien, sorry. Toch is er over de features van de Radeon een stuk enthousiaster door de games-industrie gereageerd dan bijvoorbeeld T&L. Een aantal van deze Radeon-functies leveren namelijk beduidend beter beeld op, zonder heel veel moeilijke programmeeraanpassingen. T&L levert snelheidswinst op, maar volgens mij is het een klotewerk om dit te intergreren in een spel. Neem nu skeletal animations....deze worden steeds vaker gebruikt. Een kleine aanpassing en de Radeon kan hier veel beter mee omgaan dan welke ander videokaart dan ook.
Dat is blijkbaar dus niet waar. EMBM is in feite niets anders dan displacement mapping en laat dat nu een van de mogelijke functies van de shaders van de Geforce 2 zijn. Dus theoretisch is het mogelijk, alleen is er misschien nog geen driver support voor indien geen shaders gebruikt worden.
Ja, zoiets had ik ook gelezen. Maar er is dus nog geen officiele support voor. In de toekomst vervalt dit argument dus.
Anisotropic filtering wordt zelfs minstens al vanaf de Geforce ondersteunt. En werkt ook inderdaad. Ik heb zelf een Geforce, dus ik kan het weten.
Radeon ondersteund dacht ik echt Anisotropic filtering, en de GeForce 2 doet dit dacht ik door een aantal truucjes. Hier ben ik niet zeker van.
Dus uiteindelijk bekeken zijn zowel de Radeon en de Geforce 2 GTS mooie kaartjes. De Radeon biedt meer features, terwijl de Geforce 2 GTS meer snelheid en betere drivers biedt. Dus het is gewoon een afweging wat JIJ wilt, toch?
Je hebt hier gelijk in:

- GeForce 2 is snelheid
- Radeon is betere beeldkwaliteit en meer features
Als je kijkt naar de review van de Geforce 2 Ultra op AnandTech dan zul je wel zien waar ik het over heb. Daar staan namelijk zowel de scores van de Geforce 2 (met Detonator 3 drivers) en de Radeon. De Radeon blijkt echter wel ijzer sterk in Unreal Tournament te zijn (waarschijnlijk deels de 64 MB).

Wat betreft anisotropic filtering. Dit is volledig hardwarematig. Op een of andere manier heeft 3dfx proberen mensen te laten geloven dat de FSAA van de Geforce een driver hack is en sindsdien worden zogenaamd wel meer features toegeschreven aan driver hacks.

De waarheid is echter dat zowel FSAA als anisotropic volledig hardwarematig zijn en GEEN driver hacks. Als het een software oplossing zou zijn geweest dan zou ik niet eens op 5 FPS mogen hopen als ik anisotropic filtering aanzet.

Anisotropic is inderdaad best leuk. Vooral in de verte zie je dat bijvoorbeeld de vloer, plafond minder wazig zijn.
De Geforce2 Ultra is meer dan 2x zo snel als de Voodoo5-5500. En de Voodoo5-6000 is theoretisch maximaal 2x zo snel als de 5500. Dus je kunt nu in feite al zeggen dat de GF2 Ultra sneller is dan de V5-6000. Dus voorlopig blijft deze chip wel de snelste, waarschijnlijk totdat nVidia zelf met de NV20 komt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True