Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 60 reacties
Bron: AnandTech

De laatste tijd hebben we veel gehoord over de NV30, de volgende high-end videochip van nVidia. Nadat nVidia een aantal features van de chip bekend maakte, zwermde het ineens van de geruchten over prestaties, geheugenchips en kloksnelheden. Veel tweakers zijn dan ook erg benieuwd geworden naar de chip. AnandTech gelooft echter dat het nog wel een tijdje kan duren voor we NV30 op de markt zullen zien. Het volledig complete en getunede bouwplan van de core werd vorige week naar de fabriek gestuurd, drie maanden achter op schema. In het beste scenario zal het november worden voor de eerste NV30-kaarten in de winkel liggen. Een aankondiging zou natuurlijk eerder plaats kunnen vinden.

Het grote risico voor NV30 is TSMC, de fabriek waarbij de chip gebakken wordt. Toen men begon aan het ontwerp van de 120 miljoen transistors tellende chip ging men er vanuit dat 0,13 micron technologie vandaag de dag al ruim beschikbaar zou zijn. Helaas is niets minder waar. Nog maar 1% van de totale uitvoer van TSMC bestaat uit 0,13 micron chips, en dat komt niet omdat er geen vraag naar is. De yields zijn zeer slecht. Van iedere tien NV30 chips die geproduceerd worden zijn slechts 1 of 2 exemplaren bruikbaar, wat grote gevolgen heeft voor de kosten en de capaciteit. Natuurlijk wordt de NV30 sowieso een prijzige chip, waardoor hoge productiekosten geen onoverkomelijk probleem vormen. Om het programma voor 2003 niet in gevaar te brengen zal nVidia waarschijnlijk gewoon even doorbijten tot de 'spring refresh'. Tot slot wordt nog even het gerucht over de multi-chip NV30 uit de wereld geholpen:

Another, albeit unrelated, myth is this idea of NV30 being a multichip solution like the old 3dfx Voodoo5. Although there's some basis for the rumor, NV30 will be single chip solution just like the R300 as well as every NVIDIA GPU to date. The basis for the multichip NV30 myth comes from the "discovery" that the NV30 contains an AGP bridge that allows more than one chip to be present on a single AGP card. What most don't understand however is that every NVIDIA GPU since the GeForce2 GTS has had this capability, it has simply never been used (nor was there a particular need for it).

Wafers

Dopamine informeerde ons het snelst over dit artikel.

Moderatie-faq Wijzig weergave

Reacties (60)

What most don't understand however is that every NVIDIA GPU since the GeForce2 GTS has had this capability, it has simply never been used (nor was there a particular need for it).


Vaag..... dus het is al tijden mogelijk meedere GPU's aan elkaar te plakken en een "beest" kaart te produceren. Waarom zijn er dan nooit kaarten op de markt verschenen? Daar hadden ze dan toch ook geld mee kunnen verdien of zie ik dat verkeerd ???
Hoogstwaarschijnlijk zullen de productiekosten zodanig hoog zijn, waardoor de kaart bakken met geld gaan kosten, waarvan ze er daardoor te weinig van afzetten. Het is niet rendabel om een fabriek zoveel kaarten uit te laten spugen terwijl ze niet af te zetten zijn.
De nieuwste GF kaarten zijn al aan de vrij prijzige kant, laat staan wat deze kaart dan zou kosten. De vraag zal minimaal zijn.
De vraag zal minimaal zijn.
Persoonlijk denk ik dat die vraag er zeker wel zal zijn, aangezien de Gf4 ti4600 ( vooral als je hem tot een quadro mod ) zeer goed mee kan komen met 3d designerkaarten die veel duurder zijn. Voor deze markt lijkt een quad Ti4600 me een goedkope en snelle oplossing, aangezien sommige pro-kaarten tientallen duizende euro's kosten en dit misschien ook wel voldoet. Het nadeel is echter dat er waarschijnlijk te weinig vraag is om de ontwikkelkosten eruit te krijgen en de oplage misschien wat beperkt is om een eigen productie-oplage te vervaardigen.
Desalniettemin vind ik dat Nvidia hiermee een kans laat liggen om door te dringen in de echte high-end markt voor grafische chips, want als een bedrijf daar eenmaal een goede naam heeft mag het hoge prijzen vragen voor zijn producten
Uiteindelijk zal Nvidia er waarschijnlijk wel winst opmaken nadat het via prijspenetratiepolitiek de muffe markt is doorgedrongen van bedrijven die te veel betalen voor hun Gpu's ;)
Wat veel mensen niet weten (zelfs Anand weet het niet) is dat er Nvidia kaarten met meerdere GPU's op een bord zijn, maar deze werken niet in SLI-modus. Een voorbeeld van een zo'n kaart is de Quadro 4 NVS 400.
Het is niet alleen de prijs waarvoor ik bang ben (die ligt meestal toch errug hoog !) bij de introductie van nieuwe Nvidia produkten
Maar ik ben ook benieuwd of er door deze produktiemoeilijkheden ook andere verassingen staan te wachten ?
Ik denk dat ze het Ti4600 gebeuren meer hadden moeten uitmelken , mede doordat Ati hier geen antwoord op had
Dus maak de Ti4600 goedkoper , en laat hem concurreren met de nieuwe ATI s !
Dus maak de Ti4600 goedkoper , en laat hem concurreren met de nieuwe ATI s !

Wat denk je dat ATI zal doen dan ??? Die verlagen natuurlijk ook hun prijzen. Hierdoor krijg je het effect van uithongeren. De sterkste zal overwinnen. Dus daar heb je weinig aan uiteindelijk, voor ons is het natuurlijk leuk :) (voor eventjes)
bovendien is de R400 als sinds december 2001 in ontwikkeling. wat dat voor kaart gaat worden weet ik niet (dx10 ?) maar ik denk dat als ze hem snel uitbrengen nvidia in serieuze problemen kan komen (vor zover ik weet werken ze daar nog niet aan een nv35/nv40).
nVidia heeft 2 onafhankelijke ontwikkelingsteams, dat 2e team zit heus niet niks te doen hoor, de NV35 zal wel al een tijdje in ontwikkeling zijn
NV35 is gewoon een minor upgrade van de NV30 core, daar werkt hetzelfde team aan. Het andere team is allang aan NV40 bezig.
de hele gf4 serie is eigenlijk al een uitmelkerij van de gf3 serie (gf4 = dx8.1, gf3=dx8.0). die nieuwe ati's zijn veel sneller dan de 4600 en hebben nog eens dx9 ondersteuning. dan moet je dus wel wat meer dan de snelheid aan de gf4 veranderen. daarom komen ze ook met een nieuwe kaart, hoewel ik denk dat die zet weleens de ondergang zou kunnen zijn. de specs zijn iig veel te hoog gegrepen (net zoals 3dfx op het laatst deed) en de prijzen zijn weer hoog. nee, als ze slim waren geweest hadden ze een kaart met ongeveer dezelfde specs als ati gemaakt. vernieuwend, maar niet meteen een animation-studio-a-la-pixar-on-a-chip (want dat is wat die nv30 zo'n beetje moet worden).
Ik houd het toch maar op de radeon 9700 of 9500.
Deze nVidachipset zal wel weer erg duuir gaan zijn bij de release, in tegenstelling tot de kaarten van ATI

ook omdat, zoals in het artikel al word vermeld, de productiekosten lekker hoog zijn.

ook het achterlopen op schema is weer echt zoiets voor nVida. Wel moet ik ze meegeven dat ze altijd technisch hoogwaardige producten afleveren, die een tijdje meekunnen
jammer nu kan die nv30 eerst geen prijs-druk uitoefenen
op de ati kaarten en de langzamere geforces.
Wat er weer voor zorgt dat Ati de nodige opbrengsten binnen krijgt zodat ze kunnen overleven en weer meer kunnen investeren in toekomstige technologien.
In de economie zijn er bij bijna elke tegenslag wel een aantal positieve punten. :)
ik hou ook liever voor de radeon 9700 pro want nv30 duurt te lang dan is al een andere kaart uit zoals r350 r400 maar 9700 komt wel met benshmark 19000 score want met beta test zonder 8 keer agp en de exemplaar was nog niet voledig kwam die op 1600 maar die was lager geklockt 315 bij 300 en geen direckt x 9.0
maar nou komt de pro met 325 core mem 325 ;)
maar ook direckt x 9.0 dan zou die wel hoger scoren :z
ik hou ook liever voor de radeon 9700 pro want nv30 duurt te lang dan is al een andere kaart uit zoals r350 r400 maar 9700 komt wel met benshmark 19000 score want met beta test zonder 8 keer agp en de exemplaar was nog niet voledig kwam die op 1600 maar die was lager geklockt 315 bij 300 en geen direckt x 9.0
jij duidelijk verhaal opschrijven ikke nie snap nie...

De R350 die ook op .13 micron geproduceerd gaat worden komt zeker niet eerder dan de NV30. Als nu alles goed gaat lopen gaan de eerste boards met de NV30 in november geproduceerd worden.. De R350 komt pas op zijn vroegst ergens in Q12003..
Reken er maar op dat de NV30 ongeveer zo snel is als de R350.. Dus ATi heeft nu even de speedcrown, maar echt spannend wordt de NV30 vs R350..
Geblaat van DENIZ
Uuhm, ik zie dat je een blaataap bent (tja, karma -27) en ik neem aan dat je dat niet fijn vind. Daarom geef ik je de volgende tip: Type met leestekens :) Dan ziet het geheel er opeens véél beter uit :)
radeon 9700 word de ouwe prijzen van radeon 8500
want daarom is die ook zo goedkoop geworden
radeon 8500 :)
HEt begint er aardig naar uit te zien dat Ati in deze een heel erg verstandige stap hebben genomen om een zeer goede maar niet extreem uitgebreide videokaart te maken... De Radeon 9700 is in alles een prima dx 9 kaart die alles kan wat het moet en wat waarschijnlijk meer dan genoeg is voor de komende 1 a 2 jaar als topkaart.

Als nVidia niet in staat zal zijn om de nv30 in grote productie te nemen, wordt het een heel erg dure videokaart met heel veel extra's die je over een jaar of 4 misschien wel eens van pas kunnen komen...

Ik denk dat nVidia zijn hand eens heeft overspeelt zoals 3dfx dat ooit ook eens deed.


"Edit" sorry voor die domme fout van de E... bedankt voor het opletten "edit"
Over een jaar of 4?!
Over 4 jaar heb je die NV30 al lang weer aan de muur hangen als "een stuk achterhaalde technologie die 2 jaar daarvoor al niet echt bruikbaar meer was".

Tegenwoordig gaat een kaart echt niet langer dan 1 tot anderhalf jaar mee (hij doet het natuurlijk wel langer, maar is dan al lang ingehaald door nieuwe modellen)
ondertussen zijn er nog steeds erg weinig dx8 spellen, hoewel de gf3 al 2 jaar (of langer, weet niet precies) uit is. en die nv30 heeft dingen onboard die spelmakers niet zullen gebruiken tot iedereen zon kaart heeft. maw, deze kaart heeft techniek aan boord wat niemand de komende 4/5 jaar zal gebruiken dus het is er zonde.
Ik heb ff in de tweakers database gesnuffeld, de GF3 kwam voor et eerst op de markt in februari 2001. Das dus 1 1/2 jaar geleden :) je zat er dus redelijk dicht bij met ruim 2 jaar ;)

Maar ik denk dat de NV30 een mislukking gaat worden. Net als de GF3. Er zit gewoon te weinig tijd tussen de snelste kaarten van nu en de NV30. Dat zal net gaan als met de GF2 en GF3. De GF2 Ultra was al behoorlijk snel voor die tijd, GF3 was eigelijk niet echt nodig in de games en gaf ook eigelijk weinig extra behalve meer snelheid. Dat zal denk ik ook zo worden met NV30. De écht GF4's van nu zijn naar verhouding behoorlijk wat beter dan de GF3 en ook al redelijk betaalbaar. De NV30 daarentegen zal ondanks dat ie behoorlijk wat sneller zal zijn, niet danig veel nieuws op de markt brengen waardoor de GF4 kopers (zoals ik) over zullen stappen.

wel grappig om op te merken is dat er 2 verschillende 'koop lijnen' zijn onder videokaartkopers. Tenminste dat is wat ik om me heen zie in vriendenkring.

1) TNT2 ultra - GF2(std) - GF3 - (NV30?)
2) TNT2 - GF - GF2(pro/ultra) - GF4 - (NV35?)

De eerste groep die heeft altijd het nieuwste van het nieuwste alleen heeft niet (altijd) genoeg geld om iedere nieuwe kaart te kopen. Kopen vaak het eerste model uit een serie, vooral de GF2std en de GF3std.

De tweede groep heeft niet altijd het nieuwste, maar wel vaak de beste koop qua prijs/snelheid.

Ik heb nu een GF4 en ik denk dat ik wacht op het model wat ná de NV30 komt. Daar zullen naar mijn verwachting wel een boel technieken inzitten (Hyperthreading voor GPU?, quadpumped DDR?)
Om even bij Breepee aan te sluiten:
http://www.theinquirer.net/?article=4950

Voor de meeste bestseller games heb je helemaal geen 3d kaart nodig....
daarom zeg ik ook SiliconError je kan betr r 9700 halen want de nv30 komt laat uit eind van deze jaar dan is weer andere kaarten uit zoals r350 en r400 :)
daarom zeg ik ook SiliconError je kan betr r 9700 halen want de nv30 komt laat uit eind van deze jaar dan is weer andere kaarten uit zoals r350 en r400 :)
Ik zal ook niet meer zo zeuren :z
Ik heb het ondertussen wel afgeleerd om telkens de nieuwste videokaart aan te schaffen. Het is een leuke hobby maar zo erg duur. Soms moet je verplicht je hele systeem upgraden wil je het effect van je nieuwe videokaart echt meemaken en dat maakt het nog veel duurder.

Achteraf gezien kan je gerust 3 of 4 generaties overslaan. De GeForce 256 DDR is nu nog voor alle spellen prima bruikbaar. En mijn ATi Radeon 64 ViVo is ook nergens te traag voor. Upgraden doe ik pas wanneer er een echte breakthrough plaats vindt. Dan doel ik op een natuurgetrouwe renderengine in de VPU of GPU of hoe ze hun IC's gaan noemen.

Tot die tijd heb ik al met de Radeon 64 een strak 2D beeld en 3D? daar doe ik tegenwoordig zo weinig mee...
Je moet ook niet telkens de duurste kopen maar degene daar net onder. En je hoeft niks :P

Maar je hebt wel gelijk dat het vaak een impuls om de rest ook even te upgraden en dat resulteert in hoge kosten. Maar ik moet wel toegeven dat het erg leuk is om telkens weer wat niews te kopen...... blijft een hobby.

Deze kaart beloofd een hoop, maar eerst zien dan geloven.......zelfde geldt voor de 9700 ik heb nog geen enkele goed review gezien. Terwijl ik hem al een paar weken verwacht. :(
Achteraf gezien kan je gerust 3 of 4 generaties overslaan. De GeForce 256 DDR is nu nog voor alle spellen prima bruikbaar
Vind ik niet. Ik speel regelmatig "Operation Flashpoint" op mijn GF3-TI200 (overclocked tot TI500), maar het hapert af en toe best wel. Ik heb dan ook de beeldkwaliteit in de configuratie flink terug geschroefd ten gunste van de snelheid.

Upgraden doe ik voorlopig niet. Ik heb dat ding nog maar nauwelijks een half jaar. En als ik weer ga upgraden, dan sla ik denk ik de GF4 serie over, en hoop dat deze nieuwe chip dan op de markt is voor een redelijke prijs.
net alsof dat betekent dat de hardware de limiterende factor is
nee dus
in het geval van operation flashpoint is het de engine, en dat is zovaak zo
Ik ben nog steeds een tevreden gebruiker van matrox marvel g450etv. Ok spelletjes moet ik op lagere resolutie draaien en lagere kwaliteit, maar alsof ik meer dan 1 keer per twee weken een spelletje doe? NOT Voor alle andere zaken draait m'n matrox kaartje perfect mee met een nog steeds ongeevenaarde dualhead.

Ik en vele anderen kunnen het echt niet opbrengen om 500 euro voor een grafische kaart te betalen. De wedstrijd om de snelste kaart is dan ook niet zozeer voor de verkoop, maar puur een marketingtechnisch oogpunt en continuiteit op langer termijn. Dan is 3 maanden vertraging nog geen echte ramp aangezien nvidia bij het gros van de mensen nog steeds bekend staat onder de naam GEFORCE en dat is nog steeds hetgene wat telt.

Als mensen maar Geforce en Intel p4 inside met vele Ghz-en op hun computer hebben staan en 48x24x50x rewriter of zelfs dvdrewriter stikkertje op de drankjeshouder dan zijn ze tevreden!
"Van iedere tien NV30 chips die geproduceerd worden zijn slechts 1 of 2 exemplaren bruikbaar"
Zijn die dan helemaal niet te gebruiken, of voldoen ze niet aan de nv30 specificatie....ik bedoel net zoiets als Intel doet met hun chippies....alles van dezelfde lijn, maar na het testen de een toch hoger specificeren??
Anders zou je die afvallige chips toch in low-end kaartjes kunnen plaatsem ? :)
Wat ik me dan ook nog afvraag, die 8 of 9 chips van de 10 die afvallen, kunnen ze die niet recyclen, en dan wel goeie van maken? of verkopen ze de helft als low-end en smijten ze een gedeelte gewoon in de prullenbak?
Ik ben zo bang voor de prijs van dat ding als die uitkomt.
NVIDIA en TSMC moeten nog een hoop aan dat productie proces tweaken willen ze een beetje betaalbare NV30 transistorberg.

Offtopic:

Lijkt me wel een :9~megakwijl :9~ GPU

Ik ben niet Pro ATI of Pro Nvidia maar ik vind wel dat ATI op dit moment een behoorlijk slag en stoot uitdeelt aan Nvidia. Aangezien de Yields van Nvidia dermate belabbert zijn dat er van een test exemplaar productieproces nauwelijks nog sprake is.
en dat de "vergelijkbare" R300 al zo goed als in de schappen ligt.
NVIDIA en TSMC moeten nog een hoop aan dat productie proces tweaken willen ze een beetje betaalbare NV30 transistorberg.
TSMC moet aan het productie proces sleutelen, NVIDIA aan het design. Beide om de yield te verbeteren.

In een vroeg stadium is een yield van 10 a 20% helemaal niet zo slecht; er zijn overigens zat producten op de markt waar ze blij zouden zijn met zo'n yield, alhoewel ik het nu niet over doorsnee chips heb.

Verder is een opmerking als
Nog maar 1% van de totale uitvoer van TSMC bestaat uit 0,13 micron chips, en dat komt niet omdat er geen vraag naar is.
uitermate onduidelijk (om niet te zeggen misleidend), omdat het best zou kunnen dat TSMC bv nog heel veel produceert op oudere of andere technologieen, waardoor zelfs met een zeer goede yield de totale uitvoer op 0.13um niet een groot percentage zou zijn.
Het wil pas wat zeggen als je de uitvoer vergelijkt met die in 0.18um, digitale cutting edge ontwerpen (zoals cpu's etc).
Wat overigens niet wegneemt dat die 1% wel te denken geeft; ik probeer het alleen in een logisch verband te plaatsen wat eigenlijk niet gaat door gebrek aan informatie... ;)
maar de r 9700 die heeft 16 keer anistrop en 6 keer antilising loopt heel goed maar nvidia heeft probleemen met anistrop want de kaart gaat heel laag scoren als je anistrop aan doet bij sommige zware spelle loop die sloom net als geforce 3 ti 500
die had 8 keer anistrop als je die aan deed bij zware spelle gaat frames lager maar radeon 8500 niet maar ze hebben ook 16 keer anistropmaar hij oop niet sloom maar de nvidia ti 4600 die heeft nogsteeds 8 x anistrop waarom geen 16 keer :7
en antilising 5 half keer bij open gl en direct x 6 keer
bij de abit siluro ti 4600
maar ik ga liever voor r9700 want ik heb r8500
ik had vershil gezien met veel fiuture
heeft aTI en ze gaan doom 3 de bij doen in het packet als je de r9700 koopt kijk maar
http://www.quakecon.org/ATIoffer.html
De anisotropic van ati kaarten is niet full scene, alle andere chips (gf 3/4 series, Matrox Parhelia) passen aniso toe op alle textures, bij ati kaarten wordt dit alleen gedaan op de bijna volledig horizontale vlakken, al de rest wordt gerenderd op bilinear niveau zonder aniso, dus;
gf4= trilinear+anisotropic full scene
radeon=bilinear+anisotropic op ongeveer 5-max10% van het beeld
Bij ati is anisotropic idd supersnel, maar je hebt een mindere beeldkwaliteit, toegegeven moet je goed kijken om de verschillen te zien, maar ze zijn er zeker.
Dat aniso alleen werkt met bilinear op de radeon was een bug die gefixed is met de komst van de r9700, dus de performance hit zal al hoger zijn als bij de r8500 aangezien er dubbele fillrate nodig is voor trilinear tov bilinear.
Ati cheat dus met aniso, en nee het is niet nVidia die het fout doet want Matrox gebruikt dezelfde manier van renderen.
Jij noemt het cheaten, ik noem het je gezonde verstand gebruiken en slimme afwegingen maken. Als je AF te veel performance kost kan je het niet gebruiken. ATI heeft nu een AF methode die bijna niets kost zonder dat je iets aan het beeld opvalt. En bovendien kan je nu ook nog eens een hogere AF effectief gebruiken dan bij NVidia. Uiteindelijk is daardoor de algehele beeldkwaliteit juist BETER. En dat is toch waar het om gaat.

Ik denk dat veel Nvidia fans ook graag die AF methode van ATI als mogelijkheid zouden willen hebben.
ATI heeft nu een AF methode die bijna niets kost zonder dat je iets aan het beeld opvalt
hehe idd.. dat is nou net De Ruyck's punt :) bij Ati lijkt het dan wel alsof de kaart veel sneller is met AF, maar feitelijk filteren ze maar zo weinig op het beeld dat het wel logisch is dat het sneller gaat. Als nVidia hetzelfde zou doen dan zou je waarschijnlijk opvallen dat er bij hun kaarten helemaal geen performance verlies meer zou opleveren ;)
Punten en komma's willen nog wel eens helpen.
Hoofdletters ook.

En als je 8x anistrop aanzet gaan de spellen ook op jouw radeon 8500 langzamer dan wanneer het uitstaat.
Opvallend toch al die NV30 previews, terwijl de R9700 veel meer aan de orde is, in feite gokken ze allemaal maar wat.

IK verwacht elk moment juist een golf aan ATIR9700 reviews, zodra QuakeCon begint, er worden daar namelijk aan de 1e mazzelpikken R9700 verkocht, wie gaat er mee naar Schipohol ;)
Ik denk dat de PR afdeling van Nvidia het rustig heeft. Ze hoeven niks te doen want sites als Anandtech en Tweakers doen al hun werk al voor ze.

Moeten we nou elke keer als een site het bekende scala aan geruchten weer eens opsomt het als nieuws zien???
Opvallend toch al die NV30 previews, terwijl de R9700 veel meer aan de orde is, in feite gokken ze allemaal maar wat.
Dat er meer NV30 previews zijn, is juist helemaal niet onlogisch. nVidia is namelijk marktleider en marktleiders staan gebruikelijk meer in de belangstelling dan hun concurrenten.
ATI kaarten worden ook niet zo warm als nvidia kaarten dus ook beter clock baar want ik heb zelf radeon 8500 maar wat me opvalt is nvidia kaarte hebbe maar 8 keer anistrop filtering en ati 16 keer
:7
Het valt mij op dat de underdog Ati goed bezig is :)
Het lijkt erop dat Ati nu de producent wordt met de beste kaarten in handen.

Het zou mooi zijn voor ons Tweakers, daar NVidia nog zat reserves heeft om nog lang door te gaan met tegenslagen. Verder heeft nvidia al weer een deal gesloten met AMD, die met de introductie van de 2400+ en de 2600+ Athlons de nforce2 aan gaan prijzen.

Het is een leuke en vooral goede marktbeweging, dat Ati nu weer eens de Snelste kaart in handen heeft }>

* 786562 jkuilman
Zelfs Dr. Evil stapt over op Ati:
Foto
:D

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True