Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 64 reacties
Bron: iXBT Labs

Volgens iXBT Labs krijgt de opvolger van de NV15 / GeForce2 een pixel fillrate van 4800Mpix/s. Dit getalletje is een combinatie van de kloksnelheid (300MHz), het aantal pipelines (4) en de hoeveelheid overhead die bespaard wordt door Hidden Surface Removal (besparing faktor ~4). HSR zorgt ervoor dat alleen de dichtsbijzijnde pixel op de z-as wordt gerenderd. Over de officiële naam van de NV20 schrijft iXBT dat nVidia waarschijnlijk blijft doorbouwen op de inmiddels goed ingeburgerde GeForce-merknaam:

NV20 announcement is very likely to take place during Comdex/Fall, which will be arranged in mid November this year. That’s why the first graphics cards should supposedly start selling in January-February already.

As far as the official name of the upcoming NV20 is concerned, we hear that NVIDIA allegedly decided to retain a well-known GeForce brand for its next offspring and to call it GeForce III. And now a few words about 4800Mpixels/sec fillrate. Most of you were pretty skeptical about this number, however, we got more info proving that it is absolutely correct. NV20 will support 300MHz working frequency and will process 4 pixels per clock, so that the fillrate will make 1200Mpixels per second. However, NV20 will feature HSR (Hidden Surface Removal) technology, which implies that the invisible surfaces won’t be textured at all and each pixel will be drawn just once. As a result, if we suppose that the average overdraw coefficient equals 4, we will get 4800Mpixels/sec. As for the T&L unit, its performance is expected to be twice the performance of this unit in GeForce2 GTS.

Moderatie-faq Wijzig weergave

Reacties (64)

En die specs , zoals Dave van Beyond 3D zei :zijn gewoon weer een PR-truck van Nvidia .4800 Mpixels/s laat me niet lachen , hij gaat (op papier,is Nvidia ook goed in) 1200 Mpixels/s renderen , maar omdat hij hidden surfaces removal heeft gaat hij dus effectief draaien op een renderingspeed van een vid card die 4800 Mpixels zou kunnen doen.Ik geloof er geen snars van , hij zal hoogstend in de buurt van effectief 2000 Mpixels komen omdat die factor gewoon nooit 4 is, totale onzin , echt waar.Wordt echt ziek van die PR-technieken van Nvidia en IXTB_labs is een aardige propagandamachine van Nvidia.Kortom in de buurt van 2 Gpixels/s is ook gewoon fet veel en veel realistischer, maar ja bij Nvidia zijn ze gek op papieren spec , en zoals de meeste experts al zeggen:paper specs mean nothing.
Kijk bij de Gf2 en hoe daar wordt geadverteerd : 800 Mpixels per seconde zet dit tegenover de ATI-Radeon(Retail 64 MB) : 367 Mpixels/s , is minder dan de helft , toch in 32 bit is er een miniem verschil tussen de Gf2 en Radeon.
les:

Er is echt wel verschil tussen wat paper specs en echte specs , bijv Gf2 kan dus niet 800 Mpixels/s , maar door de snelheid van het geheugen gewoon "maar" 4x166=664 Mixels per seconde(en als je nog uitleg nodig hebt over deze formule laat het me ff weten) , Met de GF2 Ultra wordt er beweerd 1 Gpixels/s , fout , is 4x230=920 Mpixels/s.De enige kaart die die Gpixels/s-barriere gaat doorbreken is de v5 6000(en die gaat snel worden geloof mij !)
Marketing en PR sucks en alle review- en newssites die hierin meegaan ook.
Er is echt wel verschil tussen wat paper specs en echte specs , bijv Gf2 kan dus niet 800 Mpixels/s , maar door de snelheid van het geheugen gewoon "maar" 4x166=664 Mixels per seconde(en als je nog uitleg nodig hebt over deze formule laat het me ff weten) , Met de GF2 Ultra wordt er beweerd 1 Gpixels/s , fout , is 4x230=920 Mpixels/s.De enige kaart die die Gpixels/s-barriere gaat doorbreken is de v5 6000(en die gaat snel worden geloof mij !)
Naast andere krasse uitspraken zonder enige onderbouwing met feiten doe je ook bovenstaande fantasieberekening. Weet je waar die op lijkt? op de berekening van Bitboys Oy over de snelheid van de GeForce. Toch klopte ook die berekening niet, om de doodeenvoudige reden dat er technieken worden gebruikt die niet elke keer een read/write van/naar memory nodig hebben.

even een rekensommetje voor jou: 800MPixels/s is bij 1024x768 dus 1063 frames per seconde, wanneer elke pixel 1 keer gezet wordt (overdraw factor =1, single pass). Bij een aantal renderpasses van 30, de geschatte maximale hoeveelheid voor de DOOM3 engine (zie J. Carmacks /. postings van gister) geeft dit dus een overdraw van max 30 en een framerate van 35fps.

800mpixels / s is dus meer dan genoeg, wanneer je overdraw kunt vermijden. Dit lukt in hedendaagse 3D api's niet echt. ZBuffer technieken zijn leuk, maar vreten wel memory bandbreedte. Wat je eigenlijk zou willen is hardwarematig frustum clipping, hardware matige hidden surface removal en partial hidden surface removal. Alleen dan haal je een overdraw factor van 1 (zoals bv Quake1 software renderer heeft nulkommanix overdraw), en dus die framerate. Elke andere overdraw zorgt voor vertraging, en dus niet de theoretische nummers.

Overigens is het wel zo dat de nummers die genoemd worden gelden bij een situatie waar GEEN blending optreedt, en wellicht ook geen texelunit combining.

Je mag roepen wat je wilt, maar doe dat dan gelieve wel onderbouwt. In wezen is jouw posting niet meer dan een troll.
Maar zoals altijd alles in de computerwereld, moet je een combinatie tussen allerlei factoren vinden.

En echt alle polygonen te pre-processen om absoluut geen overdraw te hebben is het ene uiterste. En dat performt uiteindelijk ook slechter dan een goede combinatie zoals ATI met de Radeon doet.
SoF

Ik trek je formules niet in twijfel, daar is vast goed over nagedacht, alleen ben je misschien een beetje verkeerd geďnformeerd over de echte specs van de GF2 en de GF2Ultra.

Deze kaarten zijn wel degelijk bloedsnel. Zeker met de nieuwe Detonator3 drivers van Nvidia. De GF1DDR is zelfs sneller dan de V5/5500!!
At 32-bit color the lead of GeForce 2 Ultra is even more obvious and the new Detonator 3 drivers make sure that GeForce 2 GTS stays untouched by Radeon as well. GeForce256 DDR can even leave Voodoo5 5500 behind due to the new driver.
Dit is allemaal te vinden op : www.tomshardware.com/graphic/00q3/000814/geforce2ultra-07.html

In de conclusie staat zelfs dat de Ultra sneller zou zijn dan de hopeloos vertraagde 6000 van 3Dfx, bovendien is de Ultra ongeveer 250 piek "goedkoper" (voor zover je dat mag zeggen dan!!)

De nieuwe NV20 gaat dus van dezelfde technieken gebruik maken die de Radeon zo snel hebben gemaakt in de hoge resoluties. Dit gecombineerd met een onmogelijk snelle GPU, zal ongetwijfeld resulteren in een kaart die wel degelijk in het echt (bij spellen) de 1200 Mpix/sec moet overschreiden!!

even in het achterhoofd...de bandbreedte van het geheugen op 500 Mhz op een GF2 Ultra is ongeveer 10GB/sec!!
Allemaal marketing truuks hoor..

Want theorie en praktijk zijn 2 verschillende dingen. !!!! het hangt ook van je totale systeem en chipset af dus.......

bijv. volgens intel zou internet sneller gaan met de PIII nou euh... wat is dat voor onzin ??? hehehe, en alle bedrijven gaan natuurlijk van de theorie uit.

Trouwens weet iemand hoeveel geheugen dat ding gaat krijgen ? 128MB ??? of 64 ?? met 3,5ns 800Mhz DDR ? AGP 8x ??

help me please.... I'm not that bad, am I ?
I just love Humor.. lachen is gezond het houd je spieren lekker flexible
Ik ga ff kwooten uit een reaktie van Kristof Beets op deze gegevens:
Probleem is dat een hele hoop mensen die hype gaan geloven, in theory kunnen ze
die nummers mischien claimen maar net zoals PS2 zullen heel wat mensen teleurgesteld
zijn als ze het echte product krijgen.

Als het PR nummers zijn kan ik er nog min of meer inkomen. Dan komt die 4800 een heel stuk naar beneden
dankzij de Occlusion Detection (die niet 4x efficient is tenzij je oneindig veel dingen kunt skippen) en die
150Mpps komen ook naar beneden als je het licht aandoet (zoals voor XBOX in de Abrash text,
1 light source en je zit op de helft, meerdere en je gaat nog meer naar beneden).
[...]
Hoeveel van dat NV20 gedoe is Hype en Overoptimisme ? Ik bedoel effe nadenken : "De NV20 kan 150 miljoen polygonen op je scherm poepen en de fillrate bedraagt 4800 Megapixels per seconde" 4800 Megapixels, ja laten we meteen MegaPixels claimen, om 4800 Mpixels uit te schrijven in 16bit heb je zo effe9.6Gbytes/sec bandbreedte nodig, zijn we nog niet eens aan het renderen of Z-Buffer data aan het schrijven, gelovenwe dus meteen. Tenzij NVIDIA natuurlijk afkomt met 4x omwille van de Occlusie Detectie in welk geval de echteperformance dus rond de 1.2Gigapixels ligt als we geluk hebben. 150 Miljoen polygonen... vertices komen aan 40 bytes het stuk... 6Gbytes ?
Ook hij is dus heel erg scpetisch, toch moeten we er rekening mee houden dat het hier gaat om dingen op paprier en dat het dus in de realiteit allemaal niet behaald zal worden. De geheugenbandbreedte blijft nu eenmaal een enorme bottleneck en dat zal ze voorlopig nog wel blijven. Tenzij nVidia in de GPU zelf geheugen gaat implementeren zal ze afhankelijk blijven van de kwaliteit en snelheid van producten van derden.

Het is dus zo dat als deze getallen kloppen (en er is wel reden om te geloven dat dat zo is onderhand) dat men deze in de realtiteit lang niet zal behalen, dus wees niet te optimistisch! (Mijn devies).
We gaan even uit van een spel wat multitexturing doet (dus twee textures per polygon), want er is momenteel geen modern spel wat dat niet doet.

De Geforce2 heeft 4 multitexturing pipelines en draait op 200 MHz. Dus de chip zelf kan 200 MHz * 4 = 800 MPixels/s halen. Echter het geheugen kan niet de benodigde bandbreedte leveren.

De Radeon heeft 2 triple texturing pipelines. Echter de meeste spellen maken geen gebruik van 3 textures per polygon, dus op dit moment is de Radeon effectief een chip met 2 multitexturing pipelines met een core die op 183 MHz draait. Dat betekent dus dat de Radeon 183 MHz * 2 = 366 MPixels/s kan produceren.

En wat betreft je berekening met de geheugensnelheid slaat nergens op. Van mij hoef je niet eens proberen die formule uit te leggen. Misschien nog leuk om om te lachen.

Je weet namelijk niet wat het gemiddelde geheugengebruik is per geproduceerde pixel. Dit is namelijk afhankelijk van een aantal factoren:

- In welke volgorde een applicatie zijn polygonen aanbied.
- Interne caching van een chip.
- Mipmapping level of detail.
Zo, dat is gezegd !!!! ;)
nou eh, als alle videokaarten en processoren en aparte naam gaan krijgen, dan wordt het een zooitje!

als iemand nou zegt van:" heb je het al gehoord over de Gforce3???" dan kan ik tenminste voor me halen over welke videokaart het gaat!

Het is minder verwarrend zo, dus ik vind het best dat ze gewoon Gforce3 willen gebruiken!

de consument onthoud veel beter zo'n naam...

en het boeit me nix wat voor naam Hardware heeft, het gaat mij om de prestaties!
Hmmm....

Dat ding gaat een Core van 300 Mhz krijgen, en wat voor (belachelijk duur) geheugen komt hier dan op ? 250 Mhz DDR ? (dus effectief 500)

Ik wil geloof ik niet eens de introductieprijs voor deze kaart weten. Zal wel rond de 700$ gaan liggen... :(

Trouwens, dat gedoe met die namen is heel logisch, dat doet iedere fabrikant. Ze bedenken een product, geven dat een naam, en die gaat dan een hele tijd mee, puur voor de naamsbekendheid en de mate van vertrouwen in die naam van de consument...

Voorbeelden :

Intel : Pentium, 2,3,4....
AMD : K6,2 ,3
Opel : Kadett is gebouwd van ergens in de 60'er jaren tot eind 80'er jaren, en het model is echt niet al die jaren gelijk gebleven, idem de VW Golf.
3dfx : VooDoo ,2,3,4,5
Enz....
Cheeseman :

De GF DDR is zelfs sneller dan de V5 5500.

Ja , in 3dmark 2000 , daar is elke Geforcekaart sneller, omdat je gebruik kan maken van de HW T&L optie.Ik zeg niet dat de v5 5500 sneller is dan de Gf2 , ik heb zelf ook een Gf2 en die echt bloedjesnel.Een vriend van mij haalt nu in Q3 1024x768 23 bit alles max ook 75,2 fps(de nieuste drivers die net uit zijn) in timedemo 1 , klopt de GF2 is nog steeds sneller , ik haal met een bijn ahetzelfde systeem,maar dan met Gf2 94,5 fps.Maar 75,2 fps op die settings haal je echt niet met een DDR!Ik kan mij nog herrineren dat Riva 3d een 3dmark 2000 test deed met CPU T&L en daar was het verschil slechts 200 punten(riva 3d op zijn donder gehad!!)

De Gf2 Ultra zal waarschijnlijk sneller zijn dan de v5 6000 op lagere res en in 16 bit , maar zodra je op hogere res gaat spelen is de V5 6000 echt wel sneller hoor!
Hoe verklaar je dit: een kaart die 1,3-1,4 Mpixels/s kan renderen(niet in theorie maar echt) met een bandbreedte van 10,6 Gb/s zal langzamer zijn dan een kaart die in werkelijkheid 920 Mpixels/s zal kunnen renderen en een bandbreedte heeft van +- 7,3 Gb/s !, nou dan weet ik wel welke kaart in hoge res met/zonder Fsaa sneller zal zijn hoor !
En laten we eerlijk zijn :met een Gf2 Ultra ga je echt niet op lagere res spelen op 16 bit.
Voor mensen die een cpu hebben die sneller is als 850 Mhz is een V5 6000 gewoon sneller en laten we eerlijk zijn :mensen die een v5 6000 of een Gf2 Ultra gaan kopen zijn echt niet mensen met een celeron of een AMD K-6.
Ik durf te zweren dat de v5 6000 op 1600x1200 32 bit zelfs de GF2 Ultra gaat verslaan , want daarvoor heb je echt bandbreedte nodig !!!!(zelfs als de GF2 Ultra gebruik maakt van HW-T&L en de v5 6000 van cpu T&L.
De Gf2 Ultra zal waarschijnlijk sneller zijn dan de v5 6000 op lagere res en in 16 bit , maar zodra je op hogere res gaat spelen is de V5 6000 echt wel sneller hoor!
Hoe verklaar je dit: een kaart die 1,3-1,4 Mpixels/s kan renderen(niet in theorie maar echt) met een bandbreedte van 10,6 Gb/s zal langzamer zijn dan een kaart die in werkelijkheid 920 Mpixels/s zal kunnen renderen en een bandbreedte heeft van +- 7,3 Gb/s !, nou dan weet ik wel welke kaart in hoge res met/zonder Fsaa sneller zal zijn hoor !
10,6GB per sec versus 7,3GB per sec lijkt een duidelijke zaak. Als je alleen naar de bandbreedte kijkt (en dat is tegenwoordig de belangrijkste factor) dan ziet het er zo uit dat de voodoo5 6000 ruimschoots de snelste zal worden....

Maar: Jammer genoeg wordt er bij 3dfx niet zo super effecient met de bandbreete omgesprongen, alle textures moeten gedupliceerd worden, en daarnaast zit er een bottleneck bij de framebuffer bij de voodoo5 6000 (en hoe hoger de res. hoe groter het probleem). De framebuffer wordt bij de voodoo5 5500/6000 niet dubbel opgeslagen en daarom is de bandbreedte richting de framebuffer ook een stuk lager. En zoals sharky laatst nog uitwees heeft dat zekers een negatieve impact op de performance.

Tel hierbij op dat de GeForce2 Ultra meer dan dubbel zo snel is als een Voodoo5 5500 en het gaat je al heel waarschijnlijk in de oren klinken dat de GeForce2 Ultra sneller zal worden dan de Voodoo5 6000.

(Dit ook door andere factoren zoals volide agp ondersteuning, hogere fillrate etc.)
sorry,

maar je moet toch echt het artiekeltje bij Tom lezen....de testen waren niet met 3Dmark2000...maar gewoon bij Q3...daar stond dat qua design de 6000 ongeveer bijna 2x sneller zou zijn dan de 5500. Uit de benches bleek dat de GF2 Ultra een dikke 2x sneller is dan de 5500 (55,5 vs 24.3fps)...conclusie van Tom...Ultra sneller dan 6000!!

Let wel dit alles is op 32 bit!!!

Ik heb geen idee van de specs van de 6000....ik wou dat ik zelf in de positie kon zijn dat ik deze test zelf kon doen!!! ;)

Maarja...moraal van een hele thread bakkelijen...:

Alle twee bloed snel

$^#^*&%#& ing duur

Ver voor op de ontwikkeling van de games!!

MAAR WEL LEUK OM TE DOEN!!!! (dat bakkelijen dan...dood weer een nutteloze middag) :z
Gaat nVidia nou dezelfde weg bewandelen als Intel???

Pentium 1, (Pro) 2, 3, 4, 5?, 6?, ....
GeForce 1, 2, 3, 4?, ....

ipv dat ze nou ff een nieuw naampje verzinnen... :(
snel de naam GeForce7 registreren :7
Inderdaad niet echt orgineel, maar opzich ook niet echt een verrassing. Alleen al de naam GeForce verkoopt al :)
Ach, dat doen ze al jaren.
Jaws, Rocky, Opel Kadett, Paars, RTL ;)
Het kan aan mij liggen, maar volgens mij deed nVidia dit al veel langer.
Ik herrinner mij een Viper 330, 550 en 770 ... wat maakt het uit hoe het beestje heet? Als de producten maar goed zijn. 3Dfx heeft toch ook de voodoo 1,2,3,4 en 5 op de mart gebracht? nVidia zit pas op de 3.
Die Viper zooi is van S3/Diamond, niet van nVidia.
Maar de chipset is wel van Nvidia....

Trouwens, wat dacht je van deze???

Asus v6800, v7700, v7800
Matrox G200, G400, G450

Enne van de S3 Virge en Trio zijn er toch ook heel veel verschillende versies???

Wat mij betreft maakt het niet uit dat er dezelfde naam gebruikt wordt, zolang er maar duidelijk gemaakt wordt welke chipset er wordt gebruikt.
nou nou ik denk toch eerder aan een andere vidkaart maker dan aan een software producer of proc. bakker ofiets

voodoo 1,2,3,4,5

enne "why brake a winning team"? gf doet het prima onder deze naam en voor mij boeit het niet welke naam mijn vidkaart heeft(zolang het uit te spreken is..) het gaat erom dat ie doet waar ik hem voor koop(verschilt per kaart)

* 786562 -the
Maar de chipset is wel van Nvidia....
Ja boeien, nVidia verzint toch niet voor S3/Diamond de naam 'Viper' :?. Viper wordt trouwens ook al erg lang door Diamond gebruikt. Voor zover ik me kan herinneren had de eerste Viper een Weitek chippie (1993).
en deze dan?
Windows 1.01,2.03,3.00,3.10,3.11,95,98,2000 en niet te vergeten NT3, NT4
ok ik weet er nog meer wat d8 je van Need For Speed, NFS2, NFS2 SE, NFS 3, NFS 4, NFS5, NFS Motor City.

enzo zijn er nog veel meer dingen waaraan ze een vervolg hebben gemaakt met de zelfde naam. mijn idee is dit in het voordeel van de koper hij kent de naam van het vorige product en weet dus al of het goed of slecht is. Zo is het ook weer in het voordeel van de verkoper van het product want een product verkopen met de zelfde naam alleen een volgende edite kan beteken dat de consument het kent en dus weer het eerder zal gaan kopen. dus ik zeg ga zo door, het wordt wel saai maar het is tenminste overzichtelijk. 8-)
Goed voorbeeld, alleen was dat niet nVidia, maar van Diamond ;)

Hehe, Femme was me net voor :)
Maar de oude viper 550 en 770 waren wel gebaseerd op de Nvidia TNT/TNT2 chipsets dus stiekem toch NVidia. Alleen verkocht onder de naam van Diamond, net zoals Asus ook nvidia kaarten verkoopt
Dat klopt, maar daarna kwam nog een Viper kaart: de Viper II, maar dat is een S3 chipset :)

Viper 330 was trouwens ook een nVidia chipset :)
yepperz de 128ZX ... het eerste product dat nVidia in leven hield !
hehe ....

Naar ik wil er even op wijzen dat "name" recognition ook in je nadeel kan werken :
Er zijn namelijk veel type Viper-kaartjes ...
"wat heb jij 4 een graf. kaart ?" "een Viper !"
"jahaa .. die zijn goed he !" ... Viper,Viper330/550/770/,ViperII ???
ook beetje consumer bedrog als er een baggerchip op zit ...
Daar is niets stiekem aan. Nvidia is een chipbouwer die het kaartenbouwer aan anderen over laat [zoals 3dfx vroeger].

Omdat deze anderen [zoals Creative, Diamond, ASUS, ELSA, etc etc] hun kaart wel zo goed mogelijk herkenbaar willen maken t.o.v. de concurrentie, gebruiken ze eigen namen zoals Viper [diamond], Vxxxx [ASUS], 3Dblaster [Creative].

Dit fenomeen heet branding en is over het algemeen een stuk slimmer dan je KAART "geforce 1 ddr" te noemen [kan overigens niet eens wegens patentrecht van nvidia]. Vandaar dus de soms wat verwarrende namen.
Wat is er mis met GeForce 3? Is juist heel erg duidelijk: beter (in ieder geval sneller :9 dan de 'oude' versies van de GeForce. Ik weet niet hoe het qua architectuur in elkaar steekt, maar als het een echte doorontwikkeling op de vorige GeForce is, dan is de naam prima. Waarom zou je een nieuwe naam verzinnen, als de oude al zeer bekend is? Scheelt weer marketing kosten... en die hoeven dan niet meer doorberekend te worden aan de klanten. B-)


}:O
dat de geforce3 iig sneller is dan de geforce2 alleen door de 3 achter de naam ipv 2, klopt natuurlijk niet. Kijk maar es naar de Voodoo 4 4500 (itt de voodoo 3 3500) }> of de P4 (ah ok die laatste wordt wel sneller :)
Ha! Maar het gaat er ook niet om of 'ie *echt* sneller is. Als het maar zo overkomt op de gemiddelde consument... }>
Je hebt wel gelijk dat het niet per definitie zo is, maar het lijkt me wel logisch, toch :?

}:O
Hmm, 'k 'eb thuis nog 'n oude 486dx2 machine staan.... Zit ook 'n Viper in. Is gebaseerd op 'n Weitek 9000 chip. Diamond gebruikt de name Viper voor hun snelste videokaarten. Punt.
Diamond gebruikt de name Viper voor hun snelste videokaarten
Ze gingen alleen de mist in bij de Viper II (althans in Direct3D) ;)
Hoezo? Had Diamond op dat moment een snellere kaart? Nope, dus de 'statement' blijft van kracht. De Viper benaming wordt gebruikt voor de snelste kaarten van Diamond. De originele Viper was wel snel, maar helaas werd ie slecht ondersteund (ik kan het weten, want ik had er toen 1tje, grrr. Daarna ook nooit meer een Diamond gehad).
Weitek 9000 chip was een van de duurste proffessional chippies in zijn tijd... CAD/CAM time baby !!

later kwam de 9100 die was nog vetter !!!
Die kaarten waren ook best wel duur...
Ik heb ook al gehoord hoe de opvolger van de GF3 gaat heten: GeForce 4. Alleen zullen ze hem in eerste instantie NV30 noemen :+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True