Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 115 reacties
Bron: DailyTech

ATi heeft meer details vrijgegeven over de binnenkort te verschijnen R600-gpu. De gpu zal op de markt worden gebracht onder de naam Radeon HD 2900, waarmee de 'X' uit de typenaam van de ATi-chips lijkt te zijn verdwenen.

R600-chipDe nieuwe serie gpu's van ATi die compatible zullen zijn met DirectX 10 krijgen de HD-aanduiding om te benadrukken dat de complete range videokaarten zal zijn voorzien van de Avivo-technologie. Hiermee wordt het afspelen van video's hardwarematig versneld door de gpu. De snelste DirectX 10-gpu van ATi zal de Radeon HD 2900 XT worden. De HD 2900-serie zal voorzien zijn van 320 zogenaamde 'stream-processors' die de oude pixel en vertex shaders vervangen. Ten opzichte van de GeForce 8800 GTX heeft de Radeon HD 2900-serie het dubbele aantal stream-processors. Verder beschikt de HD 2900-serie over een 512-bit, acht-kanaals geheugeninterface.

Verder ondersteunt de HD 2900-serie 128-bit hdr-weergave en 24-voudige anti-aliasing; de concurrerende GeForce 8800 GTX ondersteunt maximaal 16-voudige anti-aliasing. Verder kunnen ook natuurkundige berekeningen worden uitgevoerd door de gpu en wordt standaard HDMI-ondersteuning geleverd, waarbij 5.1-kanaals geluid mogelijk wordt gemaakt. Naast de Radeon HD 2900-serie zal binnenkort ook de HD 2600- en HD 2400-serie worden geïntroduceerd. De HD 2600-serie is gebaseerd op de RV630-gpu, terwijl de langzamere RV610-gpu de HD 2400-serie aandrijft. Deze laatste twee productreeksen zullen beschikbaar komen in zowel een XT- als Pro-uitvoering. Alle Radeon HD 2x00-videochips ondersteunen Avivo met de Universal Video Decoder die hardwarematige ondersteuning biedt voor H.264 en VC-1 videostreams, die worden gebruikt door blu-ray en hd-dvd-disks. De nieuwe videochips van ATi kunnen zoals het er nu naar uitziet in mei worden verwacht.

Moderatie-faq Wijzig weergave

Reacties (115)

12K in 3dmark '06 volgens VR-Zone
volgens hetzelfde artikel zou de kaart best een goede kaart zijn voor $400.

dat is toch een stuk goedkoper dan verwacht. dat betekent dat hij in NL voor 400 euries over de toonbank zal gaan.
dat valt eigenlijk best mee voor een high-end top of the line kaart.
Lekker 12.000, zit nu op 5.000 met mijn 7800GT. :9
HD = Hype Ding

De specs op papier zijn wel erg vet, echter minstens 6 maand te laat. Ik hoop dat de serie AMD wat geld in het laatje gaat brengen, want het gaat er niet zo eul best.

Niet dat het representatief is, maar ik hoor als mensten praten over videokaarten echt bijna altijd praten over Geforce, en zelden over Radeon.

Die type nummers izjn trouwens (ook bij nVidia) echt irritant aan het worden

Waarom neit gewoon AMD Radeon HD 1xx, volgende generatie 2xx etc. zonder xtx/gtx/vtx/tx/pro/whatever voor x ding
Ati is gewoon slim bezig, maar zoals altijd lult iedereen hier achter elkaar aan.
Waarom zou je haast maken voor een DX10 kaart als het nog niet eens ondersteund wordt door een spel of laat staat Vista.
Ati heeft nog genoeg tijd.
ATI slim bezig? :?
Ati heeft zichzelf diverse keren flink verkeken op zowel marketing en pr-niveau, als op hun ontwikkelings en verkoop-strategie...
Een voorbeeldje...na de 9-duizend serie, kwamen ze op de proppen met de X-serie...Die X staat bij ATI misschien voor de 10de serie...maar de consument ziet gewoon de letter x voor zijn type staan...en een X1900 lijkt dan bijvoorbeeld niet zo snel als de 7900 van nvidia omdat 1900 minder is dan 7900.
Ook hebben ze voortdurend paper-releases uitgegeven zelfs toen nvidia erachter was gekomen dat je het beste gelijk de gpu's klaar heb staan voor de consument bij het brengen van het nieuws...
Er wordt al een jaar geschreeuwd dat de R600 de concurentie de grond in zal boren, maar tot nu toe heb ik niets vernomen...en het klinkt mij steeds meer als een dikke vett hoax in mijn oren...
Ook waren er geen verwachtingen van de nieuwe 8800 serie...en daarom sloeg zijn performance in als een bom, en kreeg die kaart zijn welverdiende aandacht...Maar nu is er bij voorbaat al zoveel ophef gemaakt over hoe snel die R600 wel niet gaat/ging worden....dat de performance eigenlijk alleen maar tegen kan vallen... en dus weer een misser voor de pr-machine van ATI |:(
Ook waren er geen verwachtingen van de nieuwe 8800 serie...en daarom sloeg zijn performance in als een bom
Er waren wel verwachtingen voor de 8800, iets met Vista en DirectX 10 ofzo... en dan iets met hele slechte drivers ;) Sloeg ook in als een bom.
Niks te laat, heb jij dan al software die, een HD 2900XT nodig heeft? :P
Niks te laat...
Ik denk dat het er vooral om gaat dat NVIDIA ondertussen al een heel eind ver is met de tweede generatie DirectX 10 kaarten. Dus tegen dat de HD 2900XT goed en wel beschikbaar is heeft NVIDIA weer een heel nieuw gamma klaarstaan.

Het had ook beter geweest voor de consument om sneller concurrentie te hebben van ATI, zodat de prijzen van DirectX 10 kaarten meteen lager kwamen te liggen.
Hoezo zes maand te laat? Volgens mij heeft nog niemand directx10 kaarten gemist. Ik in elk geval niet. En ATI of Nvidia heeft mij nooit zo veel kunnen schelen. Op het moment dat ik een nieuwe kaart koop kijk ik naar wat op dat moment de beste kaart is binnen mijn prijsklasse.
Omdat nVidia a veel te lang (vanuit concurrentieoogpunt) alleenheerser is op de snelheidstroon. DX10 boeit inderdaad niet zo, maar ATI ligt op gebied van snelheid ver achter, en het is voor ons allemaal erg slecht als NV monopolist wordt.

p.s: ik overweeg wel vanwege de linuxondersteuning van ATI op NV over te gaan, dus fanboy ben ik zeker niet.
Ok, daar heb je wel een punt, maar ik denk wel dat over 6 maand een goede timing is om een high end directx10 kaart op de markt te brengen. Tegen die tijd heb je er tenminste ook gelijk wat aan. Als je bijvoorbeeld kijkt naar Nvidia en hoe zij zitten te prutsen met hun drivers voor Vista dan denk ik dat het geduld van ATI alleen maar positief voor hun kan werken. Ze leveren dan een snelle kaart wat ook gelijk volledig benut kan worden (wanneer ze tenminste hun werk goed doen en gelijk goede drivers erbij leveren :? )
Ja klopt, je hoort inderdaad veel minder mensen over Radeon.
Ik had jaren geleden ook eerst NVidia kaarten, toen hoorden ik anderen erover en toen zweerde ik nog bij NVidia.
Moest een nieuwe videoplank hebbe en toen maar een Radeon gekocht...NU wil ik niks anders meer.
kwaliteit is zo veel beter (tuurlijk verschillen de meningen erover ;) )
Laats heb ik gelezen dat radeon hd serie een geintegreerde geluidschip meekrijgt.Interessante videokaart gaat het zeker worden alleen w8ten op de benchmarks en we zullen zien
HDMI-ondersteuning geleverd, waarbij 5.1-kanaals geluid wordt mogelijk gemaakt
Sinds wanneer doen video-kaarten ook geluid-procesing?
Al véél langer in GPGPU toepassingen. Het verschil hier is echter dat het rechtstreeks ondersteund wordt, terwijl GPGPU de grafische pijplijn gebruikt via DirectX of OpenGL (doch recentelijk ook via APIs die dichter bij de hardware aanleunen).
De drivers die uit zijn van ati zal nooit de volle power uit de R600 kunnen halen , zo was het met alle generaties kaarten

als ie uit is nog even wachten op goede drivers en dan kan je goed aan de gang
mis: 6+ maanden later komen met (hoe verassend) nieuwere betere technologie en dat lijnrecht tegenover elkaar zetten vind ik niet achterblijven voor nVidia...

edit:
oeps bedoelde het @ Fullhouse
Dat dacht ik dus van wel. nVidia heeft zijn suck driver probleempjes nog steeds niet op orde!

Beter +6 maanden "later" komen, dan 6 maanden te vroeg.
Zoals bij nVidia met eindeloos veel klachten around the
whole globe over de 8800GTX.

Hopelijk heeft ATI voor de aankomende nieuwe kaart wel de zaakjes beter geregeld, waar ze dan profijt uit kunnen slaan. Want ondertussen heeft nVidia een lekkere
reputatie opgebouw dat velen hebben van, laten we maar
es ff verder kijken.

Ik ga dit jaar nog een nieuwe kaart kopen, maar hierbij
heeft nVidia bij mij zeeeer weinig kans.
Volgens mij heeft dit te maken met de taktiek van AMD, die dingen niet rushed, maar met een nieuw revolutionair product op de markt komt.
Met de videokaarten is het bijna altijd zo geweest dat ze om het jaar uitkwamen, nVidia eerst en vlak daarna Ati. Volgens mij hebben ze bij AMD gedacht: laten we die hd 2800 even lekker overslaan en meteen de verbeteringen toepassen en met een goed product op de markt komen.

Bovendien, hoe groot is de vraag nou naar directX 10 kaarten? Volgens mij voldoet elke x1900 of 7900 nog prima voor heel veel gamers, tenzij je een resolutie van 1920x1200 hebt?
Ehm... volgens mij mis je iets poepkop.

NVIDIA is de fabrikant die deze ronde tot nu toe heeft gewonnen:
- Je zegt dat ATI met een revolutionair product op de markt komt, maar dat is niet waar. NVIDIA's G80 is een radicale wijziging ten opzichte van de bekende GPU architectuur, terwijl de R600 voortborduurt op het bekende patroon, alleen nu met unified shader pipelines, in plaats van losse vertex en pixel pipelines.
- ATI probeert z'n achterstand in architectuur goed te maken met 'brute force'. 64 pipelines, GDDR4, 512 bit geheugenbus, etc. Tegelijkertijd lijkt het er op dat NVIDIA met veel minder op ongeveer gelijke resultaten uit gaat komen.
- ATI zit behoorlijk tegen de limieten van wat nog mogelijk is aan te werken. Hoge kloksnelheden, hoge geheugensnelheden, veel pipelines. Tegelijkertijd heeft NVIDIA nog genoeg speelruimte. Ze kunnen de GPU clock verhogen, de SP clock verhogen, GDDR4 gebruiken, en, last but definitely not least, ze kunnen makkelijk een extra clustertje SPs op hun volgende kaart zetten.
- ATI's brute force aanpak laat het ook nog eens het onderspit delven in een ander gebied: stroomkosten. Het verschil tussen de R600 en de G80 kan volgens de rapporten oplopen tot meer dan 90 watt
- ATI heeft ondertussen al een half jaar achterstand opgelopen, en dat is natuurlijk ontzettend veel op de GPU markt. Je kunt zeggen wat je wilt over rustig aanpakken en willen perfectioneren, maar het wil er bij mij niet in dat ATI de R600 niet liever een half jaar geleden had willen lanceren. Het feit dat de deadline telkens is verschoven duidt dan ook niet echt op duidelijk beleid om rustig af te wachten, het duidt juist op problemen en narigheid in de ontwikkelin en productie. Het zou me overigens niet eens verbazen als ATI's R600 launch wordt verpest door de aankondiging van de 8900GTX...

Het enige waarmee ATI deze ronde nog kan winnen is op het punt dat het allerbelangrijkst is bij de GPU, namelijk performance. Brute force of niet, de R600 is wel een monster van een kaart en dat zal ook ongetwijfeld blijken uit de benchmarks. Of ze beter zijn dan de G80 is echter nog maar afwachten, en als ze het zijn is het nog maar de vraag of hun huidige strategie hen op de lange termijn zal helpen.
Snot volgens mij snap je er zelf niets van.

DX10 heeft vast gesteld dat er alleen nog maar gebruik gemaakt mag/kan worden van Unifief shader pipelines dus geen van bijde hebben een revolutionair product maar een product dat MOET voldoen aan de DX10 specs.

GDDR4 eheh je moet echt wat meer gaan lezen / googlen dan kom je zelf wel achter de voor delen van gddr4 die veel hoger geklocked kunnen/zullen worden i.v.m GDDR3. De R600 zal dus veel meer bandbreedte hebben.

Clocks maken niet echt veel meer uit met de unifiedshader arechitrectuur omdat de SHADER clock onavankelijk van de CORE en MEM clocks werkt.

ljkt mij dat je gewoon een nVidia fan bent die helemaal niet weet waar i over praat.
DX10 heeft vast gesteld dat er alleen nog maar gebruik gemaakt mag/kan worden van Unifief shader pipelines dus geen van bijde hebben een revolutionair product maar een product dat MOET voldoen aan de DX10 specs.
Nee hoor, DX10 heeft niks vastgesteld over pipelines of wat dan ook. De pipelines zijn onderdeel van de GPU hardware, en daar zegt DX10 vrijwel niets over. Er is zelfs een tijd geweest waarin men bang was dat de G80 helemaal deze weg niet zou volgen: bron. Kijk daarbij ook even naar de volgende zinnen:

"How the Shaders 4.0 will be implemented in hardware is entirely at the discretion of the GPU designer. It can else use separated units to process vertices then primitives then pixels or a single type of units that is capable of processing all of it, or a mixed vertices/primitives unit and a unit for pixels etc. DX10 imposes the unification at the programming model level and opens the possibility for the manufacturers to also do it on the hardware level but only if they find it useful."
GDDR4 eheh je moet echt wat meer gaan lezen / googlen dan kom je zelf wel achter de voor delen van gddr4 die veel hoger geklocked kunnen/zullen worden i.v.m GDDR3. De R600 zal dus veel meer bandbreedte hebben.
Ik heb ook helemaal niet gezegd dat de R600 niet meer bandbreedte zou hebben. Integendeel, ik zei dat ATI de brute force aanpak koos met hoge clocksnelheden (dus ook voor geheugen) en GDDR4. Ik zei ook dat de R600 een monster van een kaart is. De vraag is alleen maar of het genoeg is om NVIDIA's nieuwe architectuur (die met veel minder genoegen neemt) aan te pakken.

Uiteraard zal ATI met toekomstige kaarten (dankzij GDDR4) ver uitlopen op de 2000mhz geheugensnelheid van de 8600GTS, maar vergeet daarbij niet dat ATI geen alleenrecht heeft op GDDR4. In de toekomst zien we vast GDDR4 kaarten van NVIDIA. Het gerucht gaat zelfs dat de 8800 Ultra het al zal ondersteunen.
Clocks maken niet echt veel meer uit met de unifiedshader arechitrectuur omdat de SHADER clock onavankelijk van de CORE en MEM clocks werkt.
Ehm... nee. Dat is misschien zo bij NVIDIA's G80, vanwege de stream processor architectuur, maar ATI werkt dus nog steeds met pipelines, en die draaien allemaal op dezelfde (core) snelheid. In het geval van de R600 is dat trouwens wel een enorm hoge snelheid, volgens geruchten 800mhz. Daarnaast heb je nog het geheugen dat inderdaad op een hoge clocksnelheid draait, tussen de 400 en 2100mhz.
Bij de (huidige) G80 GPU's is het een heel ander verhaal, want daar heb je core, die draait op 450 tot 675 mhz, geheugen op 800 tot 2000 mhz, en tot slot ook nog de stream processor, die ligt tussen de 900 en 1450 mhz.

Dit zijn trouwens wel cijfers van de huidige kaarten, zowel ATI als NVIDIA zal de snelheden vast omhoog gooien in de toekomst.
Op dit moment is er volgens mij ook geen enkel spel wat de volle power wil benutten. Kaart zit vol met high end functies die op dit moment en volgende maand nog niet gebruikt gaan worden.

Ben erg benieuwd naar de cijfertjes, ziet er allemaal veelbelovend uit. Als ik al lees dat 12K wordt gehaadl dan ga ik me toch een beetje schamen voor mijn X1800XT met 4600 in 3Dmark06....
Heeft de 8800GTX niet slecht 128 stream processoren? Dan zou je bij een verdubbeling uitkomen op 256. Beetje veraf van de 320 bij een HD 2900 XT.
nee, 8800gtx heeft er 160, de helft dus. Maaaaar... weet de r600 het voordeel op papier in een echt resultaat om te zetten?
Heel vreemd maar bij mijn zoektocht op google kom ik overal op 128 uit, voor een 8800GTX.

Edit: nou ben ik erachter. Nvidia zou die overige 32 nog een beetje achterhouden voor een regenachtige dag.

zie:
http://www.fudzilla.com/i...task=view&id=334&Itemid=1

Toch als het waar is.
nope, de G80 heeft 128 scalars er is soms wel een extra MUL beschikbaar maar met de huidige drivers wordt er slechts een een performance winst van 15% geboekt met die extra MUL
We weten nog niet hoe de 320 units gegroepeerd zijn op de R600, de kans is reëel dat het eigenlijk 64 vec4+scalar units zijn, dat komt de R600 qua piekvermogen ver boven de G80 uit maar die vec4 units zullen natuurlijk niet altijd optimaal benut zijn.

//edit, typo
meer informatie:
http://www.beyond3d.com/content/reviews/7/17
Hahahaha nog ff een keer trollen en dan hou ik op.

Ik weet echt zeker dat je met mijn systeem wil ruilen. Maar ik nie met die van jouw! En sparen ???? Ja als je in de gezonheidszorg zit dan moet je sparen idd. Nee ik trek zo'n ding zo uit de muur ....

Ik kots gewoon over al die eikels die altijd lopen te zeiken dit weer te laat op de markt en loze beloftes op papier en maken ze het wel waar en Ati is niks en Nvidia is alles teveel power hier en te weinig daar. Gaat over van alles en niks dus.
faboy's? het is toch een vraag, iedereen hier vraagt dat zich toch af? of je een fanboy bent of niet.
Het is interesant om te zien om hij op papier even snel is als theorie.
Dat is hetzelfde :')

Je bedoeld of hij in de praktijk ook zo snel is als op papier ;-)
Inderdaad 128 stream processors, maar elk is opgebouwd uit een scalaire ALU en een 'special function' ALU. In totaal dus 256 ALUs. Doordat ze scalair zijn kunnen ze ook ten volste benut worden, terwijl vector-ALUs deels ongebruikt kunnen blijven. Ook heeft G80 een hogere frequentie voor de stream processors. En als ze er nog 32 achterhouden (of een MUL extra kunnen benutten) is de strijd dus nog lang niet beslecht.
ja allemaal heel leuk die dingetjes, 320 streamprocessors enzo maar wanneer kan ik hem kopen ? en wil ik hem kopen ?
Ik dacht dat 14 mei de launch was. Inmiddels hebben verschillende testers al exemplaren ontvangen volgens mij. De R600 schijnt qua warmte en geluidsproductie best wel mee te vallen.
waaruit schijnt dat?

van wat ik gehoord/gelezen heb is de r600 een monster in stroomverbruik en geluidsproductie.

heel leuk trouwens, al die functies... maar wie in godsnaam gebruikt 24x antialiasing???
ik vind 4x er al veel beter uitzien dan 8x simpelweg omdat 8x begint te lijken op een 2px gaussian blur effect. pas op resoluties van 1600x1200 is 8xAA een beetje interessant. 24x lijkt me echt totaal zinloos...

ik ben overigens zeer benieuwd naar de benchmarks van deze kaart
Niet echt mee eens, hoe hoger de resolutie hoe minder je AA nodig hebt, juist omdat je al die puntjes niet individueel meer kunt onderscheiden bij bewegend beeld, tenzij je een enorm grote beelddiagonaal hebt. Maar een 20" TFT met 1680x1050 of een 22" met 1600x1200 heeft naar mijn idee minder AA nodig dan een oude 17" op 1024x768. Met de huidige trend in monitoren zou ik juist liever zien dat ze hogere resoluties ondersteunen met betere performance in 4xAA of 8xAA 'turbo modes' en bijvoorbeeld HDCP over dual link dvi.
Mooi hoor, al dat videogeweld, maar nu wordt het toch echt wel tijd dat er fatsoenlijke games op de PC markt worden afgezet.

alle mooie games gaan naar de consoles de laatste tijd :(
wij krijgen Crysis PC only.
Niet helemaal, hij komt ook voor de X360
Oh net zo als halo voor PC. decenia later?
Nee hoor, Consoles kunnen Crysis helemaal niet aan (bron)
blijft afwachten, crysis heeft onlangs nog wel hun strategie herzien. Ze wilden dit op multi platform proberen uit te brengen, waarvan xbox360 de 2e keuze is.
Gezien de lange ontwikkelinkstijd proberen ze hiermee het financiele draagvlak wat te vergroten.
De kans bestaat dat er een gedowngrade versie van crysis op de x360 uitkomt, technisch gezien kan de X360
de huidige ontwikkelversie gewoon niet trekken.

Ook al zou er een ge-downgrade version uitkomen, zou het er niet om liegen.

Hier nog een linkje naar de geruchten-machine:
http://www.xbox360only.nl/nieuwsitem.php?nid=3952
Op zich ook best begrijpelijk. Steeds grotere markt, en bij de pc wordt het spel vaker gedownload dan gekocht.
Verder kunnen ook natuurkundige berekeningen worden uitgevoerd door de gpu
doei physx kaarten, leuk geprobeerd
Verder kunnen ook natuurkundige berekeningen worden uitgevoerd door de gpu
Ze kunnen het, maar word dat dan meteen ondersteund door alle spellen??? (Dat zou overigens wel erg vet zijn als alle spellen meteen ondersteund zouden worden.)
en natuurlijk wordt je GPU dan ook meer belast --> minder fps
nee ik vond t wel een goed idee zo`n PPU, maar te moeilijk om in de markt te krijgen (ivm game support).
Beetje jammer hoor, dat HD geblaat.

HD HD HD HD HD en nog eens HD. Alles gaat om HD. Terwijl de gemiddelde noob niet eens weet wat het is.

Een echt marketing truuc.
Wat is er mis met marketingtrucs? nVidia is heer en meester in de marketing, lijkt me tijd dat ATi er ook es werk van maakt :)

@DeArmeStudent: Als we moeten blijven nummertjes verhogen zitten we na een paar jaar aan de Radeon 99999 vs de GeForce 99999. Daar raakt de consument ook niet wijs uit. Besides, 't is toch maar logisch dat je niet kan vergelijken tussen merken onderling? Is bij andere producten ook niet zo.
Maar wat weet de consument daar nu van? AMD heeft ook jaren een aan intel-ghz aangepaste rating aan zijn cpu's gegeven...omdat de consument anders toch het aantal ghz van een athlon ging vergelijken met die van een pentium...en daarom toch een pentium kocht...
De consument is namelijk dommer dan menigeen denkt...
Mja, de concurrentiestrijd tss Intel en AMD is dan ook niet 't zelfde als tss nVidia en ATi. Toen AMD op de markt kwam was Intel 't microsoft van de processors. Om de vooroordelen van 't gepeupel tegen te gaan kon AMD wel niet anders dan hun ratings aanpassen. Temeer daar de cpu's - hoewel meestal sneller - een lagere kloksnelheid hadden, en Intel al jaar en dag hun pentiums adhv kloksnelheid promootte.

Kgeef je wel gelijk, de gemiddelde pc-gebruiker is oliedom, maar de meeste gamers weten toch wel dat er ook een ATi bestaat :)
Die rating was helemaal niet gekoppeld aan Intel processors, maar aan de Athlons die nog wel met modelnummer en kloksnelheid gekoppeld waren.
Of dom gehouden :+ Die marketinggasten vertellen wat de klant wilt horen, en niet wat de klant niet wilt horen.
zeker, daarbij is het nog een slechte keuze ook...want nu kan ik bijvoorbeeld zeggen: hier in mijn pc'tje heb ik een non HD 9800 zitten...en dat klinkt al heel wat sneller dan een HD 2900... weer niet zo slim van ATI |:(

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True