Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 88 reacties
Bron: The Inquirer

Zowel de ATi R580+ als R600-videochips zullen gebruik maken van GDDR4-geheugen, aldus The Inquirer. De site meldt dat ATi's R580+ dezelfde 90nm-architectuur gebruikt als de huidige generatie chips, wat in tegenspraak is met eerdere informatie waar gesproken werd over het 80nm-proces. De R580+ zal aanpassingen bevatten om in plaats van GDDR3 nu GDDR4 te ondersteunen. Volgens Ati kan ook de R520, die wordt gebruikt in de Radeon X1800-generatie, het snelle videogeheugen ondersteunen, maar moet het bedrijf daar nog enkele dingen voor aanpassen. Snelheden van de gpu en het geheugen zijn op dit moment nog onbekend. Samsung heeft reeds 512Mbit, 32bits-brede GDDR4-chips ontworpen die effectief hun werk doen op 3,2GHz en een totale bandbreedte leveren van 12,8GB/s. Dit is duidelijk sneller dan de 1,6GHz die de allerbeste GDDR3-geheugens van dit moment laten zien.

R580-chipVolgens geruchten zal de R600 de grootste, heetste en snelste gpu tot nu toe worden. Hoewel er geluiden waren dat de chip hetzelfde zou zijn als de grafische chip in de Xbox 360, zal het volgens de nieuwste informatie om een aangepast ontwerp gaan waarbij het geïntegreerde geheugen is komen te vervallen. Mocht de indrukwekkende hoeveelheid van 64 shader units waarheid blijken te worden, zal de chip veel sneller zijn dan de chip in de Xbox 360. De R580+ wordt over enkele maanden verwacht en de R600 staat voor het einde van het jaar op het programma.

Moderatie-faq Wijzig weergave

Reacties (88)

Volgens geruchten zal de R600 de grootste, heetste en snelste gpu tot nu toe worden.

Performance per watt is nog niet echt ingeburgerd in de grafische chip markt. Je krijgt nu straks zuinige processoren van Intel en AMD en je grafische kaart gebruikt alleen maar meer... |:(
90 Watt is geloof ik normaal voor een topkaart nu dus als dit nog verder opgevoerd wordt, zit je ver over de 100 Watt, is de grafische kaart straks het heetste component in een pc...

@land_of_spirits

ok, het is nog erger dus, zitten we met zn allen te kijken naar een wattage van 80 voor een processor, heeft een grafische kaart ff een wattje of 130 (volgens linkie van loodgieter) te verstoken...
In het geval van een EE van AMD (35W) is 130 W echt een enorm verschil!
is de grafische kaart straks het heetste component in een pc...
Dat is ie (bij mij iig :? ) nu ook al hoor ;)

Maar idd ze zullen toch echt moeten proberen wat aan de stroomvreters te doen.
Aan de andere kant denk ik dat er pas een goede/definitieve oplossing komt als ze een andere manier van IC bouwen vinden. Ik bedoel hoe klein we ook gaan (40nm, 20nm, 1nm???) we zullen de extra ruimte gaan gebruiken om de chips sneller en krachtiger te maken.
We zijn al op de goede weg met de processor. Speedstep etc. Het wachten is op de asynchrone processoren. Verbruik evenredig met de performance. Zal men tzt ook wel in GPU's gebruiken.
Zelf heb ik m'n X850 in 2D underclocked and in 3D overclocked. Scheelt tot weer in verbuik (warmte).
Je zal nog lang mogen wachten op die asynchrone processoren.
Mainstream asynchrone technologie is een beetje als Duke Nukem Forever.

Wordt al lang beloofd, maar er is omzeggens niemand serieus mee bezig, tenzij enkele embedded processors.
De maximale theoretische winst die je eruit kan halen is het verbruik van het kloknetwerk. Laat ons zeggen 30%. Maar je hebt meer overhead voor test, zelf-synchronisatie enz. Meer dan 20% winst zal er je uiteindelijk niet uithalen.
Net alsof de doelgroep van high-end kaarten naar de performance per Watt kijkt! Daarvoor moet je in het midden segment zijn.
Overclockers zouden er wel blij mee zijn ;)
moet zeggen dat nvidia de laatste tijd wel weer aandacht besteed aan efficientie, vergelijk de 7xxx serie maar met de x1xxx serie van ati.
Ja de PC zal steeds een grotere kachel worden, wel handig in de winter omdat de olieprijzen zo hoog staan...
En waar denk je dat energie centrales oa mee gestookt worden ? ;)

[semi serieus]
bovendien zijn electrische kachels niet eens echt efficient.
Men gebruikt eerst warmte om electriciteit op te wekken waarbij al energie verloren gaat...de electricteit word weer gebruikt om warmte op te wekken...hoezo dubbel :P
[/semi serieus]
Jeuj, een pc op LPG :D
maar de pc zet de energie die binnenkomt bijna voor 100% om in warmte :>
het rendement is wel aardig hoog hoor. Hoger dan het aardgas dat vanuit het noorden van ons land overal zwaar gekoelt heen komt.
maar de pc zet de energie die binnenkomt bijna voor 100% om in warmte
Ja, maar tijdens de opwekking en het transport van de elektriciteit is er al een berg verloren gegaan, waardoor het totale rendement minder is dan stoken op gas.
Dat is het nu toch al? Ik vraag me trouwens af wat voor vorderingen de R580+ (X1950XT???) zal maken ten opzichte van de X1900XTX in de praktijk. Vooral naar kloksnelheden ben ik benieuwd, maar ik schat toch ongeveer het volgende:
Core: R580+, 700MHz(750MHz voor XTX)
64 Pixelshaders (16pixelpipelines x 4 shaders per pipeline?)
Geheugen: 512MB GDDR4-RAM 512-bits 2000MHz(2200MHz voor XTX) (effectief)

Benchresults:
3DMark05: 13000-17000
3DMark06: 7000-9500
Dan zal de chip sneller dan de Xbox360 zijn.... Het heeft nog even geduurd vooraleer de pcmarkt weer bovenhand neemt op de spelconsoles :)

Benieuwd voor de specs alvast. Gaat soms toch wreed rap, de technologie-sprongen. Mijn spaarvarken staat al zeer lang op dieet :'(
de pc heeft altijd boven de console gestaan.
Ik ben zelf ook een PC gebruiker, maar laten wij realistisch zijn. GPU's voor PC's mogen dan beter zijn, maar ik heb nog geen PC configuratie gezien met een triple core PowerPC processor (Xbox 360) of een Cell processor en XDR DRAM (PS3)? Daarnaast zijn consoles veel goedkoper. Zij staan absoluut boven een PC die voor dezelfde prijs te koop is. Ik snap niet echt waarom iedereen zo stoer moet vertellen dat de PC superieur is.
Het zal ook vooral altijd 'n triple ding blijven en zeker niet sneller worden hooguit zuiniger.
PC zijn nu Dual maar worden Quad en dat ook in de hoogtij dagen van de Xbox360. Die is net begonnen en heft dus nog ajren voor de boeg. Jaren waarbij de PC kwa CPU per kwartaal groeid in Hz en om het jaar 'n nieuwe reeks. GPU zelf om de 9maanden. En dan loopt het al snel voor.
Daarnaast is 2 GB interngeheugen en 512MB vidgeheugen al te doen. Tewijl Xbox2 het met 512MB UMA moet doen en wat Edram.

'n Kleingroepje koopt zijn PC puur voor games of wat je met en Xbox2 ook kan.
PC is veel zijdiger. Als je hoofd taak van PC geen games is maa randere dingen. Houd het verschil vaak de 3DKaart in. HAngt dus sterk van de gebruiker af.
Daarnaast om het uiterste uit Xbox2 te halen is zo'n HDTV wel handig. Dat maakt PC reso's mogelijk maar dan met een opgeblazen grotere schermgrote

Xbox2 voordeel als in voorsprong is vooral tijdelijk. Het is net uit dan concureerd het wat sterker. Maar PC groeied zeer gelijdelijk.

Voor Cell kan je tegen woordig ook 'n ageia PPU in je PC stoppen voor wat tegen gas voor die vele SPE's
Plus PS3 moet nog langer mee. Ondertussen is de PC wereld ook al aan asemetrische Multicore. 'n soor Cell maar dan op X86 basis en dan wel Out of order Cores.
Het ligt niet aan Ghzen of cores ook aan andere factoren, de Core 2 Duo of 3 Ghz is echt wel sneller dan de Netburst op 3 Ghz hoor..
Je vergeet een behoorlijk belangrijk aspect, "het besturings systeem" welke bij de console bedoelt is op taken die van te voren vast staan uit te voeren.
Bij een pc kan een besturingssysteem veel meer dan alleen vaste taken uitvoeren, past zich al aan dmv de specificaties van de pc ect.
Jaren waarbij de PC kwa CPU per kwartaal groeid in Hz en om het jaar 'n nieuwe reeks.
Sorry maar ik heb hier een pc van 4 jaar oud, met een 3Ghz processor. Wat is momenteel nu de snelste processor (qua Hz-en)?

De nieuwere processoren worden wel sneller, maar dat zit meer in het verdubbelen van de cores etc niet in de Hz-en Toen ik de pc kocht was de verwachting (van Intel) dat al snel de 4Ghz gehaald zou worden. Het blijkt dus niet zo te zijn.

Overigens wacht ik lekker af wat de Core 2 Duo gaat doen, en wat AMD er tegenover kan zetten. En dan eens een keertje wat nieuws kopen :)
Het heeft nog even geduurd vooraleer de pcmarkt weer bovenhand neemt op de spelconsoles
Tenzij je een console aansluit op een HDTV die 1920 x 1080 doet is de beeldkwaliteit op een PC zoiezo beter met een fatsoenlijke grafische kaart.
aaarggghh, sowieso is de term.
Gepost door WSaeNoTSoCK - woensdag 24 mei 2006 18:58 Score: 1
dan is het altijd nog zowiezo
Hou dan gewoon je mond... |:( |:(

so·wie·so (bw.)
1 hoe dan ook => überhaupt
dan is het altijd nog zowiezo
Zelfs op een hd tv is de kwaliteit slechter omdat de 360 geen fatsoenlijke beeldscherm(tv) uitgang heeft.
een huidige top-end PC was all sneller toen de xbox360 op de markt kwam "elder scrolls een goed voorbeeld"
Hoezo is Elder Scrolls een goed voorbeeld? Het is dan een beetje een oneerlijke vergelijking, maar zelfs de snelste configuratie krijgt heeft moeite met Elder scrolls op 1280*1024, 60fps wordt zelfs met een Crossfire 1900XT configuratie gehaald.
linkje
1280*1024 is dan wel een hogere resolutie dan 720P, maar bij de Crossfire configuratie staan wel AA en AF uit, die de 360 wel heeft!

Huidige generatie videokaarten doet nog onder voor de 360!!! |:(
ten eerste geef je aan dat de er een crossfire setup nodig is for 60 fps... zou best kunnen maar waarom zou je ? een gewone x1900xtx doet dus 38 fps op 1280x1024... hoeveel doet de xbox360 dan ? doet ie wel 60 fps dan op 720p ? dacht het niet... en volgens mij is het momenteel een trend dat kaarten een kleinere impact hebben van het activeren van AA en AF (allemaal geoptimaliseerd vandaag de dag) dan het verhogen van de resolutie... dus dat argument is ook al niet altijd van toepassing... (http://www.tomshardware.c...de_2006_part3/page44.html)
kijk ff naar impact van activeren AA en AF en het veranderen van reso ;)
Dat Anandtech nou AA en AF uit zet, betekent nog niet dat je het niet aan kan zetten.
Met de chuck patch kun je AA en HDR tegelijkertijd gebruiken, net zoals bij de 360.

En in tegenstelling tot wat Anandtech beweerd kun je prima HDR en AA tegelijkertijd aan zetten, want het heeft maar heel weinig impact op de prestaties.
(Bij een X1800XT maar 7% http://www.elitebastards....d=29&limit=1&limitstart=3)

Anandtech is nou eenmaal niet zo'n betrouwbare site meer... :'(


Die 360 doet ook echt geen 60fps.
En bij Oblivion is dat ook totaal niet nodig. 25fps is prima.
Klopt, het is een oneerlijke vergelijking. Voor de redenen die onder staan, maar vooral omdat de console versie van Oblivion een aantal cheats heeft mbt draw distance, textures, AI distance etc etc etc...allemaal dingen die op de PC verder gepushed kunnen worden dan op de x360.

Komt nog bij dat je op de pc nog betere textures kan downloaden, waardoor de pc versie nog beter uit de bus komt.
ik kan met een 7800gtx oblivion makkelijk draaien op 1280x960 en 4x af en 4x aa no problemo.
waarbij de graphics ook nog velen malen hoger ingesteld zijn dat op de 360 (ik heb hem ook voor de 360)
met HDR lighting uit, ja dat lukt op mn x800pro zelfs zonder problemen.
en omdat de camera niet zoveel beweegt als een PC, kun je daar ook all gouw 60fps faken en werkelijk maar 20 fps geen mens ziet het verschil door te trage camera.
tsja, als je het alleen over de gewone pcmarkt hebt dan wel jah.... qua technologie daarentegen niet, aangezien de core dat in de xbox360 zit dus ook voor de pc markt is... of eigenlijk moet het omgekeerde gezegd worden : de voor pc's ontwikkelde ATI chips zitten ook in de xbox360...
Het Unified Shader meuk. Xbox360 heeft hiermee 'n primeur. Alleen de eind van dit jaar eerste PC unfied shader ding is dan wel meteen de grote broer van wat in de Xbox zit.
'n PC grafische kaart kan en mag voor performance nogal wat uit het stop contact trekken.
is dus kolosaler. Op 'n lagere dieshrink en mag zove rals het kan opschalen.
Het GPU van 'n Xdoos moet vanwege de doosje wat zuiniger zijn dus 'n lichtere uitvoering. Latere mogen wel zuiniger maar niks aan de spect veranderen.

Met de R600 is de PC al meteen kwa spects voorbij Xbox.
Kwa GFX.
Die R600 is ook niet de grote broer.

Ja, ze hebben dan wel allebei een unified architectuur, maar de R600 krijgt geen daughterdie. Nog steeds een totaal afwijkende gpu dus.
dat is onzin.
De ATI gpu in de 360 is compleet anders dan de ATI gpu's voor de PC markt.
Ongeveer de enige overeenkomst is dat het allemaal gpu's zijn.
@ Envy007:

90 watt normaal voor een TOPKAART?

de XFX 7900 GT wat ik op het oog heb, gebruikt iets van 175 watt meen ik...bijna 2 keer zo veel als jij zegt!

Gelukkig kun je een kerkreactor ook met waterkoeling uitrusten, dus dat showt wel weer lekker op party's
Wow wat voor een kaart is dat dan?

De 7900 serie is juist gemaakt om zuiniger te zijn. Mede door de 90nm.

Hier een linkje:
http://sg.vr-zone.com/?i=3335&s=8
Ik zou even hier kijken als ik jou was, +/- 165 Watt energieverbruik, voor het gehele testsysteem met een standaard 7900GT, die claim van 175Watt slaat dus (in het geval van de 79 serie) nergens op, anders is 't wellicht als je op de Ati 1900 serie mikt.
Als je zelf nou ook even de tijd had genomen om het artikel goed door te lezen had je gezien dat de 7900 GTX 206,40 gebruikt tegenover 262,14 voor de 1900 XTX.
Zo enorm veel scheelt dat dus helemaal niet.

:Y)

[ontopic]
The Inquirer, lekker betrouwbaar

:>
Ehm..

Ik weet dat de kerk vaak goed warm gestookt wordt voor alle oudjes. Maar water koeling in de kerKreactor lijkt me toch iets overdreven.
Hoewel parties in de kerk me meestal wel bevallen :7.
Multicultireel wordt dat dan:

SynagogeReaktor
MoskeeReaktor
TabernakelReaktor
TempelReaktor
etc. etc.
Persoonlijk vind ik het helemaal niet boeiend of zo'n kaart nou warm word of niet, vanaf de fabriek zit er heus wel voldoende koeling op, als het je niet koel genoeg is dan kan je het altijd zelf nog veranderen, en dat gezeur dat het maar zuiniger en zuiniger moet...bekijk het zo, zolang de processor steeds zuiniger word blijft de balans toch staan.

bovendien, niemand dwingtje zo'n kaart te kopen, das het zelfde als klagen dat je Ferarri Enzo zo'n hoog verbruik heeft, en vul alle typische nadelen maar in, daar hoor je ook niemand over, niemand doet het je aan hoor, je kiest er toch echt zelf voor om hem in je pc te stoppen.

Persoonlijk kies ik er graag voor. :Y)
Het probleem zal hem vooral zitten in het feit dat jij over een tijdje je eigen stofzuiger niet meer kan horen omdat je videokaart er bovenuit klinkt
Het probleem zal hem vooral zitten in het feit dat jij over een tijdje je eigen stofzuiger niet meer kan horen
Dat is perfect, ik erger mij mateloos aan het geluid van mijn stofzuiger!
Hou op! Ik krijg nog regelmatig nachtmerries van het feit dat m'n computer om de 3 tellen uit valt, omdat m'n X1900XTX met stockkoeler te warm wordt :'(
Toch raar, Ik las gisteren ofzo dat ATI zijn south bridges de helft energie zuiniger dan de nvivia's, Terwijl ATI's videokaarten er om bekent staan dat ze 30 % meer energie verbruiken dan die van de concurent.
Misschien doen ze er verstandig aan om met elkaar eens om de tafel te gaan zitten :Y)

Trouwens wel gaar, een boost van 1,6 GB/s naar 12,8 GB/s
Weet iemand of dit van grote invloed is van de algemene prestaties van de videokaarten ?
Ja, dat zou wel geniaal zijn natuurlijk. Dat ATI en Nvidia de krachten bundelen en samen tot nauwelijks stroom verbruikende, van alle opties voorziende bloedsnelle videokaarten en moederborden komen.

Eutopie? Ik hoop dat ze het ooit doen.
... en deze vervolgens voor niet minder dan 850,- op de markt zetten.

Mwa... doe mij maar liever wat concurrentie :)
Eutopie? Ik hoop dat ze het ooit doen.
Jij zou blij worden van ATI en Nvidia die de krachten bundelen?

Ik juist niet, ze zouden dan een monopoliepositie hebben en ik heb het idee dat zo'n fusie niet het meest voordelig voor de consument zou zijn.

Ik kan me het al voorstellen, nauwelijks nieuwe modellen en prijzen die torenhoog zijn. Immers de consument koopt ze toch wel, een andere keuze hebben ze niet.
Trouwens wel gaar, een boost van 1,6 GB/s naar 12,8 GB/s
Lezen! Dat staat er niet. De bandbreedte is van 6.4 naar 12.8GB/sec gegaan.

De snelheid is van 1.6GHz naar 3.2GHz gegaan!
Maar zie je dat nadrukkelijk terug in de prestaties als je bijvoorbeeld dat geheugen op een X1900XT zou plakken ? 8-)
ze gaan VAN 1.6GHz NAAR 3.2GHz wat voor een totale banbreedte van 12,8GB/s zorgt. :P
Ik schat dat we over een jaar of 2 grote Mod-kits krijgen om je pc te koelen met je centrale verwarming.
Ook de technologie van electrische kookplaten krijgt een impuls; je pc levert de warmte aan! Een pc in de keuken begint zo al ingeburgerd te raken.
Ik heb thuis al een pc onder mijn badkuip. Ik kan zo 2 uur lang in het warme water blijven liggen, terwijl ik een spelletje speel :Y)

Wat nemen jullie mij serieus :+
Eigelijk is het redelijk realistisch, de warmte die je PC uitstoot kun je misschien redelijk effcient omvormen naar warmte voor je Centrale Verwarming.

Misschien een idee voor DataCenters, berg buizen erdoorheen die je gebruikt voor stadsverwarming oid.

een systeem om het aan kookplaten en/of badkuipen te hangen lijkt me iets minder realistisch.
Met waterkoeling kun je prima een radiator verwarmen, haal die cv er maar af..
Ik ben een keer een mod tegen gekomen op GoT waar iemand inderdaad zijn pc heeft aangesloten op een radiator :D Hij was alleen vergeten de radiator flink door te spoelen :+
Het idee is niet raar maar de PC levert hier niet genoeg warmte voor. In de sector waar ik werk zijn er al een paar bedrijven die warmte die lasersnijmachines genereren gebruiken om het kantoorpand te verwarmen.

Iedere machine is vrijwel 24/7 in gebruik en heeft ongeveer 1000 liter koelwater in zich wat op 25 graden celcius gehouden moet worden. Hier komt heel veel warmte bij vrij
Leuke mod, zijn er ook foto's van (liefst met wat vrouwelijk schoon erin ;) ) ?
Ben ik even blij dat ik een maand of drie geleden toch maar voor de goedkope X800 GTO2 ben gegaan.
Er zit flinke vooruitgang in de snelheid van videokaarten in een jaar tijd. Ik wacht mooi nog even op de de volgende serie (r600).
Dan kun je blijven wachten. Op het moment dat de r600 op de markt komt is de r700(?) alweer aangekondigd met nog indrukwekkender specs
Natuurlijk...en zo zal dat ook blijven.
De verleiding is vaak groot om elke keer mee te gaan met de laatste ontwikkelingen. Maar het plezier is toch een stukje groter (voor mij persoonlijk) als ik een videokaart koop die ineens twee keer zo snel is als mijn vorige. In plaats van elke keer een paar treetjes hoger op de prestatieladder te stappen voor gigantische prijzen.

ajbwib..
Als ik me niet vergis kan er met GDDR4-geheugen en een 256-bit interface dus een bandbreedte van meer dan 100GB/s (12,8GB/s * (256bit/32bit)) gegenereerd worden. Dat is bijna 1 Terabit per seconde!
eh, de totale bandbreedte is al 12,8GB/s.

GigaByte (als de letters correct gebruikt zijn), dus inclusief de 256bits brede snelweg.

nofi, maar welk onderdeel van "totale bandbreedte" heb je verkeerd begrepen uit het artikel?

OH HELP, nevermind..... welk onderdeel van 32bits heb ik niet begrepen |:(

duidelijk m'n offday.
@ loodgieter:

Ik haalde mijn info hier van tweakers:

http://tweakers.net/benchdb/testcombo/919

ik moet wel zeggen dat het om de stressed hoeveelheid gaat , wat ik me net pas zag.

Voor alle grapjassen die mijn eerdere typefout opmerkten: kerN, in plaats van kerK natuurlijk:P

ik typ nou eenmaal zo slecht als de gemiddelde zebra met buikgriep:(
En je vergeet dat de daar aangegeven hoeveelheid Watts voor het hele systeem geldt, niet alleen voor de videokaart. Er zit ook een Athlon X2 in, die zal op volle belasting ook nog wel wat wattjes trekken, dunkt me. Waarschijnlijk nog wel meer dan de videokaart.
@ Seal64

accoord, er zit inderdaad een flinke processor in. Als ik zo de resultaten zie, kan ik me echter niet voorstellen dat het vermogen wat zij weergeven (idle 100 W en stressed 175 W) het vermogen van het complete systeem is...zoals je op die site kon zien die iemand toestraks al linkte, gebruikt de 7900 GT al ongeveer 89 W. Bij een processor heb je het al snel over enige tientallen Watt's (en de kans dat die 100 W dus bijv. de processor én de videokaart behelst, is niet al te groot, lijkt mij)

dus lijkt me dat de gegevens uit de link die ik in m'n vorige bericht plaatste, alleen betrekking hebben op de videokaart zelf

toch?
Een 3500+ gebruikt 60w ( venice core ), Waar een dual core 3800+ ( 2 * 3200+ ) ongeveer 85w gebruikt.

Je moet rekening houden dat men vaak zo een testen doet met het minimum van het minimum. CPU, GPU, MB, Voeding, een HD en dat is het meestal. Waar een gewone gebruiker nog de nodige extra HD's ( +5w stuk ), CD/DVD Reader/Writer, TV kaart, Sound Kaart etc etc heeft. En vaak meet men niet het scherm gebruik mee in de test.

Alsook, tegenwoordig gebruiken de CPU powersave, waardoor ze downclocken bij weinig gebruik. Wat een totaal ander beeld kan geven in die testen. Je moet altijd zien naar de max load van het systeem. De cijfers zijn niet zo vreemd voor een letterlijk barebone systeem, waarbij men enkel de puur kern getest heeft.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True