Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 182 reacties
Bron: ATi

ATi heeft vandaag zijn langverwachte nieuwe generatie videochips gepresenteerd, de Radeon X1000-serie. Deze reactie op de in juni geïntroduceerde GeForce 7800 GTX heeft een aantal maanden op zich laten wachten omdat er serieuze problemen waren met de chips: samples hadden namelijk de vervelende eigenschap om spontaan dood te gaan. Na lang zoeken werd het probleem getraceerd naar een fout in een blok van het ontwerp dat van een ander bedrijf was gekocht. Eenmaal gelokaliseerd kon het probleem binnen een uur worden opgelost, en schoten de yields omhoog naar het gewenste niveau. De massaproductie kon dus worden gestart, en vandaag zijn de specificaties en eerste resultaten wereldkundig gemaakt.

Het topmodel van de R520-generatie bestaat uit liefst 320 miljoen transistors, die met behulp van TSMC's 90nm-technologie in een chip van 288mm² worden gestopt. Er zijn zestien pixel pipelines en acht vertex shader units aan boord in het topmodel, die hun werk op een klok van 625MHz doen. Dit wordt ondersteund door 1,5GHz GDDR3-geheugen. Het ontwerp van de chip is flink onder handen genomen sinds de vorige generatie. Hoewel er zoals verwacht geen extra pipelines zijn toegevoegd zijn er genoeg features en prestatieverbeteringen aangebracht om een zeer geschikte concurrent voor de GeForce 7800 GTX neer te zetten.

ATi Radeon X1800 chip

* Ultra-Threaded Dispatch Processor

Een nieuwe kreet van ATi is 'Ultra-Threaded Dispatch Processor'. Dit deel van het ontwerp is verantwoordelijk voor het verdelen van wachtende pixelbewerkingen tussen de verschillende pipelines. Een thread in deze context is niet hetzelfde als die van een CPU, maar wordt door ATi gedefinieerd als zijnde een blok van zestien pixels. Als een blok tijdelijk niet verwerkt kan worden (bijvoorbeeld omdat er gewacht moet worden op het laden van texture) kan de pipeline in plaats van te wachten meteen aan een ander blok gaan werken. nVidia gebruikt een soortgelijke techniek, maar werkt met blokken van 1024 pixels. De kleinere 'threads' van ATi leveren volgens het bedrijf een voordeel op het gebied van efficiëntie op, vooral als er gebruik gemaakt wordt van de features in Shader Model 3.0. De topmodellen van de serie zullen 512 'threads' tegelijk kunnen verwerken, maar de goedkopere zijn beperkt tot 128 threads.

ATi Radeon R520: Ultra threaded

* Verbeterde geheugencontroller

De geheugencontroller van de R520 is volledig vernieuwd. In plaats van vier 64-bits controllers die met een crossbar verbonden zijn is men nu overgestapt op een centrale arbiter die twee interne bussen bestuurt. Deze bussen lopen als een spoorbaan in tegenovergestelde richting om te core heen. Datapakketjes kunnen op een van de vier tussenstations in- en uitstappen en ervoor kiezen om linksom of rechtsom te gaan, afhankelijk van wat de korste weg is. Het nieuwe geheugensysteem moet een aantal generaties meegaan: het is voorbereid op de GDDR4-standaard en effectieve snelheden tot 3,6GHz. Naast de snellere geheugencontroller heeft ATi de caches op de chip verbeterd en de compressie van textures en dieptegegevens sterker gemaakt, zodat er bandbreedte gespaard wordt.

ATi R520 geheugenring

* Beeldkwaliteit

Naast ondersteuning voor Shader Model 3.0 biedt de R520 verbeteringen op het gebied van anisotropic filtering en anti-aliasing. 6xAA is volgens ATi op de nieuwe Radeon minder zwaar dan 4xAA op de huidige generatie. Ook is de combinatie van HDR met AA nu mogelijk en wordt een nieuw algoritme (Adaptive AA) geïntroduceerd dat rekening houdt met het alphakanaal (transparantie).

* De kaarten

Nu we weten hoe de kaarten technisch in elkaar steken is het de hoogste tijd om te kijken naar de zeven verschillende kaarten die ATi vandaag heeft aangekondigd:

RadeonX1800 XTX1800 XLX1600 XTX1600 ProX1300 ProX1300 X1300 HM
CoreR520RV530RV515
Vertex shaders852
Pixel pipelines16124
Texture units1644
Render outputs1644
Z-units1684
'Threads'512128128
Coreklok625MHz500MHz590MHz500MHz600MHz450MHz450MHz
Geheugenklok1,5GHz1GHz1,38GHz680MHz800MHz500MHz1GHz
Geheugenbus256 bit128 bit128 bit32 bit
Memory Size256/512MB256MB128/256MB256MB128/256MB32MB
Prijs$499/$549$449$199/$249$149/$199$149$99/$129$79
ATi Radeon X1800 kaart

Opvallend is dat er op dit moment nog geen CrossFire-edities zijn aankondigd. Deze worden later nog wel verwacht en zullen 50 dollar duurder zijn dan de normale edities. De R520 zal een betere versie van de techniek ondersteunen dan de huidige kaarten: de maximale resolutie gaat omhoog naar 2048x1536@70Hz en de prestaties van Super AA zullen volgens ATi ook een stuk beter worden.

* Benchmarks en conclusies

Er zijn al verschillende reviews van de nieuwe kaarten op het web verschenen, en ze zijn het er allemaal over eens dat ATi met de X1800 XT de GeForce 7800 GTX verslaat. Hoewel het traditionele zwakke punt van de Radeon (OpenGL) niet is aangepakt, is het verliezen van de Doom3-test voor weinig reviewers een reden om de superioriteit van de R520-chip in twijfel te trekken. De hoge kloksnelheid zorgt er wel voor dat de ATi-kaart een watt of 25 minder zuinig is dan zijn directe concurrent, maar door de stille dual-slot koeler is dat in de praktijk verder niet storend. Waar veel reviewers wel vraagtekens bij zetten is de beschikbaarheid van het topmodel. ATi belooft dat de kaart over 4 tot 6 weken in de winkels zal liggen, maar erg blij met weer een papieren introductie zijn sommige reviewers niet, zeker niet na de directe beschikbaarheid van de GeForce 7800 GTX en ATi's recente historie van leveringsproblemen.

Hoewel ATi zonder veel twijfel de kroon terugpakt met zijn topmodel, wordt de echte strijd in het middensegment van de markt uitgevochten. De meeste reviews richten zich vooral op de X1800 XT, maar er zijn ook al een aantal tests van de X1600 XT en de X1800 XL verschenen, die het tegen de GeForce 6800 en GeForce 7800 GT moeten opnemen. Op die twee punten komt ATi minder overtuigend uit de bocht, en zal uiteindelijk veel afhangen van zaken als de beschikbaarheid en prijzen.

Far Cry - 1280x1024 - 4xAA - 8xAF
2x GeForce 7800 GTX 157
2x GeForce 7800 GT 153
2x Radeon X850 XT 141
2x GeForce 6800 Ultra 133
Radeon X1800 XT 127
GeForce 7800 GTX 104
GeForce 7800 GT 98
Radeon X1800 XL 97
Radeon X850 XT 89
GeForce 6800 Ultra 79
GeForce 6800 59
Radeon X1600 XT 51

* Reviews

Lees meer over

Gerelateerde content

Alle gerelateerde content (38)
Moderatie-faq Wijzig weergave

Reacties (182)

1 2 3 ... 6
wat mij heel erg tegenvalt is de prestatie van de X1600XT die presteert meestal rond 6600GT niveau en soms rond 6800 niveau maar eigenlijk niet op het niveau van de 6800GT waar je hem zou mogen verwachten met 12 pipes en sneller geheugen en core. Dat vind ik toch wel een heel grote domper voor ati. Brengen ze iets op de markt wat een stuk langzamer is dan de X800 GTO. Hopelijk zijn dit niet de reele benchmarks van retail kaarten anders komt nvidea toch wel heel goed uit de bus.
Die 12 "pipes" die je noemt zijn heel misleidend. De X1600XT heeft eigenlijk maar 4 "pipes" (eigenlijk ROPs) net als de X1300. Maar daar waar elke "pipe" in de X1300 beschikt over 1 Pixel Processing Unit, heeft de X1600 nu 3 Pixel Processors per "pipe". Vandaar dus het getal 12.

Ook is het aantal Texture Units flink omlaag gegaan. Oude architecturen hadden evenveel texture units als pipelines. Dus een 12 pipes kaart had 12 texture units. De X1600 heeft dus maar 4 "pipes" en dus ook 4 texture units en geen 12.

Als je dit in je achterhoofd houdt, dan zijn de prestaties nog best wel goed van de X1600XT, aangezien hij niet veel onderdoet voor de 6800 die wel echt 12 pipes heeft en ook nog eens een 256-bit memory interface heeft.

Overigens is de X1600-serie een voorbode voor de toekomst... zeker met het oog op R580 die in Januari uit komt. Deze zal namelijk net als de X1600 ook 3 Pixel Processors per "pipe" hebben... en de R580 heeft wel degelijk 16 pipes. De efficientie zal hier dus enorm omhoog vliegen.
Als je dit in je achterhoofd houdt, dan zijn de prestaties nog best wel goed van de X1600XT, aangezien hij niet veel onderdoet voor de 6800 die wel echt 12 pipes heeft en ook nog eens een 256-bit memory interface heeft.
Als je echter de $250 MSRP van de X1600XT gaat meewegen in het performanceplaatje, dan komt een en ander er ineens heel anders uit te zien. De X1600XT komt daarmee bijna in het prijssegment van de 6800GT en X800XL, die er de vloer mee aanvegen.
De $150 kostende X1300Pro zit qua performance ongeveer op $100 kostende 6600 / X700 niveau... maar zit qua prijs dus op het niveau van X800GT, X700Pro en 6600GT. Alle 3 die kaarten maken qua performance korte metten met de X1300Pro!

Anandtech velt zoals dan ook het oordeel over zowel X1300Pro en X1600XT: veels te veel geld voor veels te weinig performance... :/

Anand geeft trouwens ook aan dat de MSRP van de XL eveneens omlaag moet. De 7800GT is overall sneller en goedkoper... de XL zit bijna in het prijssegment van de GTX.
The one caveat will be pricing. The 7800 GTX is already available at much less than where the X1800 XT is slated to debut. Granted, the 7800 GTX fell from about $600 to where it is today, but the fact of the matter is that until ATI's new parts are in the market for a while and settle into their price points they won't be viable alternatives to NVIDIA's 6 and 7 series parts. [...] While the X1800 XL can be competitive with the 7800 GT, it won't matter much if the street price remains at near the level of the 7800 GTX.
[...]
In the midrange space, the X1600 XT performs alright agains the 6600GT, but it is priced nearer the 6800 GT which performs much better for the money. [...] In case we haven't made it quite clear, the bottom line is price. The X1600 and X1300 cards will have to sell for much less than they are currently listed in order to be at all useful.
maar dat zou dan waarschijnlijk betekenen dat er nog een X1700 aan zit te komen, anders heeft ati geen goede kaart voor de mid-range to performance market in de range van 200-250 dollar
Dat zou financieel ook kloppen

79 x1300xmi
99 x1300 128
129 x1300 256
149 x1300 pro of x1600 pro 128
199 x1600 pro 256 of x1600 xt 128
249 x1600 xt 256
(gat)
449 x1800 xl
499 x1800 xt 256
549 x1800 xt 512

In dat gat past: 299 x1700 pro 128
349 x1700 pro 256 of x1700 xt 128
399 x1700 xt 256
Op de roadmap staan inmiddels de volgende cores:

R580
RV560
RV540
RV505

RV560 wordt hoogstwaarschijnlijk de X1700, en zal waarschijnlijk 8 ROPs hebben, dus in totaal 24 Pixel Shader Processors.

RV540 is waarschijnlijk de X1400. En de RV505 is echt het laagste wat er is en zal dan de naam X1100 of X1200 mee krijgen.

Maar deze cores komen als ik het goed heb pas in de eerste helft van 2006 uit, met als koploper de R580 in Januari.
als dat waar is, dan zijn dit inderdaad ernstig zieke benches voor zo'n kaart. maar nog steeds denk ik dan dan had ie toch een stuk zuiniger moeten zijn.
Sinds wanneer is het verplicht voor de nieuwe midrange om de oude high-end te overtreffen. Als de performance in de buurt komt dan is het toch oke. Alleen mijn focus licht meer op de X1800 serie.

Als ik de vorige high-end wil vervangen dan zou ik voor de X1800XL gaan.

Daarnaast denk ik dat ATI nV reactie afwacht wanneer nV met de midrange lijn van hun 7 serie komen.

Zoals de X600 X700 verhaal.
Sinds wanneer is het verplicht voor de nieuwe midrange om de oude high-end te overtreffen. Als de performance in de buurt komt dan is het toch oke. Alleen mijn focus licht meer op de X1800 serie.
De prijs is ongeveer gelijk, dus behoren de oude high-end kaarten dan ook tot het nieuwe midrange segment. Dus moeten deze ook in de vergelijking opgenomen worden. En uit deze blijkt dat de 6800GT in dit segment toch meer waar voor zijn geld is (en het gaat niet over enkele procentjes verschil...).
toch wel een afknapper... ik weet wel dat die X1800 XT 23 frames sneller is dan de 7800 GTX, maar we zijn inmiddels ook wel weer een tijdje verder. Ook lagen in andere tests de resultaten nog dichter bij elkaar (of waren die met prototypes?).
Blijkbaar was het niet ati's fout dat ze zo verlaat zijn,maar door brakke hw van 3e partij....
Ja dat is Ati's verhaal ja. Persoonlijk geloof ik hier helemaal niks van? Waarom? Ati verteld eerst dat de R520 nogal wat problemen heeft, máár dankzij een beter ontwerp zou de R580 efficienter zijn en betere yields halen. Mij lijkt dat dit stukje 3rd party hardware óók wel in de R580 zal zitten, dus waarom hadden ze dan daar niet de problemen? En als dat stukje 3rd party software toevallig nét niet in de R580 zit, zal er dus uiteindelijk weinig performance verschil zijn tussen de R520 en de R580. Eerst beweerde Ati namelijk dat de R520 wat problemen had en dáárdoor de R580 sneller was, nu zijn de problemen er niet meer voor de R520 dus (bijna) net zo snel als de R580? Ik denk dat ATI gewoon moet toegeven dat ze te laat zijn en niet met zo'n stom smoesje moeten komen. Ik geloof er iig weinig van.
Ik kijk naar welke games en hoeveel games getest worden en hoe belangrijk die games voor mij zijn.
Zo speel ik tegen woordig BF2 en DIII heb ik lang geleden van de PC gekijld. Mijn voorkeur gaat naar ATI dus. Maar 'n ander kan weer beter voor nV gaan als die DIII voor hem belangrijk is.

Conclusies slaan vaak nergens op als er maar enkele games getest zijn.

Daarnaast is er nog 'n andere probleem voor de meeste gamers en dat is dat hun favo games er velen niet van gebenched worden.
Het zou wel leuk zijn als einde jaar begin 2006 de R580 uit zou komen met exact dezelfde architectuur maar dan 32 pixel pipelines en 16 vertex shaders.

De 512mb versie is slechts $50 duurder dan de 256mb versie das niet veel. Er werd altijd gesuggereerd dat snel video geheugen duur was en de kaart daarmee $150-$200 duurder maakte. Weinig reden om nog de 256mb XT versie te kopen als je voor 10% meer prijs de 512mb versie krijgt die fors sneller is dan de 256mb versie op hogere resoluties.
De 512mb versie is slechts $50 duurder dan de 256mb versie das niet veel. Er werd altijd gesuggereerd dat snel video geheugen duur was en de kaart daarmee $150-$200 duurder maakte. Weinig reden om nog de 256mb XT versie te kopen als je voor 10% meer prijs de 512mb versie krijgt die fors sneller is dan de 256mb versie op hogere resoluties.
Er is een probleem met de prijsvergelijking. Vele GTX'en word verkocht dik onder de 450¤, waar je de X1800XT pas in november mag verwachten. En sinds dit een topkaart is, die waarschijnlijk weer te snel uitverkocht word, dan zal de prijs lang duur blijven. Je mag er zeker van zijn, dat het 450¤ vs 550¤ zou zijn moest de kaart nu uit zijn. Das is een 100¤ verschil. Ik kan zelf zonder problemen 7800GTX'en vinden voor 439¤ in Duitsland.

Dan zit je nog met het feit dat Nvidia op dezelfde dag als de XT uitkomt, de GTX met 512mb ram gaat uitbrengen. Maw, de winst van de "snelste" kaart valt weg sinds deze 9/10 kans hetzelfde memory heeft, maw, ook meer memory bandbreete. De XT haalt zijn grootste winsten in scenario's waar de GTX zijn 256mb niet genoeg is, in de andere scenario's is het meestal afwissellend wie er wint (Opengl benchies niet meegeteld want deze zijn toch nvidia terrain ).

Niet echt indrukwekkend voor een product dat nu al 3 maanden te laat is, en pas volgende maand in "massa" uitkomt. En ik zet massa tussen aanhallingstekens, want dit ziet er nogal x800xt pe achtig uit.

En de X1800XL overtuigt eerlijk gezegt niet. De 7800GT wint te vaak, en met een prijsvoordeel omdat ze in massa op de markt is. Beetje x800pro vs 6800GT all over again. En ATI heeft me toen ook goed genaait, x800pro gekocht, en maand later was de x800XL er al met zijn 16 pipes.
Mee eens.. Ik vind persoonlijk de Nvidia 7800GT nog steeds de beste prijs/kwaliteits verhouding hebben.. Zeker i.c.m. SLI mogelijkheid..
Heeft ATi je genaaid..

Of beter gezegd je leverancier? |:(
Vreemd dat niemand de extreem luide dual slot cooler vermeldt die op de X1800XT zit. En ook het feit de enorme hoeveelheid energie dat monster slurpt. Veel meer dan een 6800u en een GTX. Toch belangrijke punten voor ATi fans dacht ik zo
Kweet niet hoe jij leest, maar dit stond er in de text
...maar door de stille dual-slot koeler is dat in de praktijk verder niet storend
Sorry maar heeft T.net deze dan getest? Heb je al eens gezien wat de bron is van T.net? Juist ja ATI PR. Ik lees betrouwbare reviews zoals Hexus.net en ik quote:

"... this reviewer [is] not happy with the noise and the profile of the cooler, ... , that it's a downside that most who'll be able to afford it shortly will likely suffer."
http://www.hexus.net/content/item.php?item=3603&page=12

Advies: lees goede reviews en geloof niet alles wat ATI PR en de FP zegt (en zeker niet MJT :) ).
Jij bent echt erg. Als een reviewer iets slechts zegt over ATi, dan ben jij weer een happy camper en is de reviewsite opeens betrouwbaar. Zeggen ze echter het omgekeerde of zijn ze ergens positief over ATi, dan hoor je jou er niet over of kraak je het af.

Een paar regels verder uit dezelfde review:
The performance - where we see massive gains in F.E.A.R., sizable improvements in Far Cry and Splinter Cell: CT, and consistent CPU-bound performance to match 7800 GTX in mostly everything else - is undoubtedly mighty. Combine that with the image quality improvements and output connectivity available from the X1800 XT in terms of Avivo, the 6x AA carried over from R480 now with less performance hit, adaptive AA for improving alpha textures and rotation invariant anistropic texture filtering for basic excellent texture IQ, and you have a compelling consumer graphics product that almost demands you purchase it as soon as possible. ATI's considerable investment in a clockable new architecture on 90nm low-k has certainly paid off, despite well documented delays. Well worth the wait.
Inderdaad, een zeer goede review als ik me even in jouw schoenen verplaats als ATi-aanhanger. ;) En dan vooral dit stukje:

"The performance crown, while not as important as it used to be, is a fine fitting one to wear proudly and X1800 XT does that straight out of the gate. The general rule is that if it's D3D9 and you're not CPU limited, it'll likely blow everything else away at the time of writing."

Ben het voor het eerst eens met Aval0ne. Hexus.Net is inderdaad zeer betrouwbaar. :*)

Overigens is Hexus een van de weinige reviewers die begint over het geluid. Dus het zou dan in je op kunnen komen dat het misschien aan hun exemplaar zou kunnen liggen? Toch opvallend dat verder andere reviewsites zich er niet aan storen? De X1300 en X1600 schijnen namelijk nog meer lawaai te maken.
Ik betwist toch helemaal niet dat de X1800Xt sneller is dan de GTX. Ik heb er geen moeite mee. Ik wijs gewoon op andere zaken die nogal eens door rode jongens vergeten worden.
aval0ne leest met een groene bril op. En dan vallen sommige stukjes weg. ;)
Er wordt duidelijk meerder malen aangegeven dat de Dualslot koeler van ATI NIET veel lawaai maakt. Dat toeval Nvidia tijdens de FX serrie luidruchtige dualslot koelers had wil nog niet meteen zeggen dat elke Dualslot koeler veel lawaai maakt.
Techreport:
"The two X1800 cards are reasonably quiet. The XT's dual-slot cooler can be loud when it kicks into high gear as the system powers on, but otherwise, it just whispers."
Ohja, gaat ATI ff zen eigen R520 stokken in de wielen gaan steken. Als je ff op het got fora volgt zou je lezen dat er ATI sheets zijn die melden dat de R580 ready & working @ ATI is en ready for fall shipment is.

De R520 is gewoon zo laat omdat er problemen waren met de chips die ze niet aan volledige snelheid kregen.

De R580 heeft echter geen productieproblemen gehad waardoor deze reeds klaar is. Nuja, kan zen voordelen hebben voor de beschikbaarheid van deze kaarten.

Als ATI de R580 nu zou uitbrengen, zouden ze de R520 die tonnen heeft gekost aan productie en research gewoon stokken in de wielen steken en zouden ze dus de prijs omlaag moeten halen waardoor ze eerder naar verlies toe gaan draaien dan winst.

Voor zover ik weet is de 7800 Ultra toch ook reeds klaar, waar blijft die dan !!!
Nvidia zou hebben aangegeven dat er geen ultra komt van de 7800. nieuws: 'Nvidia ziet af van GeForce 7800 Ultra' Op zich vind ik het natuurlijk een knappe prestatie van ATI maar daar hebben ze ook vier maanden langer de tijd voor gehad dan Nvidia. In dat licht gezien is het dus niet zo knap. Komt nog bij dat toen de 7800 werd aangekondigd stonden er ook meteen van die kaarten te koop in de pricewatch. Ik heb nu nog niets gezien bij allerlei webshops. En Nvidia heeft al aangegeven dat er in januari een opvolger komt van de G70 en ik denk niet dat ATI dat kan of ze moeten hun rendement op de X1800 kaarten wel erg in gevaar brengen.
Nvidia komt in januari met de G72, de 90nm variant van de G70.
Tegelijkertijd met de R580 dus.
Als er al kaartproducenten zijn die de nVidia chip hoger klokken dan nVidia's standaardwaarden, waarom zou nVidia het zelf dan doen. Ze hebben al laten zien dat de G70 core zeer goed overklokbaar is en dat er dan veel betere resultaten mee kunnen wordenn behaald!

De overklokbaarheid van de ATi kaart moet nog maar blijken maar gezien de huidige snelheden zeker in vergelijking met de review van een maand terug door Sander Stassen op een preproductiemodel, denk ik dat ze al het maximale halen uit deze core!

Ik vraag me af of ze via via die review van SS niet hebben georkestreerd om te kijken wat ze nog aan de core moesten doen om hem concurrerend te maken! Ik zet toch echt mijn geld op nVidia als het om het totaalplaatje moet gaan. Dit ziet er wel leuk uit maar het is maar de vraag of hier nog meer uit kan worden geperst. Ik denk van niet!
dat heet productspreiding, zolang we product X verkopen, hoeft product Y nog niet op de markt, als de concurrent iets sneller op de markt zet dat X, dan pas geven ze Y vrij

zelf al lanceren ze nu de R580, daar halen ze te weinig winst uit om de R520 terug te verdienen
Ik vind dit toch ronduit tegenvallen. Vooral de X1600 voor het commercieel belangrijke middensegment. Waarom toch zo een gecastreerde kaart, met slechts 128bits geheugenbus en 128 'threads' (klopt dat wel, dat zou 4 pp betekenen?). Dat is maar een kwart van de 1800! Terwijl het met die geheugenring toch makkelijker (minder lagen pcb) te maken zou moeten zijn?

Wat ook vreemd is: waarom zit ter zo'n enorm gat tussen de $250 1600XT en $449 1800XL. Moeten daar de oude topmodellen in de uitverkoop ofzo? Qua prestaties zit daar ook een enorm gat.

Ik zit eigenlijk een beetje af te w88 om een pc te upgraden en daarbij ook een nieuwe kaart te kopen. Ik was toch wel benieuwd naar de 1600. Maar ik denk dat het toch een 800GTO wordt. Dan maar geen HDR en SM3, maar een beetje betere framerates in toekomstige spellen.
Ik ben geen echte fanboy van Ati (van niemand trouwens, wel loyaal), en vind 2D features de 1e prioriteit. Daarom zal het toch wel weer Ati worden, maar dit is echt teleurstellend.
Maar ik denk dat het toch een 800GTO wordt. Dan maar geen HDR en SM3, maar een beetje betere framerates in toekomstige spellen.

Is het niet zo dat toekomstige spellen het juist moeten hebben van HDR en SM3?
Als ik kijk naar de prestaties van de X1600 en de X1800 dan kom ik tot de conclusie dat vooral de nieuwe spellen zoals Fear en BF2 behoorlijk goed profiteren van de SM3.
Neemt niet weg dat de X1600 idd wat zwakjes is voor de huidige spellen.

het is dus maar zeer de vraag hoe goed de implentatie van van SM3 in de 7800GTX is aangzien de 7800GTX in de SM3-spellen zoals Farcry, Fear, Splintercell, BF2 wat meer achterkomt t.o.v. x1800xt.

Daarbij hebben de X1600 en X1800 leuke kwaliteits-verbeteringen in AA, AF, Adaptive AA en HDR +AA.
http://www.hardocp.com/article.html?art=ODIyLDg=
[quote]
Waarom toch zo een gecastreerde kaart, met slechts 128bits geheugenbus en 128 'threads' (klopt dat wel, dat zou 4 pp betekenen?). Dat is maar een kwart van de 1800![quote]

Ja dat heb je goed gezien. Je kan zoals ik hierboven al ergens heb aangegeven niet meer pixelpipelines spreken. Als je dat toch wil doen dan is de X1600 is in feite niets meer dan een X1300 met "4 standaard pipelines". Maar elke pipeline heeft dus wel 3 pixelshader processors in plaats van 1. Vandaar dat de X1600 dus 12 pixels tegelijk kan verwerken. Maar doordat er maar "4 pipelines" of beter gezegd 4 ROPs zijn, kunnen er maar 128 threads tegelijk worden verwerkt.
Terwijl het met die geheugenring toch makkelijker (minder lagen pcb) te maken zou moeten zijn?
Die ringbus en nieuwe memorycontroller is vooral bedoeld om hogere snelheden mogelijk te maken en om de efficientie te vergroten van de threading (iets wat je gaat merken bij echte SM3.0 games met veel dynamic branching).

De performance valt inderdaad een beetje tegen, maar ik denk dat in het geval van de RV530 er nog veel via de drivers valt te optimaliseren. Per game kan de memorycontroller anders worden ingesteld, alsmede ook de loadbalancing anders worden verdeeld over de threads. Aangezien de RV530 toch een nieuwere architectuur herbergt dan de R520, zal het iets langer duren voordat alles optimaal werkt.

En uiteindelijk hebben ze hier meer baat bij, aangezien de R580 van dezelfde architectuur gebruik maakt (dus 16 ROPs die elk 3 Pixelshader Processors hebben = 48 PSPs).

Dat laat niet weg dat de prijs omlaag moet en ook zal gaan. Op dit moment heeft nV technisch gezien nog geen next-gen in hetzelfde segment uit. Daardoor kan ATi de prijzen hoog houden, ook al kan een GF6800 en GF6600GT het nog aardig bij houden.
Toch knap. Een hoop begonnen te twifelen aan de capaciteiten van deze kaart. En toch toveren ze nog wat extra power uit de hoed. Goed, goed.. te laat en pas over 6 weken leverbaar maar toch knap.

Het gaan weer leuke tijden worden. Misschien dat deze nieuwe concurentie weer wat prijzen doet dalen
En even de eerste review niet te vergeten:

http://www.hardwareanalysis.com/content/article/1813/

En uiteraard de reactie van Sander Sassen, nu de eerste reviews bekend worden:

http://www.hardwareanalysis.com/content/article/1818/

Mijn steun had je al :)
Nou ik heb die Review even door gebladerd van HWA en ik moet toch zeggen dat de resultaten wel erg veel afwijken van de andere reviews die er gepost zijn.

HL2 (1600 4xaa) bijvoorbeeld. Daar zou de GTX 2x zo veel fps halen dan de X1800XT, echter op de meeste andere sites wint de Radeon het gewoon van de GTX. Op hogere resoluties is het verschil vaak alleen nog maar groter (zie firingsquad).

Het valt me echter wel weer ontzettend op dat je duidelijk kunt zien welke sites er pro-Nvidia zijn en welke pro-Ati. Kijk maar eens naar welke spellen er gebruikt worden voor de benchmarks......
Die Sander blijft me steeds maar weer verbazen.

Uit alle reviews op internet blijkt inderdaad dat zijn cijfers van geen kant klopten, maar ondanks dat iedereen dat kan zien, beweert hij vrolijk dat ze zijn cijfers bevestigen. Ongelooflijk.

Maar als je het overigens over pro-ATI of pro-Nvidia hebt, moet je ook eens letten op welke sites nu echte apples-to-apples benchmarks doen.

ATI heeft nu immers die nieuwe AF methode die geen "optimalizaties" heeft. Maar als je dus fps gaat vergelijken, dan moet je wel de beeldkwaliteit gelijk houden voor een goede vergelijking. Maar dat doet vrijwel niemand, want ze zetten de 7800 op de AF met optimalisaties en de X1800XT op de mode zonder. (Terwijl je ook daar diezelfde optimalisaties aan zou kunnen zetten, en zo nog wat fps kan winnen)
Niet omdat ATI PR het zegt, maar omdat je het zelf kunt constateren in screenshots op bv Hardocp.
http://www.hardocp.com/im...GlYSnBoRUNfOF8xMl9sLmpwZw==

Kijk maar eens naar die schuine muur, zoals die naar de tunnel toe loopt.

En Nvidia heeft GEEN highQ mode zonder optimalisaties. In ALLE settings houd je bij Nvidia die hoek-afhankelijkheid in de AF. (Zoals ATI in het verleden ook altijd had) Dat zie je dan ook duidelijk in datzelfde screenshot.
Je hebt gelijk dat die muur idd niet goed is bij nvidia, maar als je naar de verte kijkt zie je dat de ati kaart ene paar heel kleine details weglaat die de nvidia echter wel rendert.
Neem nu zo een beveiligings ding, dat zie je nog net voor de ingang van de laatste tunnel bij nvidia, maar bij ati is die verdwenen, of bv een klein hobeltje van de sporen.

Je kunt zeggen dat het mierenneuken is, maar het duidt wel aan dat ook de ATI drivers niet zuiver zijn. Dat zie je ook duidelijk in de screenshot, je kunt discussieren over wat het belangrijkste is, maar ik vind dat het alle2 niet kan.
@sjekneck
Oh boy... Als je nou voor je onzin gaat uitkramen over mogelijke bugs nou eens even de moeite zou nemen om de rest van dat artikel wat betreft AF even te lezen?

Dan zie je namelijk dat wanneer je bij ATI de "oude" AF aan zet, dan je dan EXACT hetzelfde plaatje krijgt als bij Nvidia.
En dan is ook niet vreemd, want dat is PRECIES wat je verwacht als je de hoekafhankelijke AF optimalisatie toepast. En we weten van zowel ATI en Nvidia al lang dat beiden die gebruiken. Dat is al zovaak en zo nauwkeurig onderzocht dat daar niet de minste geringste twijfel over is.
(of wil je soms beweren dat precies dezelfde "bug" ook in de oude ATI AF methode zit?)

Dit is echt geen rocketsience. Dit zijn algemeen bekende feiten, die hier op tweakers gesneden koek zouden moeten zijn. (Of misschien ben ik wel gewoon verwend door de Beyond3D forums waar dat soort zaken wel gesneden koek zijn)

Verder klopt het dat je in andere plaatjes veel minder verschil merkt. Ik heb dan ook nooit beweerd dat er in die andere plaatjes veel verschil is. Maar dit plaatje is wel het bewijs dat die het ATI verhaal over die nieuwe AF methode klopt. En dat bewijs wilde aval0ne hebben.

Het punt wat ik maak, is dat er twee verschillende AF beeldkwaliteiten gebruikt worden bij de benchmarks. Die betere AF methode van ATI kost je echter wel weer een paar % prestatie.

Je geeft zelf al aan dat het verschil maar klein is, en eigenlijk alleen op die muur te zien is. Je zal het wellicht dus totaal geen reden vinden om geen Nvidia te kopen, en wellicht ook geen reden vinden om het op een ATI kaart in te schakelen. Maar dan is het dus wel van belang om te beseffen dat je dus een paar % prestatiewinst kunt optellen bij de huidige benchmark scores door op de ATI kaarten de AF methode te verminderen tot het zelfde nivo van de 'oude' ATI kaarten en de huidige Nvidia kaarten.

In een apples-to-apples benchmark moet je altijd één factor gelijk maken en de andere meten. Dus of gelijke beeldkwaliteit en fps meten, of gelijke fps en de beeldkwaliteit meten. Dat is dus bij zo goed als geen enkele review gebeurd.

Als je me daarom dan een fanboy vind, dan kan ik alleen maar medelijden met je hebben.
@constantino

Ik zie niet wat je bedoelt met een hobbeltje in de sporen. Ik heb ze aandachtig bekeken, maar ik kan echt niets vinden. Die dingen zijn in alle screenshots kaarsrecht en nergens zit een hobbeltje. (in dat level zit ook geen hobbeltje in die sporen)

Ik zie wel wat je bedoelt met die hele kleine details. Helemaal aan de horizon lijkt inderdaad dat beveiliginsding niet te zitten.
Maar dat komt niet door AF, aangezien dat op textures werkt, terwijl dat beveiligingsding een object is.

Om zeker te weten wat daar aan de hand is zouden we Brent moeten vragen om dat eens verder te bekijken.

Maar ik zou er niet meteen uit durven concluderen dat er iets onzuivers in de drivers zit. Het gebeurd erg vaak in spellen dat in de extreme diepte er kleine verschillen zitten. Zo'n object kan bv net wel of niet in beeld zijn, omdat ie net op het randje zit waar dat object door het spel geladen word. Maar dat zou je dan verder moeten onderzoeken op specifiek dat aspect.
Het is in ieder geval niet iets nieuws in de X1800 aangezien de X800 hetzelfde laat zien.
Als er dus al iets aan de hand zou zijn, dan zit het er al een jaar in.
Overigens is ook de kleur van de grond net voor die laatste tunnel bij de ATI kaarten wat lichter dan bij de Nvidia kaarten. Wellicht wat verschillen bij de belichting? ATI en Nvidia hebben daarin wel vaker kleine verchillen tov elkaar.
Goeiendag wat een onzin hier allemaal, tenzei we raytracing gaan doen zijn video kaarten niet meer dan cheats, reviews moeten altijd met een korreltje zout worden genomen wanneer er alleen naar prestaties gekeken word.

Overgens zou denk ik niet dat ATi het zich kan veroorloven om met die toch al niet zo grote nummers en efficiente texture units ineens alle optimizations eruit halen, bovendien zijn dat erg sterke optimalisaties waardoor wij 16x selecteren en beeld kwaliteit technisch misschien maar 15x zien, voor dubbellen performance zie ik het verschil niet.

Aan benchmarks alleen heb je ook werkelijk niets, een gedeelte van de architecture plus heel veel benchmarks die op verschillende instelling gedaan zijn kunnen een beetje licht in de zaak werpen, en dan nog is het moeilijk om 7800GTX als echt zwakker te zien als de X1800XT, zoals ik al gezegd heb, de kaarten zijn best aanmekaar gewaagd.
Met raytracing blijven het ook cheats...
Hoe diep wil je immers raytracen? Je hebt al iets van 4 reflecties nodig wil je mooie transparante voorwerpen laten zien. Dat is nogal heftig.

Maar in werkelijkheid is dat natuurlijk niet beperkt tot 4, dus raytracing blijft ook een cheat :)

Gezien de prestaties zou het inderdaad wellicht handiger voor ATI zijn geweest als ze de nieuwe AF methode nog niet vrijgegeven hadden en daardoor betere scores hadden gehaald in de benchmarks. (en tegelijkertjid eerlijker vergelijkingen hadden gehad in de benchmarks)

En dan hadden ze over een maand bij een nieuwe driver versie "ineens" met deze nieuwe feature kunnen komen.

Aan benchmarks alleen heb je inderdaad ook niets. Zowiezo vind ik de huidige review artikelen allemaal nogal tegenvallen. Erg weinig diepgang, erg weinig verschillende benchmarks, weinig oog voor IQ of de impact van nieuwe features.
De reviewers klagen dan wel over paper-launches, maar hun eigen artikelen zijn ook "paper-launches"
ATI heeft nu immers die nieuwe AF methode die geen "optimalizaties" heeft.
En hoe weet je dat? Omdat ATi PR het zegt? Zoals ten tijde dat ATi PR beweerde dat ze full trilinear deden?
Nvidia heeft ook een high Q mode zonder optimalisaties.
MJT: leer eens de technische kant van de zaak. ATI heeft een andere AF mode dan nvidia, een AF mode die betere kwaliteit geeft (adaptive AA). Dit betekent niet dat nv optmalisaties heeft. Hun AF zonder opts is gewoon minder want ze hebben geen adaptive AA.
En dat jij opts kan herkennen op een screenshot, wauw.
@avalOne

Waarom vergelijk jij AF met AA? AF is Anisotrophic Filtering en heeft te maken met het filteren van textures. AA is anti aliassing en heeft te maken met het weghalen van "kartel randjes". Die adaptive AA heeft te maken met alpha textures en MSAA.
@aval0ne,

Ten eerste is het duidelijk dat jij degene bent die de technische kant van de zaak moet gaan leren, want zoals hiostu ook al zei haal je allerlei zaken door mekaar heen.

Ten tweede blijkt dat je dat screenshot niet bent gaan bekijken, want zelfs de allergrootste nvidia fan kan bij zo'n duidelijk verschil niet beweren dat ie het niet ziet.

Als je het screenshot bekeken hebt, zal ook jij moeten erkennen dat je bepaalde opts wel degelijk op een screenshot kunt herkennen.
@mjt.

Dus jij beweerd na "1"screenshot waaruit blijkt dat nVidia het minder doet (wat heel goed toeval of een bug kan zijn) dat Ati het beter doet? Als je alle plaatjes even naloopt zie je dat er niet tot nauwelijks verschil is te zien behalve bij dat plaatje bij de schuine muur.

En wanneer ga je nou eens kappen met iedereen als fanboy af te schilderen als ze een andere mening hebben..
Iedereen is hier fanboy, maar mjtdevries is zo objectief als het maar kan :r :r
ik moest die p'review' nog wel eens zeer kritisch doorlezen, omdat de resultaten nogal beroerd waren. In vergelijking met de 7800 GTX komt de nieuwe 1800 XT er in de echte tests er toch beter uit dan bij HwA. Maar de resultaten lijken toch wel redelijk in de buurt te komen.
Helaas. (voor Ati, niet voor Sander).

Gelukkig voor HwA heeft ie geen 1600 laten testen, want dan had helemaal niemand hem geloofd :o
De resultaten vallen mij namelijk ronduit tegen. Een 800GTO is een veel betere optie voor het geld, met 12 echte pipelines voor minder geld.
In vergelijking met de 7800 GTX komt de nieuwe 1800 XT er in de echte tests er toch beter uit dan bij HwA. Maar de resultaten lijken toch wel redelijk in de buurt te komen.
Uiteraard komt de X1800XT er beter uit dan in Sander's tests... die tests zijn gerund op een pre-productie R520 sample op 600/1400 met beta-drivers.
In de tussentijd zijn de clocks van de XT verhoogd naar 625/1500 en heeft het board + bios + driver de final status bereikt.

Als ik de benches bekijk kloppen de meeste trends die je ziet ook wel. De X1800XT is in vergelijk met de 7800GTX iets langzamer in Half/Life2, een stukje langzamer in Doom3, ongeveer gelijk in FarCry. Nu met hogere clocks en verbeterde drivers draaien HL2 en FarCry overigens wat sneller op de X1800XT... bij beide games hangt trouwens ook veel af van het gebenchte level (sommige wat levels zijn sneller op nV, andere op ATi)
Alleen de trend in de Splinter Cell scores wijken behoorlijk af, maar dit kan ook heel goed liggen aan clocks en driveroptimalisaties.

Ik denk persoonlijk dat die scores van Sander behoorlijk representatief waren voor de R520 in die tijd.
5 games maar in zijn test waar twee splinter cell en DIII nV zwaar prefereren. Zijn gewoon te weinig games en 'n grotere gebalanceerde mix van openGL en DirectX games is ook wel zo handig.

OpenGL of Directx maakt heel veel uit.

Dus 'n Conlusie uit 5 games geld voor die 5 games en de gebruikte driver.

Hard OCP benched meer games waaronder ook de populaire en zware BF2.

Daarnaast komen er eind dit jaar 'n paar nieuwe games bij. Ik kijk uit naar X3 the threat. X2 was ook al een benchbare game.
COD2 lijkt me ook wel wat, maar ik zal me totaal niet blindstaren op resultaten van 'n demo.

Het is altijd 'n grote verrassing wat nieuwe games gaan doen. Ik denk dat ik voor beide ga :)
OpenGL of Directx maakt heel veel uit.
Het zou niets moeten uitmaken, maar aangezien ATI te lui is om hun OpenGL drivers en ondersteuning een beetje up-to-date te houden moeten we maar gelijk OpenGL niet meerekenen?

Ik zou eerder willen zeggen dat het feit dat de geteste OpenGL games op een nVidia zo goed draaien, géén voordeel is voor nVidia, maar een slechte zaak van Ati, en zo is het gewoon.
Niemand heeft hier beweerd dat je OpenGL helemaal niet mee zou hoeven te rekenen.

De enige suggestie was dat er een wat meer gebalanceerde mix tussen OpenGL en D3D benchmarks zou moeten zijn.
Aangezien 90% van de spellen D3D gebruiken is het niet erg logisch als 50% van de gebruikte benchmarks OpenGL zijn.

Is dat nou zo'n vreemde gedachte?

(oh en btw, in de keuze wat betreft het ontwerp heb ik het uiteraard over stencil shadows en reverse z-test.
Het grappige is overigens dat Carmack met id's volgende engine en Epic met Unreal Engine3 daar weer helemaal vanaf stappen en over gaan op shadows maps met dynamic branching. Met dit http://techreport.com/rev...000/shadermark-shadow.gif in gedachten zou het me niet verbazen als mensen dan ineens denken dat ATI's OpenGL drivers ineens geweldig zijn. (en ook dan ligt het weer gewoon aan de engine)
Kan iemand op dit moment 5 moderne games opnoemen die OpenGL vereisen?

Nee? Dan is dat voldoende reden om OpenGL niet zo hard mee te rekenen nietwaar?

Is ook een goede reden voor ATI om meer tijd in de DirectX drivers te steken nietwaar?

Verder is algemeen bekend dat de slechte prestatie in D3-engine games niet specifiek met OpenGL te maken heeft, maar alles met de eigenaardigheden van die engine. (Waarvan bij het ontwerp al bekend was dat dat zeer nadelig zou zijn voor ATI kaarten)
Ooit wel eens Linux gebruikt? Of Firefox?

Nee? Ow dus als websitebouwer hoef ik geen rekening te houden met Firefox en alleen met IE want IE is de grootste? En hoeven bedrijven alleen maar drivers voor windows te bouwen omdat windows de grootste is en dus Linux niet mee hoeven te rekenen?

Onzin! Er zijn verdomd goede games gemaakt op de OpenGL API (Doom3 bv) maar toch mogen we hem niet meerekenen want DirectX is vele malen groter. ATI moet gewoon zorgen dat hun OpenGL drivers fatsoenlijk bijgewerkt zijn en dat hun ondersteuning op z'n minst OK is.
Waarvan bij het ontwerp al bekend was dat dat zeer nadelig zou zijn voor ATI kaarten
Logisch he, want bij het ontwerp wist men al dat ze de OpenGL API gingen gebruiken, welke ATI voor geen meter ondersteund en dus kan iedereen verzinnen dat de engine nadelig zou zijn voor ATI kaarten.
Ja als nvidia een dubbelslots uitbracht hoorde je ze altijd allemaal zeiken over de energie en warmte maar nu heeft nvidia dat beter voor elkaar. Hoop dat er snel een 512mb 7800 komt zodat we echt kunnen zien wat het verschik is ; 1 fps?
Dan heb je nooit goed opgelet wat er daadwerkelijk gezegd werd.

Er werd bij de 5800Ultra namelijk hoofdzakelijk geklaagd over de teringherrie.
De warmte was bij die koeler geen probleem, aangezien de warmte niet in de kast terecht kwam. (lucht werd van buiten aangezogen en weer buiten gedumpt)

Energie was toen voor sommigen een probleem, omdat veel mensen toen een PSU hadden die krap aan de maat zat. (Dat is tegenwoordig veel minder het geval)

Bij de 6800Ultra was er het probleem dat de lucht van onderen werd aangezogen waardoor je onder het AGP slot 2!! pci slots vrij wilde houden.

Volgens het artikel hier is de dual-slot koeler stil, dus dan is het enige probleem van deze dual-slots koeler dat mensen met een SFF machine 'm niet kunnen gebruiken.
Vandaar dat er nu niet zoveel over geklaagd word.
MJT: je hebt nooit een 6800u gehad dus je kan daar niet over oordelen. Ik begrijp dat jij als ATI fan niks tegen dual slot coolers hebt, maar jij vertegenwoordigt niet heel de wereld natuurlijk. De meeste ATi fans hadden wel iets tegen de dual slot cooler net omdat ie dual slot was en niet hoe die lucht aanzoog.
Plus deze dual slot koeler maakt nog eens heel wat herrie.
http://www.hexus.net/content/item.php?item=3603&page=12
Waarom moet je een 6800U gehad hebben om te ZIEN hoe de koeler werkt?
Dan kan je met elk screenshot al zien. (en uit de vele reviews lezen)

En als een kaart de lucht van onderen aanzuigt, dan is het gewoon een ongeschreven regel dat je dan dat pci slot eronder vrij houdt.
Dat heb ik niet verzonnen en dat hebben ATI fans ook niet verzonnen, dat is gewoon algemeen aanvaard.
En jij als tweaker zou dat ook moeten weten.

Maar ik begrijp dat je het vandaag erg moeilijk hebt, dus ik zal verder maar niet op je fanboy gedrag ingaan.
Zo zie je maar wat een (misschien wel kleine maar wel doorslaggevende) fout van een ander bedrijf kan veroorzaken.

Je gebruikt dus iets van een ander bedrijf (onderdeel, circuitry, chip, whatever) als soort black box in je design om tijd en geld uit te sparen en zie wat er gebeurd is.

En is dit dan de verantwoordelijkheid van dat derde bedrijf? (want die zullen in overleg en overeenkomsten wel hebben moeten claimen en verdedigen dat het onderdeel zou presteren zoals zij beweerden dat het zou doen)

En dan wordt dit, eenmaal gelokaliseerd, meteen opgelost. Daar zullen heel wat mensen serieus pissed zijn. Uw antwoord op de concurrent loopt maanden vertraging op, moeilijkheden, extra kosten, lage yields. De schade kan misschien wel meevallen, maar stel u voor dat dit veel langer had geduurd, het had Ati een serieus zware financiele kater kunnen opleveren (vroeger uitbrengen van het model dat hier op volgt zonder de R&D van de R520 er terug kunnen uithalen, of erger, zeker in de hardware markt, zonder geduld, zonder echte 'fan-base' kan het rap verkeren) Om nog maar te zwijgen van de manier waarop Ati in dat geval dat ander bedrijf helemaal met de grond zou gelijk maken met aanklachten ed. (als dat nu al niet aan het gebeuren is)

Zo zie je maar, de domste, miniemste dingen kunnen serieuze stokken in de wielen steken bij ontwerp en ontwikkeling
Ik vind 25W meer verbruik toch ook echt wel een punt van aandacht! Ik weet niet precies hoeveel een 7800GTX nodig heeft, maar ik denk dat 25W toch snel 20 tot 25% meer is.

In alle reviews vind ik dit aspect nogal onderbelicht. Mijn persoonlijke voorkeur gaat sowieso uit naar de 7800 serie, drivers zijn al verder ontwikkeld doordat de kaart al veel langer op de markt is.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True