Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 83 reacties
Bron: ATi

ATi heeft de langverwachte Radeon X1950-familie vandaag officieel gelanceerd. De gloednieuwe videokaart is voorzien van de R580-videocore en introduceert ondersteuning voor GDDR4-geheugen. Het bedrijf kondigde twee high-end kaarten aan, evenals twee budgetvriendelijke entry-level planken. Het topmodel van de collectie, de X1950 XTX, zou volgens de fabrikant in staat zijn om concurrerende oplossingen met twee gpu's te verslaan als het op prestaties aankomt. Ten opzichte van de huidige generatie X1900-kaarten zouden de nieuwe versies voor een prestatiewinst van ongeveer tien procent zorgen in verschillende populaire benchmarks, tenminste als de cijfers van ATi blijken te kloppen. De X1950-videokaarten zijn verkrijgbaar in XTX- en Crossfire-versies en hebben beschikking over maximaal 48 pixel shaders, 8 vertex shaders en kunnen voorzien worden van 256bit-GDDR4-geheugen dat tikt op een kloksnelheid van 2GHz. De R580-core is op 90nm gebakken, herbergt 384 miljoen transistors en klokt af op 650MHz.

X1950Verschillende sites gingen al aan de slag met de videokaart om de beweringen van ATi aan de werkelijkheid te toetsen. Volgens Toms Hardware Guide moet een en ander met een fikse korrel zout genomen worden. De X1950 XTX die zij in handen kregen versloeg de Nvidia-concurrentie dan wel in zes van de tien relevante benchmarks, maar dit resultaat werd vooral gehaald op lage resoluties. In de hogeresolutiebenchmarks was de ATi-kaart slechts in één 'extreme HD resolution'-test, waarbij er 2560 x 1600 pixels weergegeven werden, de snelste. Pluspunt is dan weer wel dat de adviesprijs van de X1950 XTX met zijn 450 dollar zowat honderd dollar lager ligt dan de gemiddelde prijs van de concurrerende GeForce 7950 GX2. Wie minder goed voorzien is van grote eurobriefjes, kan terecht bij de X1650 Pro die voor ongeveer honderd dollar in de winkels moet liggen. Voor dat geld krijgt men twee DVI-uitgangen, een kloksnelheid van 600MHz en GDDR3-geheugen op 1,4GHz. De X1300 XT beschikt over een core op 500MHz en geheugen dat op 800MHz tikt.

De kanttekeningen die Toms Hardware Guide maakt, lijken overigens in alle reviews terug te keren. Zo meldt HotHardware dat het vlaggenschip, de X1950 XTX de GeForce 7900 GT in zowat alle benchmarks weet te verslaan en op gelijke voet staat met de GeForce 7900 GTX, maar dat de ATi-kaart consequent verslagen wordt door de GeForce 7950 GX2 met zijn twee videocores. Ook in een Crossfire-configuratie zijn de X1950 XTX-kaarten sneller dan een 7900 GTX SLI-opstelling, maar worden ze de loef afgestoken door de Quad-SLI-configuratie. Gezien het feit dat het in dat geval een strijd is van twee ATi-cores tegen vier Nvidia-cores, stellen de reviewers echter dat het verschil in prestaties verrassend klein is.

Radeon X1950 XTX

Aangezien de meeste reviews gelijkaardige resultaten laten zien, zullen we ze niet allemaal bespreken, maar zal het onderstaande lijstje aangevuld worden naarmate er interessante besprekingen opduiken.

Far Cry (4xAA, 16xAF, 1600x1200) (fps)
GeForce 7950 GX2 110,66
Radeon X1950 XTX CrossFire 107,65
Radeon X1900 XTX CrossFire 100,66
GeForce 7900 GTX SLI 100,31
GeForce 7950 GX2 Quad-SLI 96,69
[*] Radeon X1950 XTX 93,9
Radeon X1900 XT 512MB 89,11
Radeon X1900 XT 256MB 77,65
GeForce 7900 GTX 77,41
GeForce 7900 GT 58,81
Door gebruik te maken van de ingame AA-mogelijkheid, ipv SLI-AA, schalen de resultaten niet goed op bij Quad-SLI-configuraties. Zie bron voor meer uitleg.
Moderatie-faq Wijzig weergave

Reacties (83)

Ik ben eigenlijk wel benieuwd naar het energieverbruik van de kaart. De 1900XT en XTX verbruiken heel erg veel energie, zeker in verhouding met de NVIDIA kaarten.

Verder is het gewoon een dikke kaart natuurlijk voor de die-hards :)

En quad-SLI is dus duidelijk totaal nog geen optie als de prestaties gewoon achteruit gaan
Techpowerup heeft dit getest.

de X1950 XTX gebruikt load iets van 23 watt minder dan de X1900 XTX. een kleine verbetering.
Aangezien al die reviewers de ATI kaarten zitten te vergelijken met een Nvidia 7950GX2 is het wellicht nuttig om op te merken dat die GX2 meer energie verbruikt dan de X1900XT en X1950XT
http://www.madshrimps.be/...&artpage=2019&articID=482
is het nog wel de moeite een dx9kaartje te kopen aangezien dx10 al aan de deur staat te popelen?
deze kaarten zullen zeker neit slecht presteren in dx10 mode, maar ik denk toch dat het nu beter is even te wachte, en een full dx10 supported kaartje aan te schaffen in oktober/november of zo niet?
Volgens rvvnr1 hieronder staat de X1650XT voor oktober geplant, lijkt me sterk dat dan ook DX10 kaarten uit komen.

T laatste was ik heb gehoord was december/january.
de eerste kaarten van een nieuwe generatie DX kunnen meestal de uiteindelijke eerste games die van die DX gebruik maken (die komen meestal minimaal 1 jaar later, vaak meer)) toch niet goed aan.
Dat zou ik niet te hard zeggen.

Bij de 9700Pro was dat echt niet het geval. Bij alle kaarten daarvoor wel.

En de reden was ook heel simpel. De 9700Pro was van het begin af aan als echte DX9 kaart ontwikkeld.

Terwijl in de jaren daarvoor een nieuwe videokaart de nieuwe DX versie alleen maar als "checkbox feature" aan boord had. Maar eigenlijk was het dan gewoon een kaart die gericht was op de oude DX versie.

Tuurlijk is het moeilijk toekomst voorspellen, maar aangezien ATI meteen naar unified shaders gaat met de R600, kun je wel verwachten dat het opnieuw een kaart zal zijn die volledig op DX10 gericht is.
Tegen die tijd is deze kaart allang weer verouderd :+
De eerste series DX10 kaarten hebben vast nog last van kinderziektes... je blijft wachten..
Uhmm Ik heb ook veel sites gezien waar de X1950 CF opstelling na genoeg hetzelfde presteerde als de Quad SLi. Dus de stelling dat Tomshardware gelijk had en dat andere sites dit ook lieten zien is niet echt waar.

+ een 7950 GX2 kan nog steeds geen HDR + AA en HQ AF.

En ATi's standaard setting geeft beter beeld dan de Nvidia setting. Bij Nvidia met je HQ forcen om op de standaard IQ van een ATi kaart te komen. En dan zien de scores er heel anders uit.
Tja,elke site houd er z'n eigen test methoden op na,feit is dat ati nu met een nieuwe serie videokaarten is uitgekomen en ze zullen wel niet de laatsten zijn.
Belangrijker is of dit wat toevoegd aan het huidig assortiment van ati zelf,als ik zie wat het prestatie verschil is met hun huidige topkaart.
Zou ik dus persoonlijk deze kaart overslaan en wachten of voor de xtx gaan die waarschijnlijk weer goedkoper wordt.

btw.aardige info die je nog even geeft,maar kun je ook enkele dingen noemen die nvidia wel ondersteund en ati niet :7
De review van hardware.info is wel erg positief. (en nederlandstalig :) )
http://www.hardware.info/..._Radeon_X1950_XTX_review/
Hardware info heeft een veel eerlijker set met spellen genomen. Allemaal moderne spellen, die de GPU zwaar belasten. Niet van die oude zut zoals Farcry die met alles aan nog steeds over de 100 fps zit.

En met moderne zware spellen komt de superieure pixel shader capaciteit van de ATI X1900 serie duidelijk naar voren.
Inderdaad erg positief in de conclusie maar in elke benchmark is de X1950XTX trager dan de GX2. Ik snap dan ook niet hoe ze tot de conclusie komen dat dit de beste high end kaart is. Hun eigen benchmarks bewijzen het tegendeel!
@Emu:
Die X1650XT staat voor oktober gepland, zie o.a. HIER.
Ben ik nu de enige die me afvraagt wat het nut is van een crossfire opstelling van deze kaarten. Je betaalt 2x zoveel en je behaalt slechts 10 a 15% prestatiewinst, ik meen dat de overstap van non-sli naar SLI en dergelijke toch groter was
Crossfire can wel degelijk enorme snelheidswinst bezorgen. MAAR, dan moet je spel natuurlijk wel zwaar GPU begrensd zijn. Een dusdanig oud spel als Farcry is dat absoluut niet. (Nogal onnozel van tweakers om dat spel te laten zien...)

Nee, ga dan eens kijken naar Oblivion.
Bijvoorbeeld bij Anandtech: http://www.anandtech.com/video/showdoc.aspx?i=2821&p=8

Met bijna alles aan, op 2048x1536, levert dat:
31.1 fps voor crossfire t.o.v. 18.5 fps voor single.
Maar ook op een normale resolutie van 1280x1024 levert dat 48fps vs. 29.1 fps.

Een crossfire is bij Oblivion dus 65% tot 68% sneller!

Bij Fear kun je heel aardig de overgang van CPU naar GPU limietering zien. Op 1280 levert crossfire maar 34% snelheids winst op. Op 2048 krijg je 73% snelheids winst.

In HL2 kun je zelfs tot 82% winst komen, maar opnieuw op absurd hoge resolutie.
Dat heeft niet met crossfire of SLI te maken. Het probleem is dat op een gegeven moment de GPU niet meer de bottleneck is. (maar bv de CPU)
En dan kan je wel meer GPU power toevoegen, maar dat tikt dan niet meer aan.

Tegenwoordig gebeurd dat sneller dan toen SLI geintroduceerd werd. (de ontwikkeling van de GPU's is razendsnel blijven gaan, terwijl de CPU toch een beetje afgekalfd is)
Damn, bij mij roept de GF 7900 GT nog steeds de gedachte aan 'high-end' videokaart op. En dat terwijl de GF 7950 GX2 al weer twee keer zo snel is....

Maar ja, wat is high-end als je nog steeds een Radeon 9700pro gebruikt.... :D
Precies, dat mis ik ook in de meeste benchmarks, een vergelijking met een populaire kaart vaan een tijdje terug. De Radeon 9700/9800 zijn erg populair geweest en worden nog veel gebruikt. Het zou mooi zijn deze te laten terugkomen in de benchmarks zodat wij kunnen zien hoeveel sneller deze kaarten zijn. We weten allemaal wel ongeveer hoe snel de 9700/9800 is/was.

Ook vreemd vind ik overigens de keuze voor 1600x1200 terwijl 90% van de tft-schermen die de toonbank overgaan 1280x1024 ondersteunen als native resolutie.

Al denk ik dat deze kaart wederom een slurpende energieverslinder zal zijn, hij ziet er gelikt uit en het geheugen wordt ook gekoeld. ATi staat bij mij uit het verleden nogal bekend als lawaaiering en slechte stockcoolers maar deze ziet er goed uit!
Een 9700 haalt in ieder geval rond de 700 in 3Dmark06.
Ook vreemd vind ik overigens de keuze voor 1600x1200 terwijl 90% van de tft-schermen die de toonbank overgaan 1280x1024 ondersteunen als native resolutie.
Maar die 90% koopt echter ook geen X1950TX eerder een X1600 of 7600GT max.

Een echte FPS gamer die gebruikt een CRT monitor en geen LCD.
Want iemand die 500 / 1000 euro uitgeeft voor een kaart / crossfire denk je dat die op een lullige 17 / 19" TFT speelt ?

Heb zelf een 24" TFT (1920 x 1200) en gebruik hem met plezier voor alles.

Behalve als ik ga Quaken dan schakel ik terug naar mijn 21" electronenkanon.
Want als ik op een TFT speel heb ik binnen een half uur hoofdpijn,

@The_Shad0w
Ben het helemaal met je eens behalve met de responsetijd, mijn Acer AL2416Ws is een 6ms scherm, waar ik van hoopte ook Q3 mee te kunnen speelen, maar heelaas ik heb echt binnen een half uur hoofdpijn,
HL2 gaat beter denk dat het komt omdat er minder contrast in zit.
Nee, het is tegenwoordig wel te doen om te gamen, maar nog steeds is een goede CRT beter dan een goede LCD. Probleem is alleen dat er weinig CRT monitoren meer worden gemaakt en dat ze daardoor duur zijn. Een goede 21" CRT is vaak duurder dan een goede 19" LCD. En ja, als het wel te doen is, goedkoper is, stylisher is en bijna geen plek inneemt, dan kiest bijna iedereen voor LCD.
Waarschijnlijk zien veel mensen het verschil niet hoor, maar dat wil niet zeggen dat het verschil niet meer bestaat.
Iemand die gewend is om een game met 60 fps te spelen ziet geen verschil wanneer deze ineens gaat gamen met 120 fps. Iemand die gewend is met 120 fps te gamen die ineens op een andere pc met maar 60 fps moet doen ziet direct het verschil! Zo zal het waarschijnlijk ook met LCD en CRT werken...
En ja, een goede LCD van nu tegenover een goedkoop CRT apparaat van jaren terug vergelijken kan ook, dan lijkt die LCD ook goed...
Wat een onzin; de tijd dat een tft onderdeed voor een CRT is inmiddels wel verlopen. Zowel qua responsetijd, inkijkhoek, kleurweergave helderheid etc zijn de overdrive schermen minstens zo goed als een CRT

Speel redelijk wat uurtjes BF2 zonder problemen op mijn Belinea 101920 O+
Net zoals magneettape nog steeds het beste geluidsmedium is, zal de top van de CRT monitoren nog lang de beste beeldkwaliteit leveren.
Gezien het feit dat beeldbuizen bijna niet meer gemaakt worden maar dat er toch wel veel X1900XTs verkocht worden lijkt het me dat niet iedereen het met je eens is.
Je vergelijkt een VGA kaart met CRT monitor ???
De levenscyclus van een goede CRT is 10+ jaar, denk je nu echt dat gamers elke keer een nieuwe monitor kopen als ze een nieuwe kaart kopen ?

De 9700 PRO werd pressies 4 jaar geleden uit gebracht.

Als ik zegt dat het een top kaart is dat nog elk spel makelelijk kan spelen, word ik door bijna iedere tweaker uitgelachen.

Als ik nu zeg, dat mijn dat mijn fl 2700,-- 21" EIZO van 6 jaar, echt nog steeds een top scherm is,
Zullen de meeste tweakers het be'amen.

Mijn 21"CRT gaat vast nog wel een jaartje of 5 mee en tegen die tijd zullen LCDs waarschijnlijk prima vervangers worden,
Maar tot dan blijven die 21" CRT en die 24" LCD netjes naast elkaar staan en speel ik WoW op de LCD en Quake op de CRT :+
Een goede CRT, 100hz of hoger, krijg je echt geen hoofdpijn van. Sterker nog, ik krijg zelfs geen tranende ogen, ook niet na meer dan 12 uur non-stop.

Maarja, een kennis draaide 1280x1014 op een 15inch, ja, daar kirjg je koppijn van |:(
Ik heb een Belinea 10 19 27, 3.9ms, 85Hz@1280*1024, met DVI, en GEEN dode pixels. Dit is in elk gevan een hele verbetering ten opzichte van mijn 19" Medion crt schermpje (proview printplaten, met een Samsung beeldbuis). Die medion is 3 jaar oud,... en eerst meppen voor gebruik :P. Anders doet die het niet. Op een LAN-party zie je bijna niemand meer met een crt. Ik ben in ieder geval tevreden over dit scherm. Alleen de resolutie had hoger gemogen jah.
Net zoals magneettape nog steeds het beste geluidsmedium is, zal de top van de CRT monitoren nog lang de beste beeldkwaliteit leveren.
de oude platenspeler heeft nôg betere kwaliteit, én de cd doet ook niet onder voor de tape's hoor. Waarom draaien DJ's met platen, ipv casette. Niet alleen voor te scratchen hoor :P
sorry hoor, ovedrive mag de responsetijd dan "helpen" , het is niet meer dan een truuk. Iig kan je het zeker niet op dezelfde hoogte plaatsen als de responsetijd van een CRT, da's te kort door de bocht.

Bovendien, alleen de TOP TFT kaarten kunnen fatsoenlijke kleurecht weergeven, het gros van de TFT's doet dat niet. Dit, terwijl in principe elke CRT kleuren waarheidsgetrouw weergeeft.

TFT maakt vooruitgang, maar op sommige punten is er nog zeker ruimte voor verbetering, als dat al mogelijk is.
Gezien het feit dat beeldbuizen bijna niet meer gemaakt worden maar dat er toch wel veel X1900XTs verkocht worden lijkt het me dat niet iedereen het met je eens is.

Ik persoonlijk krijg hoofdpijn van CRT/TV, geef mij maar lekker een 19" TFT.
Dan ga je PCI met AGP vergelijken en dat wil niet. 9700 is al heel oud. Dus kun je het beter met een X800/X850 vergelijken. Die zijn er wel in PCI E. En deze zijn ook iets recenter.
Wat maakt dat nou uit. FPS is FPS. Oke, de rest van je config is dan ietsje verschillend, maar je kan zo een nforce4 bord AGP met PCIe vergelijken. Persoonlijk vind ik dit ook wel interessant omdat ik inderdaad een 9800XT heb. Ik wil graag upgraden maar vraag me dan altijd af hoeveel euro's ik uit moet trekken; ben ik bijvoorbeeld met 100 euro al 2x zo snel uit als ik nu ben? Of meot ik meer euros uitgeven?
De meeste reviews tonen aan dat de X1950XTX 4-6% sneller is dan de X1900XTX. Dat is best een droevig resultaat. Refreshes geven doorgaans toch meer prestatiewinst.
Kijk eens naar het verschil tussen een X800 en X850. Zelfde verhaal aldaar, minime prestatieverbeteringen, vooral verbeteringen in energieverbruik en lagere productiekosten/lagere prijs. Voor mensen met een X1900XT is het niet de meest slimme aankoop maar als vervanger van de X1900XT met ietswat betere prestaties en een afgenomen energieverbruik is het natuurlijk niet verkeerd :P.
Dit is ook geen normale refresh.

De X1900 was de refresh van de X1800. En die gaf wel de prestatiewinst die je normaal gesproken bij een refresh krijgt.
De X1950 is wat dat betreft een beetje een vreemde eend in de bijt.
Zullen we eens een poll houden hoeveel mensen er hier op 2560x1600 resolutie spelen?

Ik wordt erg moe van al die reviewers die resoluties testen waar NIEMAND in geinteresseerd is.

Laat ze liever die tijd steken in een meer gevarieerde reeks benchmarks.

Wie hebben er uberhaupt schermen die die resolutie ECHT aankunnen? (dat dus ook de dotpitch hoog genoeg is om het weer te geven. Niet alleen dat het scherm dat signaal kan verwerken. Daarmee valt 90% al af)

En als iemand dan zo'n scherm heeft, wie heeft er dan een scherm die een ACCEPTABELE refresh rate heeft op die resolutie?

Ik heb nog geen CRTs gevonden die daaraan voldoen.
Wel een paar TFTs. En ach die kosten "maar" 2200 euro. Peanuts toch?
Ik speel toevallig op 2560x1600
Waarom veel geld uitgeven aan dure videokaarten en dan bezuinigen op je beeldscherm, waar je uiteindelijk heel de tijd naar zit te kijken?
Ik hoef geen 250fps op 1280x1024, geef mij maar haarscherp beeld met 60fps.
Bovendien is het voor reviews zeker interesant om op hoge resolutie te benchen, dan gaan de GPU's tenminste het zware werk doen en zijn ze minder afhankelijk van de CPU die op lage resoluties nou eenmaal vaak de limiterende factor zijn.
Maar als jij liever ziet dat ze 200-500fps halen op lage resolutie...
Bij moderne spellen op 4xAA en 16xAF is 1280*1024 en 1600*1200 al voldoende om de videokaart op de knieen te krijgen.
Dat zijn de resoluties die 99.99% van de high-end gamers gebruiken.

250fps op 1280? Vergeet het maar. Wat dacht je van 40fps minimum framerate? Zelfs nog lager op 1600*1200.

Dat zijn allemaal situaties die GPU limited zijn en niet CPU limited. (kijk maar eens naar de madshrimps review).

Ik zie liever dat ze 8 verschillende spellen testen op 1280 en 1600, dan dat ze maar 4 verschillende spellen testen, maar dan die superhoge resoluties er bij nemen.
MJT: schermen worden groter, resoluties dus ook. Op termijn zullen dus veel mensen op deze resoluties spelen.
Bovendien zijn de kaarten tegenwoordig zo goed dat je op die resoluties wil testen om een niet-cpu limited scenario te creeëren.
Het heeft ook geen zin om een contoe te testen in games bij een resolutie van 1024x786. Maar toch doen ze dit om niet gpu-limited te zijn.
Ergens heb je gelijk, maar ergens is het logisch dat hardware zo goed mogelijk gebenchmarked wordt en dat dat niet altijd overeenstemt met de realiteit.
Over 5 jaar zullen veel mensen op deze resolutie spelen ja.
Nu echter vrijwel niemand.
Zelfs 1600*1200 is nog steeds zeldzaam bij TFTs

En zoals ik al eerder aangaf is 1280*1024 en 1600*1200 4xAA 16AF bij moderen spellen voldoende om de GPU op de knieen te dwingen.
Dus het argument dat je bij lage resoluties gpu-limited bent gaat niet op!
Als je een 7950GX2 in quad SLI zet dan kan die 2200 euro voor het beeldscherm er ook nog wel af :+
Heb zelf pas een Sony GSM-FW900 gekocht op marktplaats (scherm van 2500euro voor 200 euro)
Het is een 24 inch widescreen Flat crt die een ongelofelijke resolutie aankan bij nog steeds 85hz dus voor mij is een hoge res zekere interresant. Mensen met een 17 inch die een gx2 kopen zijn niet wijs. Die vinden het leuk om tgegen vrienden te kunnen patsen met hun kaart en 200fps op 1024x768. Voor mijn zou zo'n kaart interresant zijn om tenminste een fps van zo'n 60 te kunnen halen op een hoge res.
1920x1200 ziet er ook al mooi uit en mijn 7800gt red veel spellen nog redelijk op high.
Mischien maar een x1900xt halen.
"Ik wordt erg moe van al die reviewers die resoluties testen waar NIEMAND in geinteresseerd is."

Jij denk ook alleen aan je zelf er zijn toch genoeg mensen die het willen weten. Ook al zijn het er een heel stuk minder is het toch belangrijk.

Kom maar op met je poll ik speel namelijk ook 2560x1600 en zo zijn er wel meer mensen.
Zijn er mensen die echt het geld hiervoor over hebben, en dan bedoel ik incl. de BTW. en verkoop prijs.

Ze hebben het over een slordige $450, zelfs in euro's is dat serieus geld.

Waarom kunnen die prijzen niet lager en dichter bij elkaar, mid-end rond 150 euro high-end rond de 300 en meer niet.
Kan mij niet voorstellen dat ATI en NVIDIA dit vol kunnen blijven houden want kwa performance maakt het niet echt uit welke kaart je koopt in deze klasse.
En je koopt een kaart die maar 10% meer performance geeft? Dat heeft ook maar weinig nut.

Als je nu dus de vorige versie draaid met een spel op 30 fps dan ga je naar 33 fps en draai je een spel op 90 fps dan ga je naar 99 fps maar ja dat merk je toch niet meer.

Vroeger was het nog zo dat als er een nieuwe kaart uit kwam dat je 50% winst boekte.
dit is dan ook niet echt een nieuwe model. De core is precies hetzelfde. Specs zijn ook precies hetzelfde. Alleen heeft hebben ze de R580 core aangepast voor GDDR4. Vandaar dat hij ook de R580+ heet. Als we echt performance increase willen verwachten, moeten we gewoon wachten op de R600 die eind dit jaar verwacht wordt. En ik mag nog niet teveel zeggen over de R600, omdat het nog onder de NDA valt.
399 euro is minder dan de oude X1900's in het begin moesten kosten. En die vlogen als warme broodjes over de toonbank. Mensen hebben dus inderdaad geld hiervoor over.

Die 1950 Crossfire voor 399 is trouwens zelfs heel goedkoop. De 1900 crossfire kost overal nog altijd iets van 360. En die oude crossfire zit op XT snelheid, niet XTX... Voor die 39 euro extra krijg je dus makkelijk een dikke 10 tot 15% prestaties winst boeken, plus een veel stillere koeler. Dat is absoluut z'n geld waard.

T.o.v. de 1900XT is het minder gunstig... die kun je voor 300 tot 330 krijgen, dus daar wordt het prijsverschil groter.


Wat betreft de prestaties.... Sla de review van www.hardocp.com er eens op na. In bijna alle situaties kon men met de 1950XTX net even betere beeldkwaliteit produceren als met de 1900XTX. Grass op maximum i.p.v. medium in Oblivion. Quality Adapt. AA i.p.v. performance, etc etc.

Voordeel van de GPU is dat in de praktijk bijna altijd OF alles GPU begrensd is, OF je toch al >60fps haalt, en het je dus niet interesseerd. Het heeft daardoor meer zin om geld te stoppen in de GPU, dan in de allersnelste CPU.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True