Door Marc Rademaker

Redacteur

GTX275 vs HD 4890 vs GTX260

27-04-2009 • 09:53

112

Multipage-opmaak

Inleiding

Met de introductie van de Radeon HD 4890 is de aloude concurrentiestrijd tussen AMD en Nvidia weer een nieuwe fase ingegaan. AMD wilde met de HD 4890 tegenwicht aan de GTX260 bieden, maar op zijn beurt introduceerde Nvidia vrijwel tegelijkertijd de GTX275. Hiermee zijn er voor kopers van high-end-videokaarten weer nieuwe mogelijkheden ontstaan. In deze test zet Tweakers.net de drie kaarten op een rijtje: welke kaart biedt de koper het meest wat betreft prijs en prestatie?

De kaarten zijn niet alleen op hun standaardsnelheden en -spanningen getest. Na het afronden van de eerste serie benchmarks is nagegaan in hoeverre er extra winst te behalen valt uit het opvoeren van de gpu-, de shader- en de geheugenkloksnelheden. Bij de Asus HD 4890 is hiertoe het met de kaart meegeleverde programma SmartDoctor gebruikt. Hiermee is ook bekeken welke winst het manipuleren van de spanning mogelijk nog op kan leveren. Bij de GTX260 van Asus en de GTX275 van Point of View zijn alleen de kloksnelheden aangepast.

Grafieken & Benchmark-database

In deze review worden er nieuwe grafieken gebruikt, waarmee in eerste instantie de gemiddelde resultaten worden weergegeven en besproken. In de tweede grafiek zijn de minimale framerates van de verschillende videokaarten tegen elkaar afgezet. De vetgedrukte lijnen staan voor de standaard geklokte videokaarten, terwijl de transparante lijnen voor de overgeklokte videokaarten staan. Er wordt vastgehouden aan één kleurenpatroon, waarbij de HD 4890 rood is, de GTX275 groen en de GTX260 blauw.

De grafieken zijn gemaakt aan de hand van de benchmarkdatabase. Die is wat betreft videokaarten misschien wat in de vergetelheid geraakt, maar alle geteste videokaarten zullen vanaf nu in de database worden opgenomen. Op die manier kunnen videokaarten gemakkelijk met elkaar vergeleken kunnen worden, ongeacht hoe oud ze zijn. Let wel: de videokaarten worden getest met de nieuwste drivers die op dat moment beschikbaar zijn. Andere, recentere drivers kunnen andere resultaten opleveren.

Asus GTX260 Matrix

Specificaties

De GTX260 van Nvidia heeft een bijzondere geschiedenis. De kaart is gebouwd rond de GT200-gpu, die oorspronkelijk op 65nm werd uitgebracht en toen met 576 vierkante millimeter Nvidia's grootste chip ooit was. Toentertijd had de gpu ook nog slechts 192 shaders. De huidige GTX260-gpu's, met de codenaam GT200b, worden op 55nm geproduceerd en beschikken over 216 shaders. Nvidia schakelde een extra shaderblok op de gpu in, opdat de GTX260 de strijd aankon met AMD's HD 4870 beter aan zou kunnen. Na deze aanpassingen bleken de HD4870 1GB en de GTX260 ongeveer even snel.

Met de HD 4890 wilde Advanced Micro Devices een videokaart uitbrengen die de GTX260 te snel af zou zijn. Het aantal shaders van de HD 4890 bleef weliswaar steken op 800 - evenveel als bij de HD 4870 - maar de kloksnelheden van de gpu en het geheugen gingen wel omhoog.

Nvidia reageerde hier weer op door de GTX275 uit te brengen, die met een totaal van 240 shaders 24 extra shaders aan boord heeft ten opzichte van de GTX260. Door de inschakeling van een extra shaderblok zijn er ook acht texture-eenheden extra aanwezig. Ook de kloksnelheden gingen iets omhoog, maar de geheugenbus bleef 448bit. De die size en het aantal transistors bleven onveranderd op respectievellijk 487 vierkante millimeter en 1400 miljoen.

HD 4890 HD 4870 GTX260 GTX275
Gpu RV790 XT RV770 XT GT200b GT200b
Productieprocedé 55nm 55nm 55nm 55nm
Gpu-snelheid 850MHz 750MHz 576MHz 633MHz
Geheugensnelheid 3900MHz 3600MHz 1998MHz 2268MHz
Geheugentype gddr5 gddr5 gddr3 gddr3
Geheugen-interface 256bit 256bit 448bit 448bit
Streamprocessors 800 800 216 240
Rops 16 16 28 28
Texture-eenheden 40 40 72
80
Tdp 190W 160W 182W 216W
Chipoppervlak 256mm2 256mm2 487mm2 487mm2
Transistors 956M 959M 1400M 1400M


Point of View Geforce GTX275
Merk Point of View
Type Geforce GTX275
Technische specificaties
Videochip GT200b
Videochipklok 633MHz
Aantal shaders 240
Shaderklok 1404MHz
Geheugengrootte 896MB
Geheugentype gddr3
Geheugenklok 1134MHz
Productieprocedé 55nm
Interfaces
Card-interface pci-e 2.0 16x
Verbinding (video uit) 2x dvi, s-video
Koeling actieve koeling

Asus Geforce GTX260
Merk Asus
Type Geforce GTX260
Technische specificaties
Videochip GT200b
Videochipklok 576MHz
Aantal shaders 240
Shaderklok 1242MHz
Geheugengrootte 896MB
Geheugentype gddr3
Geheugenklok 999MHz
Productieprocedé 55nm
Interfaces
Card-interface pci-e 2.0 16x
Verbinding (video uit) 2x dvi, s-video
Koeling actieve koeling

Asus Radeon HD 4890
Merk Asus
Type HD 4890
Technische specificaties
Videochip RV790 XT
Videochipklok 850MHz
Aantal streamprocessors
800
Geheugengrootte 1GB
Geheugentype gddr5
Geheugenklok 975MHz
Productieprocedé 55nm
Interfaces
Card-interface pci-e 2.0 16x
Verbinding (video uit) 2x dvi, hdmi
Koeling actieve koeling

Testopstelling

Het testsysteem is opgetrokken rond een Core i7 920-processor, die op 3,2GHz is geklokt, met een verhoging van de bclk tot 160MHz. De keuze voor het besturingssysteem viel op de 64bit-versie van Windows Vista Ultimate met Service Pack 1 en alle beschikbare patches geïnstalleerd. De ATI-kaarten worden via versie 9.3 van de Catalyst-drivers aangestuurd. Voor de benchmarks zijn de games Call of Duty: World at War, Crysis: Warhead, Far Cry 2, Stalker: Clear Sky en World in Conflict uitgezocht. Ook van deze games zijn, voor zover beschikbaar, alle patches geïnstalleerd. Indien mogelijk is van de interne benchmarks van de games gebruikgemaakt.

Testsysteem
Moederbord Gigabyte GA-EX58-DS4
Processor Intel Core i7 920 @ 3,2GHz
Geheugen 6GB ddr3: 3x OCZ3X1333LV6GK 8-8-8
Harde schijven 500GB Samsung Spinpoint F1 HD502IJ
Videokaarten Asus Radeon HD4890 1GB
Point of View Geforce GTX275 896MB
Asus Geforce GTX260 Matrix
Koeler OCZ Gladiator
Voeding OCZ Silencer 750EPS12V

Intels X58-platform zal naar verwachting nog geruime tijd de prestatiekroon in handen houden. Dit platform zal bij het uitvoeren van de benchmarks niet snel een bottleneck vormen. Ook biedt het platform de mogelijkheid om videokaarten zowel in sli- als in CrossFire-modus te draaien. We streven ernaar om altijd de nieuwste drivers te gebruiken, en als er bèta-drivers gebruikt zijn, wordt dat vermeld.

Elke game is getest op de resoluties 1280x1024 1680x1050 en 1920x1200. De instellingen verschillen per game en zullen daarom telkens vermeld worden. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige ingame-settings, die naar beneden zijn bijgesteld als de videokaart onvoldoende fps wist te produceren. Wel is er altijd 16xAF toegepast; bij games die dat niet ondersteunen is deze instelling afgedwongen met behulp van ATI's CCC of Nvidia's Control Panel.

Overklokken en instellingen

Het overklokken van de videokaarten zal apart besproken worden. Wat betreft de instellingen is in CCC de adaptive aliasing op de hoogste kwaliteit gezet, wordt de toepassing van AA/AF aan de applicatie overgelaten, en is mipmapping op de hoogste kwaliteit ingesteld. Indien nodig wordt, in CCC, 16xAF geforceerd. In Nvidia's Control Panel staat de anti-aliasing transparancy-modus op multisampling en is de texture quality op high quality ingesteld. Ook hier wordt AA/AF aan de applicatie overgelaten en indien nodig wordt 16xAF geforceerd.

Point of View GTX275

DirectX 10.1 en CUDA/PhysX

Behalve wat betreft hun prestaties verschillen de videokaarten van Nvidia en AMD op nog andere belangrijke punten. De kaarten van AMD's HD 4800-serie kunnen overweg met DirectX 10.1, terwijl Nvidia al vergevorderd is met zijn gpgpu-technologie genaamd CUDA, en dan met name met PhysX, dat door CUDA op de gpu versneld kan worden.

Op dit moment zijn de spellen die van DirectX 10.1 gebruikmaken nog op twee handen te tellen, maar in die games levert de api wel een aardige prestatiewinst op. Hoeveel spellen met DirectX 10.1-ondersteuning er nog zullen uitkomen is niet duidelijk, aangezien de introductie van de DirectX 11-api nabij is, net als de introductie van videokaarten die DirectX 11 ondersteunen. Het is goed mogelijk dat spellen die gebruikmaken van DirectX 11, ook sneller draaien op DirectX 10.1-kaarten. Ontwikkelaars weten namelijk dat als ze nu met DirectX 10.1 programmeren, toekomstige DirectX 11-kaarten van zowel Nvidia als AMD daarvan kunnen profiteren.

HAWX DirectX 10.1 spel

De op handen zijnde introductie van DirectX 11, die uiteraard ook over alle functionaliteit van de voorgaande DirectX-versies beschikt, mag dan een nadeel zijn voor AMD, ook voor Nvidia heeft het implicaties. Op dit moment is er namelijk nog slechts één spel waar Nvidia's PhysX echt een verschil maakt: Mirror's Edge. In andere spellen gaat het voornamelijk om wat minder belangrijke zaken, zoals realistischer watergedrag en het rondvliegen van blaadjes. Met DirectX 11 wordt de gpgpu-applicatie OpenCL geïntroduceerd, waarmee havok-physics versneld kunnen worden, op zowel videokaarten van AMD als van Nvidia. Naast PhysX biedt CUDA ook andere mogelijkheden die AMD ontbeert, maar echte mainstream-applicaties die van CUDA gebruikmaken om de gpu in te zetten zijn er nog niet.

PhysX in Mirror's Edge

Onze mening is dan ook dat de toegevoegde waarde van zowel CUDA/PhysX als van DirectX 10.1 in de praktijk beperkt is, en niet de doorslag moet geven bij het bepalen van de winnende kaart. Voor de individuele consument kan het interessant zijn om naar de mogelijkheden van Nvidia's CUDA te kijken, maar ook naar de spellen waarin DirectX 10.1 een wezenlijk verschil maakt.

Overklokken

Dat overklokken een duidelijke prestatiewinst op kan leveren staat als een paal boven water, maar het blijft riskant. Zo bleek een van de GTX275-kaarten niet ongeschonden uit de strijd te komen: we zagen zwarte schermen, hoorden knettergeluiden alsof we popcorn maakten en roken zelfs een enkele maal een brandlucht. Point of View reageerde echter adequaat en stuurde prompt twee nieuwe GTX275's op, die allebei zonder kuren de rigoreuze tests wisten te doorstaan.

De GTX275 was al flink door de mangel gehaald toen hij sneuvelde; die kan dan ook als een op zichzelf staand geval gezien worden. Opvallend was overigens de coil whine die tijdens enkele benchmarks optrad. Tijdens een van die benchmarks hield de coil whine dan ook abrupt op, waarna de videokaart de geest gaf. Omdat dit met slechts één kaart gebeurde, kan niet worden gesteld dat het overlijden van de GTX275 gerelateerd is aan de coil whine, maar de andere twee GTX275's van Point of View produceerden geen vervelende hoge tonen.

Asus Voltage Tweak

De HD 4890 werd met behulp van Asus SmartDoctor overgeklokt, omdat met deze applicatie niet alleen de kloksnelheden, maar ook spanning kunnen worden aangepast. De HD 4890 van Asus is voorlopig de enige HD 4890 waarvan de spanning zonder veel moeite verhoogd kan worden, aangezien alleen Asus dergelijke software meelevert. De vraag rest natuurlijk of het verhogen van de spanning ten koste gaat van de levensduur van de videokaart, en of Asus de garantie honoreert mocht een overgeklokte kaart kapot gaan.

In een gesprek met Baker Chung en David Tung van Asus werd duidelijk dat de maximale spanning van 1,45V binnen de specificaties van AMD valt. Zolang alleen Asus SmartDoctor gebruikt wordt, en de bios niet met een andere bios dan een van Asus geflashed wordt, vervalt de garantie niet. In hetzelfde gesprek werd ook duidelijk dat het simpelweg verhogen van de spanning niet de beste methode is om de videokaart over te klokken. Dit is het eenvoudigst uit te leggen aan de hand van onderstaande tabel, die uit het testlab van Asus komt.

Asus Voltage Tweak Tabel

Wanneer bij dezelfde kloksnelheid de spanning wordt opgehoogd, nemen de prestaties van de gpu af, zoals de tabel laat zien. Het is dus zaak om bij de gebruikte overklok naar de laagste spanning te zoeken waarbij de kaart nog stabiel is: een overklok met een spanning van 1,35V en snelheden van 990/1100MHz kan hogere prestaties opleveren dan een overklok met een spanning van 1,4V en snelheden van 1000/1100MHz. De beveiliging van de gpu zorgt ervoor dat de gpu zichzelf vertraagt als er te veel van de gpu wordt gevraagd en er een hogere spanning op de gpu staat. De kloksnelheden zelf worden niet aangepast, dus er is een ander mechanisme in werking, waar Baker echter verder niets over kon vertellen.

Behaalde kloksnelheden

Na wat gestuntel met de HD 4890 werd er genoegen genomen met een overklok van 975MHz en 1100MHz voor respectievelijk de gpu en het geheugen. Een lagere spanning zou theoretisch misschien mogelijk zijn geweest, maar het is noodzakelijk dat de videokaart onder alle omstandigheden volledig stabiel is. Jammer genoeg was een gpu-klok van 1000MHz niet haalbaar, zelfs niet met een voltage van 1,45V. Het geheugen werd rond de 1125MHz instabiel, waarna er voor een veilige 1100MHz is gekozen. Opvallend genoeg moesten de drivers na elke mislukte poging opnieuw geïnstalleerd worden. De reden hiervoor is ons niet duidelijk geworden, maar lastig was het wel.

Net zoals de HD 4890 liet Asus de GTX260 ook niet helemaal met rust. De kloksnelheden mogen dan ingesteld staan op de standaardwaarden van 576MHz, 1242MHz en 999MHz, volgens Asus kunnen die eenvoudig verhoogd worden naar 700MHz, 1500MHz en 1150MHz. Om de stabiliteit te garanderen neemt de spanning daarbij automatisch toe van 1,15V naar 1,18V. In 2d-modus wordt de spanning juist verder verlaagd dan gebruikelijk, waardoor de kaart minder energie verbruikt. De geadverteerde kloksnelheden bleken stabiel; die zijn dan ook in de benchmarks gebruikt.

De nieuwe GTX275 die we van Point of View ontvingen was een standaard geklokte uitvoering. We verhoogden de snelheden zonder moeite naar 700MHz, 1500MHz en 1150MHz, identiek aan de overgeklokte kloksnelheden van de GTX260. Hierdoor kan er een vergelijking gemaakt worden, waarbij alleen het aantal shaders en de bijbehorende tmu's van de twee kaarten verschillen. Relatief gezien is de overklok aanzienlijk lager, maar 700MHz was dan ook zeker niet het maximum.

Far Cry 2

De grafiek spreekt boekdelen. De GTX260 en de HD 4890 zijn aan elkaar gewaagd, terwijl de GTX275 een duidelijke voorsprong op beide videokaarten heeft. Door de HD 4890 over te klokken komt deze in de buurt van de GTX275, maar zodra de GTX275 wordt overgeklokt laat hij de AMD-kaart zijn hielen zien. Let wel, vergeleken met de HD 4890 en de GTX260 werd de GTX275 slechts licht overgeklokt. Als de GTX275 procentueel een even hoge overklok had gekregen, was het verschil nog groter geweest.

De minimale framerates laten eenzelfde verhaal zien als de gemiddelde framerates. Dit maal komt de overgeklokte GTX260 echter wel heel dicht bij de GTX275, ondanks dat de GTX275 over 24 extra shaders beschikt.

Stalker: Clear Sky

Op 1280x1024 onderpresteert de HD 4890 om onverklaarbare redenen. Op de overige twee resoluties presteert de HD 4890 wel iets beter dan de GTX260. De GTX275 is een klasse apart: de kaart zet flink hogere gemiddelde framerates neer. Alleen op de allerhoogste resolutie lijkt de overgeklokte HD 4890 de overgeklokte GTX275 te kunnen evenaren.

De HD 4890 maakt overigens gebruik van DirectX 10.1, wat niet zozeer zorgt voor een verschil in beeldjes per seconde, maar wel voor mooiere graphics. In de toekomst zal geprobeerd worden om dit aan de hand van screenshots aan te tonen.

Wat betreft minimale framerates moet de HD 4890 ook ditmaal zijn meerdere erkennen in de GTX260. Overklokken lijkt erg nuttig: met iets lagere settings kan dat net het verschil maken tussen minimale framerates van rond de 30 of lager.

World in Conflict

World in Conflict laat eenzelfde verhaal zien als voorgaande spellen. De GTX260 en HD 4890 blijken aan elkaar gewaagd, terwijl de GTX275 beduidend sneller is dan deze beide kaarten.

In de CrossFireX-review werd al opgemerkt dat World in Conflict erg vreemde minimale framerates laat zien, waardoor er niet heel veel waarde aan gehecht kan worden. Wel moet opgemerkt worden dat de HD 4890 zeer stabiele resultaten wist neer te zetten, terwijl de Nvidia-kaarten veel wisselvalliger waren.

Crysis: Warhead

De Crysis: Warhead review laat meer van hetzelfde zien. De grafiek is duidelijk en kan maar op één manier geïnterpreteerd worden: de GTX260 en de HD 4890 geven elkaar haast niets toe en de GTX275 staat op een trede hoger.

De minimale framerates zijn wat moeilijker te interpreteren. De overgeklokte HD 4890 presteert hetzelfde als de standaard geklokte HD 4890. De GTX260 daarentegen produceert wel consistent hogere framerates wanneer deze overgeklokt wordt.

Call of Duty: World at War

Call of Duty: World at War laat een ander beeld zien. De videokaarten van Nvidia domineren in dit spel, wat in de CrossfireX-review ook al werd waargenomen. Zelfs de GTX260 is beduidend sneller dan de HD 4890.

De minimale framerates liegen er ook niet om, sterker nog, de minimale framerates van de GTX275 komen akelig dicht in de buurt van de gemiddelde framerates van de HD 4890's. Wel lieten de Nvidia-kaarten meer uitschieters omlaag zien, terwijl de testresultaten van de HD 4890 zeer consistent waren.

Energieverbruik en geluidsproductie

Geluid

Alle drie de videokaarten werden onderworpen aan een geluids- en een verbruiktest. Er is gekeken naar het verbruik en de geluidsproductie terwijl allleen de desktop werd weergegeven, waarbij de videokaart dus in 2d-modus stond. Vervolgens werden de videokaarten met behulp van Furmark maximaal belast. Dezelfde tests zijn nog een keer herhaald, maar dan met de verhoogde kloksnelheden.

Testresultaten van de overgeklokte HD 4890 ontbreken, omdat er met een spanning van 1,4V niet met Furmark getest kon worden. Navraag bij Asus leverde interessante informatie op. De Volterra 1165 M-chipset zou een limiet voor de stroomsterkte hebben, en die limiet wordt in Furmark waarschijnlijk bereikt met een gpu-spanning van 1,4V. Een hogere spanning zorgt altijd voor een crash in Furmark, dus een onstabiele overklok is onwaarschijnlijk.

Geluidsproductie (dBA)
HD 4890 - idle 45,4
HD 4890 - load 59,8
GTX275 - idle 46,4
GTX275 - load 57,1
GTX260 - idle 49,1
GTX260 - load 53,1

De GTX260 van Asus heeft een speciaal ontworpen koeler, die volgens Asus stiller zou moeten zijn dan de standaard koeler. Helaas werkte de software van Asus niet naar behoren en ook zonder de software bleven de ventilatoren stug doordraaien op een te hoge snelheid. De gpu was, met een temperatuur van zo'n 30 graden Celsius, erg koel, maar het geluidsnviveau was er ook naar. Wanneer de gpu belast wordt, blikt de speciale koeler wel erg effectief: de gpu werd niet warmer dan 64 graden, terwijl de GTX275 met gemak 85 graden Celsius aantikte. De HD 4890 valt op door in 2d-modus erg stil te zijn, maar bij de minste temperatuurverhoging gaat de ventilator al harder draaien. Bij volledige belasting is de HD 4890 de luidste van het stel.

Energieverbruik zonder overklok

De GTX260, de HD 4890 en de GTX275 hebben achtereenvolgens een tdp van 182W, 190W en 216W. De testresultaten laten dat verschil min of meer duidelijk zien. De HD 4890 valt op door zijn hoge verbruik in 2d-modus, terwijl de GTX275 iets meer verbruikt onder belasting. De Asus GTX260 zou eigenlijk minder moeten verbruiken in 2d-modus, maar aangezien de software niet goed werkte was het niet mogelijk profielen in te schakelen om het verbruik te verlagen. Tijdens het benchmarken zijn de verschillen nog iets groter: de GTX260, HD 4890 en GTX275 namen respectievelijk 305W, 335W en 360W op.

Opgenomen vermogen (W)
HD 4890 - idle 174
HD 4890 - load 359
GTX275 - idle 147
GTX275 - load 372
GTX260 - idle 150
GTX260 - load 315


Energieverbruik met overklok

Zoals al toegelicht ontbreken hier de resultaten van de HD 4890. Met enige voorzichtigheid kan wel opgemerkt worden dat de overgeklokte HD 4890 tijdens het benchmarken iets meer energie verbruikte dan de niet overgeklokte HD 4890. Dat ligt voor de hand, en hetzelfde effect valt waar te nemen bij de GTX260 en de GTX275. Overigens neemt het verbruik van de GTX260 wel sterker toe dan dat van de GTX275.

Opgenomen vermogen (W)
GTX275 - idle 147
GTX275 - load 387
GTX260 - idle 150
GTX260 - load 346

Ook de snelheid waarop de ventilatoren moeten draaien om de videokaart koel te houden neemt bij het overklokken toe, al is het verschil slechts marginaal. De overgeklokte GTX275 is als enige hoorbaar luider wanneer hij wordt belast. Zowel met als zonder overklok piekte de temperatuur van de GTX275 op 85 graden Celsius, wat doet vermoeden dat de koeler zijn best doet om de kaart niet warmer dan die temperatuur te laten worden.

Geluidsproductie (dBA)
GTX275 - idle 46,4
GTX275 - load 59,3
GTX260 - idle 49,3
GTX260 - load 53,8

Conclusie

Wanneer het gaat om de prestaties, dan is het niet moeilijk een winnaar aan te wijzen: dat is overduidelijk de GTX275. De HD 4890 is marginaal sneller dan de GTX260, terwijl de GTX275 beduidend sneller is dan deze beide.

De volgende vraag is dan hoe de prijs/prestatie-verhouding voor de kaarten ligt. De goedkoopste GTX275 die op dit moment in de Pricewatch is te vinden, kost 221,95 euro, terwijl de HD 4890 bij de goedkoopste aanbieder voor 204,00 euro weg mag. Het prijsverschil van iets meer dan 15 euro is makkelijk te rechtvaardigen door de duidelijk betere prestaties van de Nvidia-kaart. De GTX275 mag dan onder load iets meer verbruiken, in de 2d-modus, waarin veel computers toch de meeste tijd doorbrengen, verbruikt de videokaart aanzienlijk minder stroom dan de AMD-kaart. Wat betreft de geluidsproductie ontlopen de videokaarten elkaar niet veel.

De geteste GTX260 is eigenlijk een klasse apart. Helemaal representatief is de videokaart niet voor de GTX260 in het algemeen, omdat bij de Asus-kaart tijdens het overklokken de spanning licht verhoogd kan worden. Met een prijs van 201,68 euro is de kaart een prima concurrent voor de GTX275. Uit de benchmarks blijkt dat de overgeklokte GTX260 de GTX275 altijd voor blijft. De GTX275 kan hoger worden overgeklokt dan in deze review is gedaan, maar het verschil zal niet heel groot zijn. De GTX260 van Asus beschikt echter ook over een speciale koeler, die vooral onder load een stuk stiller is.

Heeft AMD met de HD 4890 de plank nu volledig misgeslagen? Die conclusie zou voorbarig zijn. De meer prijsbewuste consument doet er waarschijnlijk verstandig aan om voor ongeveer 150 euro een HD 4870 of GTX260 te kopen, maar in de hogere prijsklasse weet de HD 4890 zich aardig te weren. Dat lijkt misschien in strijd met de getoonde testresultaten, maar om twee redenen komen de Nvidia-kaarten wat geflatteerd uit de tests naar voren. De eerste reden is dat de gebruikte spellen door de bank genomen in het voordeel van Nvidia zijn. De tweede heeft te maken met de gebruikte drivers. Voor de HD 4890 is versie 9.3 van de drivers gebruikt, terwijl versie 9.4-drivers hoogstwaarschijnlijk voor betere prestaties hadden gezorgd. Bij Nvidia werd juist van gloednieuwe bètadrivers gebruik gemaakt, die in drie van de geteste spellen ook een flinke performance-boost zouden moeten geven.

Point of View GTX275 Point of View GTX275 Point of View GTX275 Point of View GTX275 Point of View GTX275 Asus ROG GTX260 Matrix-uitvoering Asus GTX260 Asus GTX260 Asus GTX260 Asus GTX260 Asus GTX260 Asus GTX260 Asus GTX260 Asus GTX260AMD Radeon HD 4890 AMD Radeon HD 4890 AMD Radeon HD 4890 AMD Radeon HD 4890 AMD Radeon HD 4890 AMD Radeon HD 4890

Reacties (112)

112
107
31
12
1
2
Wijzig sortering
Als je al weet dat de drivers een oneerlijk voordeel voor Nvidia op leveren waarom dan nog testen? Waren de drivers voor AMD nog niet beschikbaar of wilde AMD deze niet leveren of.....

Daar naast is het wel leuk om te zeggen de gebruikte spelen vallen eigenlijk altijd in het voordeel van Nvidia uit maar dan blijft de vraag waarom dan niet een meer representatieve zet games gekozen? Was dat omdat er gewoon geen recente games zijn die AMD in een goed licht zetten, dat zou reden genoeg kunnen zijn om geen AMD te kopen want games is toch de reden om een dure GPU in een systeem te hangen.

Dan blijft nog de vraag waar zo'n ongelijk beeld geven waarom niet bijde stock kaarten gebruikt. Ik weet het sponsors zijn daar niet altijd even makelijk in en je moet roeien met de riemen die je hebt, bla, bla, bla maar het geeft natuurlijk een vertekend beeld als je een flink door ontwikkelde kaart tegen een stock kaart plaatst.

Ik weet dat het allemaal vermeld is in de conclusie en in het verslag maar toch het blijft jammer dat de tests niet op een veel meer objectieve wijzen plaats vinden bij Tweakers.

Oh, en voor de geen die dat mischien mochten denken ik ben geen fan van welke GPU architectuur dan ook, ik koop gewoon dat wat er in mijn systeem past en wat op dat moment de beste prijs prestatie verhouding heeft binnen het budget dat ik op dat moment beschikbaar heb. Op dit moment is dat een 8800GT maar wie weet wat het over een paar maanden zal zijn...
De HD 4890 werd door AMD geleverd met 9,3 drivers. Daar doe je niets aan. En ja er zijn wel spellen die minder in het voordeel zijn van Nvidia, en dat zijn HAWX en GRID, die dus binnenkort ook gebruikt gaan worden.

En alle drie de kaarten zijn op stock getest, en op overgeklokte snelheid? Dus ik snap niet wat je bedoelt met een vertekend beeld en een doorontwikkelde kaart tegen een stock kaart.

[Reactie gewijzigd door Marc Rademaker op 24 juli 2024 23:11]

Denk dat hij de kaart bedoelt waarbij het voltage omhoog kan.

Wat de drivers aangaat, die opmerking snap ik niet. Als ik een kaart koop in de winkel staan er vrijwel altijd gedateerde drivers op. Dan gaan we naar Asus/AMD om de nieuwe drivers op te halen.

Hoezo doe je daar dan niks aan ? 8)7

PS: Grafieken kan er best wel aardig uit zien, mist het goed gebracht word. Zie bijv. de reviews van Guru3D. Hier zijn de kleuren net zo lekker gekozen en ook de symbooltjes op de lijn zouden mogen varieeren; dan zou het al een stuk duiidelijker worden. Net als de rest prefereer ik echter staafdiagrammen boven de lijntjes bij dit soort benchmarks.

[Reactie gewijzigd door Madrox op 24 juli 2024 23:11]

Op het moment dat wij de HD 4890 gingen benchmarken, moesten we het doen met AMD's drivers, die in feitte 9,3 drivers zijn, met ondersteuning voor de HD 4890. De 9,4 catalyst downloaden en gebruiken icm met de HD 4890 was toen geen mogelijkheid. Het is niet ideaal, maar zoals ik al zei, het was niet anders. De benchmarks opnieuw draaien maar dan met 9,4 ging helaas niet. Zoals ook al opgemerkt, het zal niet ineens een wereld van verschil zijn.
Het zou handig zijn als je ook meteen aangeeft waarom dat dan niet ging?
De 9,4 catalyst downloaden en gebruiken icm met de HD 4890 was toen geen mogelijkheid. Het is niet ideaal, maar zoals ik al zei, het was niet anders. De benchmarks opnieuw draaien maar dan met 9,4 ging helaas niet.
Op het moment dat wij de HD 4890 gingen benchmarken, moesten we het doen met AMD's drivers, die in feitte 9,3 drivers zijn, met ondersteuning voor de HD 4890. De 9,4 catalyst downloaden en gebruiken icm met de HD 4890 was toen geen mogelijkheid. Het is niet ideaal, maar zoals ik al zei, het was niet anders. De benchmarks opnieuw draaien maar dan met 9,4 ging helaas niet. Zoals ook al opgemerkt, het zal niet ineens een wereld van verschil zijn.
Sorry, maar dit slappe excuus geloof ik niet. Deze summiere test kan nooit zoveel tijd in beslag hebben genomen. Jullie kunnen wel testen met de laatste nVidia BETA drivers, maar de officiele 9.4 ATi drivers, die al WEKEN voorhanden is (zie mijn eerdere reactie in deze draad), is niet mogelijk?
Dit nog even los van het feit dat de gelekte 9.5 ATi BETA driver ook al weken te verkrijgen is...
Nee sorry, maar dit 'excuus' is volkomen ongeloofwaardig.
De HD 4890 werd door AMD geleverd met 9,3 drivers. Daar doe je niets aan.
Wat is dit voor non-argument? Natuurlijk kun je daar iets aan doen.
Het geen ik bedoel is een kaart die speciaal opgezet is met overkloken in het acherhoofd (spanning word aangepast al naar gelang ee hogere overklok gekozen wordt) tegen een kaart waar bij dat net gebeurt. Het is een beetje appels en peren vergelijken.

Wat betreft de drivers, hoe groot zijn die drivers van AMD als je ze in het geheel download? 90MB of zo... dat duurt een paar seconden tot maximaal tien minuten op het Tweakers kantoor, aangezien ik niet kan geloven dat er daar nog steeds over een dubbel lijns ISDN verbinding wordt gewerkt. Met andere worden het geen dat er in de doos zit is geen reden om dan maar niet gebruik te maken van de laatste drivers. De Nvidia beta drivers zaten neem ik aan ook niet in de doos maar zijn zelf binnen gehengelt, en als ze wel in de doos zaten dan had er ook gewoon voor Nvidia een normale driver gedownload kunnen worden in plaats van een beta met alle optimalizaties van dien.
Als je al weet dat de drivers een oneerlijk voordeel voor Nvidia op leveren waarom dan nog testen? Waren de drivers voor AMD nog niet beschikbaar of wilde AMD deze niet leveren of.....
De 9.4 drivers zijn al een hele tijd beschikbaar, dus dat kan geen excuus zijn.

meuk: ATI Catalyst 9.4
Dat was een enigszins te verwachten uitslag, maar wel net uitgewerkt. Het lijkt hetzelfde verhaal als de tijd rond de 8800GT. Veel prestaties voor weinig geld. Het is alleen jammer dat de nieuwe kaarten zo weinig extra bieden ten opzichte van hun voorlopers. Als je echt iets nieuws wilt, kun je dus weer beter wachten op de echte nieuwe generatie met bijvoorbeeld DX11. Die kaarten zullen weer nagenoeg twee keer zo snel zijn, en ook meteen twee keer zo duur.

Er is wel een ding wat mij erg tegen staat in deze review, en dat zijn de nieuwe grafiekjes. Deze zijn echt heel moeilijk af te lezen, en geven de onderlinge verhoudingen zeer slecht weer. Daar zijn de balkjes, zoals bij geluidsdruk, veel beter voor geschikt. De grafiekjes zijn wel bruikbaar om de verschillende resoluties tegen elkaar af te zetten, als dat gewenst is alnaargelang er een afwijkend patroon lijkt te bestaan.

Daarnaast kun je in de balkjes voortaan twee delen gebruiken, waarbij het eerste gedeelte het minimaal aantal frames aangeeft, en de rest van de balk het gemiddelde, met eventueel een streepje op de plek van het max. aantal frames. Op die manier kun je de videokaarten onder elkaar veel beter vergelijken. Dus iets van: |___|______| |

[Reactie gewijzigd door IceEyz op 24 juli 2024 23:11]

Als ik ook nog even op de grafische weergave van de snelheden mag inhaken: Ik denk dat een lijn grafiek niet geschikt is voor het weergeven van 3 waarden die geen direct onderling verband hebben. Het voorstel van IceEyz lijkt me inderdaad een betere oplossing.

The Visual display of quantitative information is overigens een "must read" voor iedereen die grafiekjes wil toepassen om informatie over te brengen.
http://www.edwardtufte.com/tufte/books_vdqi
Het onderlinge verband tussen framerate en resolutie is er natuurlijk wel degelijk. Ik geef toe dat de weergave in deze grafieken niet optimaal is. Dit heeft deels met de wijze van presentatie en ook deels met de dataset te maken (weinig onderlinge verschillen). Een staafgrafiek zou ook goed kunnen werken als er een mogelijkheid komt om automatisch minima in een staafgrafiek te verwerken. Deze gegevens (minimale en gemiddelde framerate per resolutie) in losse staafgrafieken weergeven zorgt voor een overload aan grafieken, terwijl het om gegevens gaat met een sterk verband die gecombineerd weergegeven kunnen worden.
Dat lijkt misschien in strijd met de getoonde testresultaten, maar om twee redenen komen de Nvidia-kaarten wat geflatteerd uit de tests naar voren. De eerste reden is dat de gebruikte spellen door de bank genomen in het voordeel van Nvidia zijn. De tweede heeft te maken met de gebruikte drivers. Voor de HD 4890 is versie 9.3 van de drivers gebruikt, terwijl versie 9.4-drivers hoogstwaarschijnlijk voor betere prestaties hadden gezorgd. Bij Nvidia werd juist van gloednieuwe bètadrivers gebruik gemaakt, die in drie van de geteste spellen ook een flinke performance-boost zouden moeten geven.
Waarom zijn dan die spellen geselecteerd voor de test? Met die drivers kan ik volgen dat er gewoon gebruikt wordt wat voor handen is, maar de keuze voor die spellen maken jullie toch zelf? Ik kan me niet voorstellen dat jullie hier zelf vrolijk van worden, heb je al die tests gedraait moet je de conclusie uit je tests afzwakken om o.a. een reden die je van te voren al had kunnen weten en te voorkomen lijkt.
We zijn nu ongeveer 3/4 weken bezig met het serieus benchmarken van videokaarten. Het opzetten van de juiste benchmarks kost tijd, en pas naderhand kan er gevalueerd worden. De spellen Hawx en Grid worden op dit moment geinstalleerd en zullen in de volgende review worden meegenomen. Natuurlijk was eerder beter geweest, maar even snel een paar benchmarks extra draaien is er niet bij, sommige kaarten zijn dan namelijk al getest, of al terug naar de fabrikant, etc. We zijn ons er echter van bewust, en maken dan ook aanpassingen om jullie van betere reviews te voorzien.
Onverklaarbare redenen? Waarom werkt het wel normaal als je de kaart overklokt?

Ook hier heb je weer zoiets vaags, Een standaard geklokte 260GTX die sneller is dan een 275GTX (weliswaar op lage resolutie). En dan ook op 1920x1200 sneller is dan 1680x1050, maar als de kaart wordt overgeklokt zakt alles in behalve waar de kaart standaard bagger presteerde (1680x1050).
Meer van dezelfde onzin ja, hoe kan nou een kaart die overgeklokt is trager zijn dan standaard (tenzij er ergens wat fout zit)? En dat terwijl de 260GTX mooi schaalt met de overklok zou de 275GTX op 1920x1200 resolutie niks van de overklok meer merken?

Ik vind deze hele review maar vaag, rare waarden. Wel mooie plaatjes, dat wel. Maar waarom is er ook geen gebruik gemaakt van bijvoorbeeld RivaTuner om 'handmatig' de fans van die 260GTX Matrix koeler aan te passen?
Deze hele review voelt aan of er de minste moeite is genomen om echt goede resultaten naar buiten te brengen.

Edit: links gefixed

[Reactie gewijzigd door Freaky Maus op 24 juli 2024 23:11]

Onverklaarbare redenen, omdat ik de test nogmaals gedraaid heb, en nogmaals, en op andere ATI kaarten, maar ik kon er niet achter komen waarom een stock HD 4890 op 1280*1024 zo slecht presteert.

Wat betreft Crysis overdrijf je een beetje. De overgeklokte HD 4890 presteert gewoon hetzelfde als de stock HD 4890. Die ene FPS minder op 1920*1200 is statistisch amper significant. De kaart heeft weinig/geen baat bij een overklok. Soms is dat gewoon zo. De verschillen bij de gtx260/gtx275 tussen wel/niet overgeklokt zijn ook niet heel erg groot.

En rivatuner is niet gebruikt om de fans te verlagen, want dat kan overal bij, en zou dus oneerlijk zijn. Het gaat om de ervaring out of the box. Als het nu puur een review was om de geluidsproductie te bekijken was er wel meer tijd aan besteed.

[Reactie gewijzigd door Marc Rademaker op 24 juli 2024 23:11]

Misschien overdrijf ik dan, maar als je puur naar de grafiek kijkt bij Crysis. Dan kun je daaruit concluderen dat de overgeklokte 4890 (@ 1280x1024) bijna 5% trager is dan standaard. Op 1920x1200 gaat het richting de 8% trager.
Die ene fps minder of meer zorgt wel voor een raar beeld op deze manier. Als het dan toch gelijk is, zet dan dezelfde grafiek neer. Of draai de test meerdere malen om zo een nauwkeuriger gemiddelde te krijgen.

In "World in Conficlt" zie je bij de minimale waarden van de 260GTX OC'd het volgende:
1280x1024: 3,45% langzamer dan standaard
1680x1050: 9,68% sneller dan standaard
1920x1200: 4,76% langzamer dan standaard
Misschien overdrijf ik nog steeds, maar ik vind het rare resultaten. De ene keer is het bijna 10% sneller terwijl de andere keren het juist 180 graden omgekeerd is. Ook hier kun je zeggen: "je hebt het maar over 1,5 frame meer of minder op z'n hoogst". Maar dat is wel bijna 10%. Als het dan echt zo weinig verschilt, draai die test dan meerdere keren. Want op deze manier (zeker via grafieken) krijg je een vertekend beeld.

En waarom je geen RivaTuner wilt gebruiken snap ik opzich wel. Maar wat ik dan weer niet snap is waarom je dan bèta-drivers gebruikt ipv WHQL/gewoon, want ook dat is niet "out of the box".
Heel leuk en aardig maar GTX 275 kan gewoon geflasht worden na GTX285. Een Asus dan. MSI weet ik niet. GTX275 is een GTX285 die tegen ATI 4890 moet opnemen. Na flashen is gewoon te zien met GPU-Z dat hij 1GB geheugen heeft met 512bit. 127 gb per sec gaan naar de 159 gb. Een vriend van mij heeft het gedaan met mijn GTX285 Asus bios ( waar ik bij was ) Ben zelf een Nvidia fan maar dit vind ik niet leuk. Ze klokke ook na flashen als een gek. Abnormaal. GPU-Z zie ook geen GTX275 meer maar een GTX285.

Eigen risico

Zie ook hier
Ik heb voor de zekerheid even gebeld met Point of View, en die konden mij verzekeren dat de GTX275 van Point of View echt een gpu heeft met een 448bit-geheugenbus, 240sp's, en dat er ook maar 896MB geheugen op de videokaart zit.

Dus of er is iets heel raars aan de hand met die Asus GTX275 van jou, of de biosflash gaat je nog een keer problemen opleveren. Overigens leest gpu-z de bios uit afaik, dus dat gpu-z een gtx285 ziet is logisch. Ik vermoed dat je kaart overigens zal crashen zodra die geheugen probeert aan te spreken dat fysiek niet aanwezig is.

Bewijs zou zijn een foto van de kaart, waar we alle memory chips op kunnen zien. Mijn vermoeden is dat de optelsom 896MB zal zijn, en niet 1024MB.
Op zich zou het niet voor het eerst zijn dat fabrikanten deze truc uithalen. Ik zeg niet dat het hier ook het geval is, maar een duurdere kaart wordt vaker als lagere versie verkocht.
Via google images heb ik deze foto van een Asus ENGTX275 zonder koeler gevonden:
http://www.betanews.net/bbs/zoom.html?num=612129 (via dit artikel)
Het lijkt erop dat alle geheugenchiplocaties bezet zijn. Het beste zou zijn als Xblade z'n vriend zover krijgt om de koeler van zijn GTX275 te demonteren en daar een foto van te schieten, en die te vergelijken met een foto van een GTX285.
Helaas heb ik verder weinig kunnen vinden, maar de GTX275 is er natuurlijk ook nog niet zo lang (en nog niet echt goed verkrijgbaar), dus hopelijk kan dit in de komende weken bevestigd worden.

Ik blijf dit nog even volgen, want ik ben op het moment aan het twijfelen tussen een GTX275 en HD4890 (aankoop zal binnen een week of 3-4 plaatsvinden), en mocht Asus' GTX275 inderdaad met een simpele flash tot GTX285 omgetoverd kunnen worden, dan is het pleit beslecht ;)

[Reactie gewijzigd door johnwoo op 24 juli 2024 23:11]

Even tellen geeft al een hoop helderheid, 14 geheugenchips: 32 * 14 = 448 bit.

De GTX285 gebruikt 16 chips.
Inderdaad, tegenvaller... Mogelijke verklaringen:
- De GTX285 firmware werkt (kennelijk, zie post Xblade) maar zal dan geen prestatiewinst leveren, en mogelijk crashen als hij probeert de laatste 128 MB te benaderen.
- Asus heeft twee verschillende GTX275 PCB's; dit lijkt me onwaarschijnlijk maar Xblade zegt dat de ENGTX275 PCB identiek is aan die van de GTX285. Dan wil ik wel een foto zien van die ENGTX275 van die vriend van hem ;)
- Mijn Koreaans is niet meer wat het geweest is en het plaatje wat ik linkte is geen Asus maar bijvoorbeeld een reference board.

Conclusie: Xblade, graag meer info/foto's van die ENGTX275 van die vriend van je!
Lijkt me sterk eerlijk gezegt, zoek er es een goeie link bij?
HWI zou ik niet op bouwen wat dat betreft :P
Na flashen is gewoon te zien met GPU-Z dat hij 1GB geheugen heeft met 512bit. 127 gb per sec gaan naar de 159 gb.
Het probleem met GPU-Z is dat hij die waarden uit een eigen database haalt, en dat zijn dus geen waarden die hij rechtstreeks uitleest. Omdat in zijn database de GTX285 met die waarden gekoppeld is en hij die dus laat zien, wilt nog niet zeggen dat jouw kaart die waarden echt zal hebben.
Prijs prestatie wise is de ATI kaart denk ik net wat leuker.
Je komt de 4890 hier en daar al tegen voor rond de 200 euro.

De GTX275 absoluut niet.

Vooral voor diegene die hun kaarten stock willen houden is de 4890 denk ik de beste keuze.

Heb persoonlijk weer een ATI voorkeur, maar dat is omdat die kwalitatief betere drivers heeft. Maar mijn reactie hierboven staat los van die voorkeur.
Heb persoonlijk weer een ATI voorkeur, maar dat is omdat die kwalitatief betere drivers heeft.
Uit een recente NVIDIA vs ATI review:
Nvidia has been very aggressive with getting their drivers to perform, either before a game is launched or on the launch date of the game. They have strived to be very aggressive, and it shows in our testing. When we all talk about multi-GPU performance, opinions vary on which company is better, and with ATI's driver issues it's kind of hard not to get frustrated...
http://www.overclockerscl...s/crossfire_vs_sli/25.htm
Als ze 'kwalitetief' betere drivers hebben, maar de performance is toch minder, wat heb je dan aan deze betere drivers vraag ik me dan af.

Het is toch éénmaal installeren, configureren en gaan met die banaan.
Sommige mensen hebben liever wat meer stabiliteit en betrouwbaarheid dan enorme snelheid. Met name betrouwbaarheid is een woord dan Nvidia niet kent en dan doel ik (om eerlijk te zeggen) meer op hun bedrijfsvoering.
Lol wat een onderbouwde statement.
Er zijn vast genoeg mensen die dat denken van ATI ook.
Sorry, ik zal het enigszins onderbouwen. Nvidia heeft voor mij volledig afgedaan na het gehele G8400, G8600 en G92 debacel. willens en wetens 2 jaar lang GPU/IGP's produceren welke een produktie fout bevatten. Waarna het toegegeven te hebben zowel OEM partners als consument volledig in de kou te laten staan, omdat Nvidia gewoon geen oplossing bied. Je kunt er gewoon vanuit gaan dat wanneer je een laptop bezit met een van deze GPU/IGP's deze de produktie fout bevat en er elk moment er mee kan ophouden of vreemde strepen gaat trekken over het scherm.

Daarnaast het onhebbelijk hernoemen van oude GPU's naar nieuwe benamingen zodat oude architekteur wordt verkocht als zijnde nieuw.

Ik heb zelf een aantal jaar achtereen Nvidia kaarten gebruikt, de laatste paar jaar uitsluitend ATi en dat bevalt mij zeer goed ik heb werkelijk nergens enig probleem mee. Op dit moment probeer ik Nvidia produkten zoveel als mogelijk links te laten liggen, om bovenstaande redenen.

Ik loop nu al weer zo'n jaartje of 10 mee in de hardware wereld en dergelijke praktijken op deze schaal heb ik nog niet eerder gezien.

Dus mijn reactie was misschien niet helemaal juist, in deze context. Wat berteft stabiliteit of snelheid, persoonlijk heb ik liever stabiliteit, dan maar een paar frames minder. Met de btrouwbaarheid doelde ik dus op de gehele bedrijfsvoering van Nvidia.
Beide fabrikanten hebben goede en minder goede producten. De 2900XT was ook geen toppertje, gebruikte heel veel stroom en de beloofde performance bleef achter. Het zou zogezegd een G80 killer zijn maar dat is het nooit geworden. Toen kwam de 3870, hetzelfde voor minder geld en gebruikte minder stroom, maar was niet sneller. De 3870X2 had last van microstuttering (google 'microstuttering' maar eens), wat een hardware issue blijkt te zijn met dual en quad gpu kaarten. Bovendien zijn de ATI drivers ook niet altijd even stabiel. Met mijn oude systeem (2x3870X2's) crashte de driver constant wanneer ik dual monitor inschakelde. Het is gewoon een kwestie van voorkeur en ervaring. Naargelang kom je er vanzelf achter dat beide fabrikanten hun slechte kanten hebben.
Yep, ik heb alleen ervaring met Ati kaarten, en zodra je maar enigszins een kaart heb die ietsje afwijkt van de 'mainstream', zoals een all-in-wonder kaart of een X1950 AGP kaart, dan zijn drivers een groot probleem bij ati. Mijn advies: als je eenmaal een driver heb gevonden die goed werkt: blijf daarbij en ga niet updaten.
Ik heb jaren NVIDIA gebruikt en dan toch ook eens een highend ATI gekocht. Door de manier hoe drivers werken bij ATI denk ik niet het ooit nog eens te doen. Bij NVIDIA moet je wel een maandje wachten op goeie drivers, bij ATI komt er na de aankoop gewoon nooit verbetering op.
ach, beide bedrijven leveren slechte support op producten die niet belangerijk meer zijn of die niet veel gebruikt meer kunnen worden. Ik heb nog een 7950gx2 en ik moet drivers van een jaar oud gebruiken op vista, als ik durf een recentere te installeren weigert hij nog te booten hoewel die kaart officieel wel nog ondersteund word in de drivers...
@Sprankel:
Om even het andere plaatje te tonen:
Ik gebruik steeds de recentste drivers voor mijn 6600GT en kom nooit problemen tegen, soms zelfs een (marginale) prestatiewinst!
@Rizon: wanneer was dat dan?
Ik heb nu zelf een goeie High End van ATi in mijn PC liggen, maar ik kan elke maand(kan de klok er bijna op gelijk zetten!) een nieuwe update van het internet af trekken.
Nu merkt ik zelf niet altijd een prestatiewinst, voornamelijk vanwege de specifieke fixes voor spellen die ik niet speel. Maar toch merk ik eens in de 2 maanden dat de prestaties vooruit schieten.

Bij mijn 7900GT merkte ik dat ook wel, maar wat ik ook merkte was het doorfikken van die GPU, die werd veels te warm veels te snel(ik keek naar een icoon van een spel en dat ding floepte 3 graad omhoog(en nee, t lag niet aan de koeler)) is uiteindelijk ook afgefikt.

Voor mij iig geen nVidia meer.
Een 4870. Ik hoorse al jaren slechte verhalen over drivers van ATI en wou toch eens zelf kijken of het zo erg is.
Voor mij zit de fun er ook niet in om elke maand een nieuwe update te installeren, het moet iets veranderen aan mijn ervaring. Het control center voelt ook gewoon aan als een brak stukje software dat wel eens durft te breken.
Kan het er niet mee eens zijn dat de ATi beter uitkomt prijs/prestatie. Net als de conclusie van de review hier is mijn mening dat die paar euro prijsverschil meer dan gerechtvaardigt is door de hogere prestatie van de GTX275, op stock snelheden al.

Daarnaast heb ik wat betrefd driver support altijd meer problemen gehad met ATi, zoals de LCD scaling functie (zwarte randen toevoegen voor 4:3 resoluties op een breedbeeld scherm) die zo goed als nooit werkt. Ook BSoD's met ati driver als oorzaak, heb ik vaak genoeg gezien, terwijl ik deze sinds m'n overstap naar m'n 8800GTS 512 nooit meer heb gehad.

[Reactie gewijzigd door knirfie244 op 24 juli 2024 23:11]

niet om flauw te doen maar ATI is al een poosje niet meer zelfstandig maar onderdeel van AMD zoals in de text staat vermeld.... Dit even terzijde om verwarring voor de mensen die wat minder op de hoogte zijn te voorkomen.

[Reactie gewijzigd door Baddo op 24 juli 2024 23:11]

Waarom reviewen jullie dan niet meteen goed ? jullie geven zelf al aan dat voor de nVidia kaarten beta drivers gebruikt worden. En voor AMD niet eens de laatste official drivers.

Zat mensen die de conclusie niet lezen en zich aan een review blind staren.

Ik ben ook benieuwd hoe lang nVidia die GTX275 kaarten blijft leveren zeker omdat de prijs van de GTX260 redelijk hoog is. Het zou mij niets verbazen als die GTX275 al vrij snel niet meer te krijgen is.

nVidia verkoopt natuurlijk liever een GTX285. (zelfde core als de GTX275 kaarten.)
Heeft AMD met de HD 4890 de plank nu volledig misgeslagen?
Nee, deze review slaat de plank volledig mis. Er wordt niet objectief getest (de punten zijn door al door anderen genoemd), en onderscheid zich wederom niet van de concurrentie door weer het standaard riedeltje FPS benchmarks (Fry Cry, Stalker, Crysis en Call of Duty) te gebruiken. Deze review heeft derhalve geen enkele toegevoegde waarde t.o.v. de reviews die op andere tech-sites te vinden zijn. Volgende keer hopelijk beter.
De andere tech sites komen tot dezelfde conclusie. De NVIDIA kaart scoort gemiddeld beter en verbruikt minder.
De andere tech sites komen tot dezelfde conclusie. De NVIDIA kaart scoort gemiddeld beter en verbruikt minder.
Dus welke toegevoegde waarde heeft deze review? Geen.
Fry Cry? :P

Ik moet zeggen dat de meeste hate toch uit het ATIkamp komt (Ik ben neutraal, don't shoot the messenger) en gezien deze resultaten is dat ook zeer begrijpelijk. Dat de GTX275 beter presteert als de HD4890 wil ik nog wel geloven, maar dat de 4890 zo veel moeite moet doen om een GTX260/216 bij te houden vond ik toch wel vreemd, zeker aangezien de eerdergenoemde GTX260 een gelijke was aan de HD4870.
Ik hang geen merken aan, dat laat ik aan fanboy's over. Mijn filosofie is: getting the best bang for my bucks. En of dat nu ATi, Intel, nVidia of AMD is zal me een rotzorg zijn.

Maar goed, dit neemt niet weg dat mijn kritiek op deze review gegrond is. Wat voor meerwaarde biedt deze review t.o.v. van andere tech-sites?
Leuke test, leuk om te lezen hoe gekeken wordt naar prijs-prestatie.

Opmerking 1: hoe programmeer je een game om een bepaald soort/merk videokaart beter te ondersteunen? Volgens mij worden alle games richting DirectX ontworpen en is het daarna aan de videokaart fabrikanten om voor goede drivers te zorgen. Dat het ene mekr videokaart dus beter presteert dan het andere merk in bepaalde games, ligt m.i. niet aan de games maar aan de drivers. En drivers zijn van oudsher sterk bepalend voor performance.

Opmerking 2: ik had persoonlijk deze test op een dual of quad core systeem uitgevoerd en niet op een i7. Ten eerste hebben de meeste gamers nu nog geen i7 systeem. Leuk om te zien hoe dergelijke kaarten presteren op zo'n dure processor maar representatief voor het gemiddelde game systeem die op dit moment bij mensen thuis staat is het denk ik nog niet. Ten tweede zijn dit goede kaarten, maar middensegment. Mensen die het geld over hebben voor een i7 systeem zullen sneller een topsegment kaart kopen. Mensen die in de markt zijn voor deze middensegment kaarten zijn tevens de mensen die nu nog geen i7 systeem hebben (gemiddeld gezien dan he). Ben erg benieuwd hoeveel FPS dat zou schelen als je dezelfde tests uitvoert op een E8400 bijvoorbeeld, desnoods met een overklokje ;)
Nvidia heeft een aantal the way its meant to be played spellen, waarbij nauw wordt samengewerkt tussen de ontwikkelaar en Nvidia zelf. Het is zeker mogelijk om een spel zo te programmeren dat het efficienter omgaat met de drivers.

De i7 wordt gebruikt juist omdat dit de snelste cpu is, en dus een zo klein mogelijke cpu-bottleneck oplevert en lange tijd mee kan.
Over Opmerking 1 : Hoe komt men aan de DirectX specificaties ?

Dat doen de GPU fabrikanten zelf in overleg met Microsoft. Daarin staan omschreven waaraan de videokaarten moeten voldoen, met allerlei technische aspecten erin.
Het mooie daarvan is dat er meerdere "wegen naar Rome" leiden. MAW: ze doen allemaal hetzelfde, maar onder de motorkap zijn er wel degelijk grote verschillen.

Zo zit het precies met Nvidia en Ati. Ze hebben beide een geheel andere benadering en dus totaat verschillende architecturen van hun GPU chipsets.

Dar spellen op het ene platform beter tot hun recht komen dan op het andere, heeft dan ook vooral met de architectuur van de GPU te maken en de game-engine die gebruikt word. Met drivers probeer je de GPU optimaal te laten presteren maar dat poetst niet de verschillen in architectuur weg.

Dat met nieuwere drivers de performance omhoog gaat, duid er dan ook vooral op dat voorgaande drivers niet optimaal gebruik maakten van de betreffende GPU. Soms gaat de performance omlaag, omdat men bijv. een grafisch issue moet oplossen.

MAW: als de architectuur van de GPU het niet toelaat; kun je doen met de drivers wat je wil; je zal er geen extra fps meer uit kunnen persen (ervan uitgaan dat de betreffende drivers al 100% efficient zijn). Soms gebruiken ze truukjes om de kaart sneller te laten lijken, maar dat gaat altijd ten koste van de beeldkwaliteit (dat laatste zeggen ze er dan niet bij).
Heb zelf al GTX285 in triple sli. Ja vind dit niet leuk omdat ze geen nieuwe chip hebben. Ze gebruiken elke keer een oud chip om iets nieuws van te maken. We hebben 3 Asus kaarten hier geflasht. Ze zijn nu GTX285.

@AsEeL

Ze hebben dezelfde pcb nummer van een GTX285 en zo zijn we achtergekomen. Zelfde PCB zoals een GTX285 en zelfde chip. Ook 1GB geheugen waarvan 896MB herkend wordt. na flashen heb je gewoon een GTX285 ( met Asus dan ) Als iemand kent die een Gainward GTX285 heeft dan moet je zijn PCB even nakijken. Als jij dezelfde hebt dan heb je gewoon een GTX285

[Reactie gewijzigd door Hamed op 24 juli 2024 23:11]

Het slaat inderdaad helemaal ergens op...

Als je toch al de hardware levert, waarom zou je deze dan zelf met een bios uitschakelen? Verlaag dan gewoon je gtx285 in prijs, doe wat met de clocks, maar je ga toch niet een aantal MB, clocks en bandbreedte die wel aanwezig is, dus toch al geproduceerd is, uitschakelen voor je gebruikers?

Ik wordt het rebranden van nvidia ondertussen ook wel een beetje zat. 8800GTS een generatie meenemen en met een die-shrink een andere maat geven ok... vooruit.

Maar deze nóg een keer rebranden... bios cripple hardware leveren...
Dit lijkt helemaal nergens op.

Marketing is kennelijk belangrijker als een goed, optimaal product voor de klant.
Misschien vind iedereen me gestoord, maar ik zou wel eens een vergelijkende test willen zijn van de beste passief gekoelde (stille) grafische kaarten die momenteel te koop zijn.
In hoeverre kan je daar als gamer mee uit de voeten? Draait het bijvoorbeeld WOW en andere MMO's die wat minder extreme eisen stellen?

/me droomt nogsteeds van een fanloze machine die goed genoeg is voor gemiddeld computergebruik.
mijn oude X1300 Pro passive draaide WOW (zonder wotlk) maxed op 60FPS. ik moet toegeven dat dit op 1280*1024 is en zonder de betere graphics, maar de gemmiddelde passieve GTxxx of HD4xxx zal toch echt wel maxed WoW kunnen draaien... met AA op 1920*1200
Ehm, hier een 4890 op een Core i7 920 draait WoW wel op maxx, maar zeker niet met 60fps. Northrend doet 40-50 en Dalaran (met alle settings max na patch 3.1) zakt naar 15-20. Ok, Dalaran is badly coded :)
Voor nog geen 30 euro koop je al hele goede, superstille GPU-koelers. Zoals de Scythe Musashi . thermalright heeft ook zoiets net als anderen.
Geluidsarm heb ik momenteel al, maar een stapel geluidsarme fans bij elkaar maakt wat mij betreft nog steeds te veel geluid. Ik wil echt geluidsloos.
Haha, dan heb je die scythe koeler nog niet van dichtbij gezien; je hoort de 92mm fans gewoon niet; punt. Dat is nu juist het mooie, het zijn speciale fans, die langzaam draaien.
Als je ze wil horen, moet je je oor ertegenaan leggen.

Punt is; ik vertrouw mee op de levensduur als er een koel briesje langs de GPU loopt.

[Reactie gewijzigd door Madrox op 24 juli 2024 23:11]

Punt is dat een GPU zonder actieve koeling voor veel taken al meer dan geschikt is. Ik doel hier op een volledig geluidsstille PC.

Hoedanook zou het leuk zijn als T.net eens probeert een systeem samen te stellen die altijd ónder 3dB (om maar een voorbeeld te noemen) geluid blijft en te kijken wat dan de maximale performance hiervan is.
Toch beprijp ik je verzoek niet. Van alle geruisloze gpu's zijn er ook uitvoeringen die actief gekoelt worden. Als de specs verder het zelfde zijn, zullen d eprestaties identiek zijn als de actief gekoelde exemplaren. Beetje onnodige test om te doen dan, als je overal de resultaten al kan vinden.

Een geruisloze pc maken zou wel leuk zijn voor een special.

3dB is trouwens ultra-stil, dat ga je never nooit halen. Decibelmeter
In huis is het omgevingsgeluid al tussen de 20 en 30dB.
+1, vind ik een goed plan :D

Op dit item kan niet meer gereageerd worden.