Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Marc Rademaker

Redacteur

GTX275 vs HD 4890 vs GTX260

Conclusie

Wanneer het gaat om de prestaties, dan is het niet moeilijk een winnaar aan te wijzen: dat is overduidelijk de GTX275. De HD 4890 is marginaal sneller dan de GTX260, terwijl de GTX275 beduidend sneller is dan deze beide.

De volgende vraag is dan hoe de prijs/prestatie-verhouding voor de kaarten ligt. De goedkoopste GTX275 die op dit moment in de Pricewatch is te vinden, kost 221,95 euro, terwijl de HD 4890 bij de goedkoopste aanbieder voor 204,00 euro weg mag. Het prijsverschil van iets meer dan 15 euro is makkelijk te rechtvaardigen door de duidelijk betere prestaties van de Nvidia-kaart. De GTX275 mag dan onder load iets meer verbruiken, in de 2d-modus, waarin veel computers toch de meeste tijd doorbrengen, verbruikt de videokaart aanzienlijk minder stroom dan de AMD-kaart. Wat betreft de geluidsproductie ontlopen de videokaarten elkaar niet veel.

De geteste GTX260 is eigenlijk een klasse apart. Helemaal representatief is de videokaart niet voor de GTX260 in het algemeen, omdat bij de Asus-kaart tijdens het overklokken de spanning licht verhoogd kan worden. Met een prijs van 201,68 euro is de kaart een prima concurrent voor de GTX275. Uit de benchmarks blijkt dat de overgeklokte GTX260 de GTX275 altijd voor blijft. De GTX275 kan hoger worden overgeklokt dan in deze review is gedaan, maar het verschil zal niet heel groot zijn. De GTX260 van Asus beschikt echter ook over een speciale koeler, die vooral onder load een stuk stiller is.

Heeft AMD met de HD 4890 de plank nu volledig misgeslagen? Die conclusie zou voorbarig zijn. De meer prijsbewuste consument doet er waarschijnlijk verstandig aan om voor ongeveer 150 euro een HD 4870 of GTX260 te kopen, maar in de hogere prijsklasse weet de HD 4890 zich aardig te weren. Dat lijkt misschien in strijd met de getoonde testresultaten, maar om twee redenen komen de Nvidia-kaarten wat geflatteerd uit de tests naar voren. De eerste reden is dat de gebruikte spellen door de bank genomen in het voordeel van Nvidia zijn. De tweede heeft te maken met de gebruikte drivers. Voor de HD 4890 is versie 9.3 van de drivers gebruikt, terwijl versie 9.4-drivers hoogstwaarschijnlijk voor betere prestaties hadden gezorgd. Bij Nvidia werd juist van gloednieuwe bètadrivers gebruik gemaakt, die in drie van de geteste spellen ook een flinke performance-boost zouden moeten geven.

Point of View GTX275 Point of View GTX275 Point of View GTX275 Point of View GTX275 Point of View GTX275 Asus ROG GTX260 Matrix-uitvoering Asus GTX260 Asus GTX260 Asus GTX260 Asus GTX260 Asus GTX260 Asus GTX260 Asus GTX260 Asus GTX260AMD Radeon HD 4890 AMD Radeon HD 4890 AMD Radeon HD 4890 AMD Radeon HD 4890 AMD Radeon HD 4890 AMD Radeon HD 4890

Reacties (112)

Wijzig sortering
Als je al weet dat de drivers een oneerlijk voordeel voor Nvidia op leveren waarom dan nog testen? Waren de drivers voor AMD nog niet beschikbaar of wilde AMD deze niet leveren of.....

Daar naast is het wel leuk om te zeggen de gebruikte spelen vallen eigenlijk altijd in het voordeel van Nvidia uit maar dan blijft de vraag waarom dan niet een meer representatieve zet games gekozen? Was dat omdat er gewoon geen recente games zijn die AMD in een goed licht zetten, dat zou reden genoeg kunnen zijn om geen AMD te kopen want games is toch de reden om een dure GPU in een systeem te hangen.

Dan blijft nog de vraag waar zo'n ongelijk beeld geven waarom niet bijde stock kaarten gebruikt. Ik weet het sponsors zijn daar niet altijd even makelijk in en je moet roeien met de riemen die je hebt, bla, bla, bla maar het geeft natuurlijk een vertekend beeld als je een flink door ontwikkelde kaart tegen een stock kaart plaatst.

Ik weet dat het allemaal vermeld is in de conclusie en in het verslag maar toch het blijft jammer dat de tests niet op een veel meer objectieve wijzen plaats vinden bij Tweakers.

Oh, en voor de geen die dat mischien mochten denken ik ben geen fan van welke GPU architectuur dan ook, ik koop gewoon dat wat er in mijn systeem past en wat op dat moment de beste prijs prestatie verhouding heeft binnen het budget dat ik op dat moment beschikbaar heb. Op dit moment is dat een 8800GT maar wie weet wat het over een paar maanden zal zijn...
De HD 4890 werd door AMD geleverd met 9,3 drivers. Daar doe je niets aan. En ja er zijn wel spellen die minder in het voordeel zijn van Nvidia, en dat zijn HAWX en GRID, die dus binnenkort ook gebruikt gaan worden.

En alle drie de kaarten zijn op stock getest, en op overgeklokte snelheid? Dus ik snap niet wat je bedoelt met een vertekend beeld en een doorontwikkelde kaart tegen een stock kaart.

[Reactie gewijzigd door Marc Rademaker op 27 april 2009 10:57]

Denk dat hij de kaart bedoelt waarbij het voltage omhoog kan.

Wat de drivers aangaat, die opmerking snap ik niet. Als ik een kaart koop in de winkel staan er vrijwel altijd gedateerde drivers op. Dan gaan we naar Asus/AMD om de nieuwe drivers op te halen.

Hoezo doe je daar dan niks aan ? 8)7

PS: Grafieken kan er best wel aardig uit zien, mist het goed gebracht word. Zie bijv. de reviews van Guru3D. Hier zijn de kleuren net zo lekker gekozen en ook de symbooltjes op de lijn zouden mogen varieeren; dan zou het al een stuk duiidelijker worden. Net als de rest prefereer ik echter staafdiagrammen boven de lijntjes bij dit soort benchmarks.

[Reactie gewijzigd door Madrox op 27 april 2009 10:56]

Op het moment dat wij de HD 4890 gingen benchmarken, moesten we het doen met AMD's drivers, die in feitte 9,3 drivers zijn, met ondersteuning voor de HD 4890. De 9,4 catalyst downloaden en gebruiken icm met de HD 4890 was toen geen mogelijkheid. Het is niet ideaal, maar zoals ik al zei, het was niet anders. De benchmarks opnieuw draaien maar dan met 9,4 ging helaas niet. Zoals ook al opgemerkt, het zal niet ineens een wereld van verschil zijn.
Het zou handig zijn als je ook meteen aangeeft waarom dat dan niet ging?
De 9,4 catalyst downloaden en gebruiken icm met de HD 4890 was toen geen mogelijkheid. Het is niet ideaal, maar zoals ik al zei, het was niet anders. De benchmarks opnieuw draaien maar dan met 9,4 ging helaas niet.
Op het moment dat wij de HD 4890 gingen benchmarken, moesten we het doen met AMD's drivers, die in feitte 9,3 drivers zijn, met ondersteuning voor de HD 4890. De 9,4 catalyst downloaden en gebruiken icm met de HD 4890 was toen geen mogelijkheid. Het is niet ideaal, maar zoals ik al zei, het was niet anders. De benchmarks opnieuw draaien maar dan met 9,4 ging helaas niet. Zoals ook al opgemerkt, het zal niet ineens een wereld van verschil zijn.
Sorry, maar dit slappe excuus geloof ik niet. Deze summiere test kan nooit zoveel tijd in beslag hebben genomen. Jullie kunnen wel testen met de laatste nVidia BETA drivers, maar de officiele 9.4 ATi drivers, die al WEKEN voorhanden is (zie mijn eerdere reactie in deze draad), is niet mogelijk?
Dit nog even los van het feit dat de gelekte 9.5 ATi BETA driver ook al weken te verkrijgen is...
Nee sorry, maar dit 'excuus' is volkomen ongeloofwaardig.
De HD 4890 werd door AMD geleverd met 9,3 drivers. Daar doe je niets aan.
Wat is dit voor non-argument? Natuurlijk kun je daar iets aan doen.
Het geen ik bedoel is een kaart die speciaal opgezet is met overkloken in het acherhoofd (spanning word aangepast al naar gelang ee hogere overklok gekozen wordt) tegen een kaart waar bij dat net gebeurt. Het is een beetje appels en peren vergelijken.

Wat betreft de drivers, hoe groot zijn die drivers van AMD als je ze in het geheel download? 90MB of zo... dat duurt een paar seconden tot maximaal tien minuten op het Tweakers kantoor, aangezien ik niet kan geloven dat er daar nog steeds over een dubbel lijns ISDN verbinding wordt gewerkt. Met andere worden het geen dat er in de doos zit is geen reden om dan maar niet gebruik te maken van de laatste drivers. De Nvidia beta drivers zaten neem ik aan ook niet in de doos maar zijn zelf binnen gehengelt, en als ze wel in de doos zaten dan had er ook gewoon voor Nvidia een normale driver gedownload kunnen worden in plaats van een beta met alle optimalizaties van dien.
Als je al weet dat de drivers een oneerlijk voordeel voor Nvidia op leveren waarom dan nog testen? Waren de drivers voor AMD nog niet beschikbaar of wilde AMD deze niet leveren of.....
De 9.4 drivers zijn al een hele tijd beschikbaar, dus dat kan geen excuus zijn.

meuk: ATI Catalyst 9.4
Dat was een enigszins te verwachten uitslag, maar wel net uitgewerkt. Het lijkt hetzelfde verhaal als de tijd rond de 8800GT. Veel prestaties voor weinig geld. Het is alleen jammer dat de nieuwe kaarten zo weinig extra bieden ten opzichte van hun voorlopers. Als je echt iets nieuws wilt, kun je dus weer beter wachten op de echte nieuwe generatie met bijvoorbeeld DX11. Die kaarten zullen weer nagenoeg twee keer zo snel zijn, en ook meteen twee keer zo duur.

Er is wel een ding wat mij erg tegen staat in deze review, en dat zijn de nieuwe grafiekjes. Deze zijn echt heel moeilijk af te lezen, en geven de onderlinge verhoudingen zeer slecht weer. Daar zijn de balkjes, zoals bij geluidsdruk, veel beter voor geschikt. De grafiekjes zijn wel bruikbaar om de verschillende resoluties tegen elkaar af te zetten, als dat gewenst is alnaargelang er een afwijkend patroon lijkt te bestaan.

Daarnaast kun je in de balkjes voortaan twee delen gebruiken, waarbij het eerste gedeelte het minimaal aantal frames aangeeft, en de rest van de balk het gemiddelde, met eventueel een streepje op de plek van het max. aantal frames. Op die manier kun je de videokaarten onder elkaar veel beter vergelijken. Dus iets van: |___|______| |

[Reactie gewijzigd door IceEyz op 27 april 2009 10:10]

Als ik ook nog even op de grafische weergave van de snelheden mag inhaken: Ik denk dat een lijn grafiek niet geschikt is voor het weergeven van 3 waarden die geen direct onderling verband hebben. Het voorstel van IceEyz lijkt me inderdaad een betere oplossing.

The Visual display of quantitative information is overigens een "must read" voor iedereen die grafiekjes wil toepassen om informatie over te brengen.
http://www.edwardtufte.com/tufte/books_vdqi
Het onderlinge verband tussen framerate en resolutie is er natuurlijk wel degelijk. Ik geef toe dat de weergave in deze grafieken niet optimaal is. Dit heeft deels met de wijze van presentatie en ook deels met de dataset te maken (weinig onderlinge verschillen). Een staafgrafiek zou ook goed kunnen werken als er een mogelijkheid komt om automatisch minima in een staafgrafiek te verwerken. Deze gegevens (minimale en gemiddelde framerate per resolutie) in losse staafgrafieken weergeven zorgt voor een overload aan grafieken, terwijl het om gegevens gaat met een sterk verband die gecombineerd weergegeven kunnen worden.
Dat lijkt misschien in strijd met de getoonde testresultaten, maar om twee redenen komen de Nvidia-kaarten wat geflatteerd uit de tests naar voren. De eerste reden is dat de gebruikte spellen door de bank genomen in het voordeel van Nvidia zijn. De tweede heeft te maken met de gebruikte drivers. Voor de HD 4890 is versie 9.3 van de drivers gebruikt, terwijl versie 9.4-drivers hoogstwaarschijnlijk voor betere prestaties hadden gezorgd. Bij Nvidia werd juist van gloednieuwe bètadrivers gebruik gemaakt, die in drie van de geteste spellen ook een flinke performance-boost zouden moeten geven.
Waarom zijn dan die spellen geselecteerd voor de test? Met die drivers kan ik volgen dat er gewoon gebruikt wordt wat voor handen is, maar de keuze voor die spellen maken jullie toch zelf? Ik kan me niet voorstellen dat jullie hier zelf vrolijk van worden, heb je al die tests gedraait moet je de conclusie uit je tests afzwakken om o.a. een reden die je van te voren al had kunnen weten en te voorkomen lijkt.
We zijn nu ongeveer 3/4 weken bezig met het serieus benchmarken van videokaarten. Het opzetten van de juiste benchmarks kost tijd, en pas naderhand kan er gevalueerd worden. De spellen Hawx en Grid worden op dit moment geinstalleerd en zullen in de volgende review worden meegenomen. Natuurlijk was eerder beter geweest, maar even snel een paar benchmarks extra draaien is er niet bij, sommige kaarten zijn dan namelijk al getest, of al terug naar de fabrikant, etc. We zijn ons er echter van bewust, en maken dan ook aanpassingen om jullie van betere reviews te voorzien.
Onverklaarbare redenen? Waarom werkt het wel normaal als je de kaart overklokt?

Ook hier heb je weer zoiets vaags, Een standaard geklokte 260GTX die sneller is dan een 275GTX (weliswaar op lage resolutie). En dan ook op 1920x1200 sneller is dan 1680x1050, maar als de kaart wordt overgeklokt zakt alles in behalve waar de kaart standaard bagger presteerde (1680x1050).
Meer van dezelfde onzin ja, hoe kan nou een kaart die overgeklokt is trager zijn dan standaard (tenzij er ergens wat fout zit)? En dat terwijl de 260GTX mooi schaalt met de overklok zou de 275GTX op 1920x1200 resolutie niks van de overklok meer merken?

Ik vind deze hele review maar vaag, rare waarden. Wel mooie plaatjes, dat wel. Maar waarom is er ook geen gebruik gemaakt van bijvoorbeeld RivaTuner om 'handmatig' de fans van die 260GTX Matrix koeler aan te passen?
Deze hele review voelt aan of er de minste moeite is genomen om echt goede resultaten naar buiten te brengen.

Edit: links gefixed

[Reactie gewijzigd door Freaky Maus op 27 april 2009 14:48]

Onverklaarbare redenen, omdat ik de test nogmaals gedraaid heb, en nogmaals, en op andere ATI kaarten, maar ik kon er niet achter komen waarom een stock HD 4890 op 1280*1024 zo slecht presteert.

Wat betreft Crysis overdrijf je een beetje. De overgeklokte HD 4890 presteert gewoon hetzelfde als de stock HD 4890. Die ene FPS minder op 1920*1200 is statistisch amper significant. De kaart heeft weinig/geen baat bij een overklok. Soms is dat gewoon zo. De verschillen bij de gtx260/gtx275 tussen wel/niet overgeklokt zijn ook niet heel erg groot.

En rivatuner is niet gebruikt om de fans te verlagen, want dat kan overal bij, en zou dus oneerlijk zijn. Het gaat om de ervaring out of the box. Als het nu puur een review was om de geluidsproductie te bekijken was er wel meer tijd aan besteed.

[Reactie gewijzigd door Marc Rademaker op 27 april 2009 14:58]

Misschien overdrijf ik dan, maar als je puur naar de grafiek kijkt bij Crysis. Dan kun je daaruit concluderen dat de overgeklokte 4890 (@ 1280x1024) bijna 5% trager is dan standaard. Op 1920x1200 gaat het richting de 8% trager.
Die ene fps minder of meer zorgt wel voor een raar beeld op deze manier. Als het dan toch gelijk is, zet dan dezelfde grafiek neer. Of draai de test meerdere malen om zo een nauwkeuriger gemiddelde te krijgen.

In "World in Conficlt" zie je bij de minimale waarden van de 260GTX OC'd het volgende:
1280x1024: 3,45% langzamer dan standaard
1680x1050: 9,68% sneller dan standaard
1920x1200: 4,76% langzamer dan standaard
Misschien overdrijf ik nog steeds, maar ik vind het rare resultaten. De ene keer is het bijna 10% sneller terwijl de andere keren het juist 180 graden omgekeerd is. Ook hier kun je zeggen: "je hebt het maar over 1,5 frame meer of minder op z'n hoogst". Maar dat is wel bijna 10%. Als het dan echt zo weinig verschilt, draai die test dan meerdere keren. Want op deze manier (zeker via grafieken) krijg je een vertekend beeld.

En waarom je geen RivaTuner wilt gebruiken snap ik opzich wel. Maar wat ik dan weer niet snap is waarom je dan bèta-drivers gebruikt ipv WHQL/gewoon, want ook dat is niet "out of the box".
Heel leuk en aardig maar GTX 275 kan gewoon geflasht worden na GTX285. Een Asus dan. MSI weet ik niet. GTX275 is een GTX285 die tegen ATI 4890 moet opnemen. Na flashen is gewoon te zien met GPU-Z dat hij 1GB geheugen heeft met 512bit. 127 gb per sec gaan naar de 159 gb. Een vriend van mij heeft het gedaan met mijn GTX285 Asus bios ( waar ik bij was ) Ben zelf een Nvidia fan maar dit vind ik niet leuk. Ze klokke ook na flashen als een gek. Abnormaal. GPU-Z zie ook geen GTX275 meer maar een GTX285.

Eigen risico

Zie ook hier
Ik heb voor de zekerheid even gebeld met Point of View, en die konden mij verzekeren dat de GTX275 van Point of View echt een gpu heeft met een 448bit-geheugenbus, 240sp's, en dat er ook maar 896MB geheugen op de videokaart zit.

Dus of er is iets heel raars aan de hand met die Asus GTX275 van jou, of de biosflash gaat je nog een keer problemen opleveren. Overigens leest gpu-z de bios uit afaik, dus dat gpu-z een gtx285 ziet is logisch. Ik vermoed dat je kaart overigens zal crashen zodra die geheugen probeert aan te spreken dat fysiek niet aanwezig is.

Bewijs zou zijn een foto van de kaart, waar we alle memory chips op kunnen zien. Mijn vermoeden is dat de optelsom 896MB zal zijn, en niet 1024MB.
Op zich zou het niet voor het eerst zijn dat fabrikanten deze truc uithalen. Ik zeg niet dat het hier ook het geval is, maar een duurdere kaart wordt vaker als lagere versie verkocht.
Via google images heb ik deze foto van een Asus ENGTX275 zonder koeler gevonden:
http://www.betanews.net/bbs/zoom.html?num=612129 (via dit artikel)
Het lijkt erop dat alle geheugenchiplocaties bezet zijn. Het beste zou zijn als Xblade z'n vriend zover krijgt om de koeler van zijn GTX275 te demonteren en daar een foto van te schieten, en die te vergelijken met een foto van een GTX285.
Helaas heb ik verder weinig kunnen vinden, maar de GTX275 is er natuurlijk ook nog niet zo lang (en nog niet echt goed verkrijgbaar), dus hopelijk kan dit in de komende weken bevestigd worden.

Ik blijf dit nog even volgen, want ik ben op het moment aan het twijfelen tussen een GTX275 en HD4890 (aankoop zal binnen een week of 3-4 plaatsvinden), en mocht Asus' GTX275 inderdaad met een simpele flash tot GTX285 omgetoverd kunnen worden, dan is het pleit beslecht ;)

[Reactie gewijzigd door johnwoo op 27 april 2009 12:56]

Even tellen geeft al een hoop helderheid, 14 geheugenchips: 32 * 14 = 448 bit.

De GTX285 gebruikt 16 chips.
Inderdaad, tegenvaller... Mogelijke verklaringen:
- De GTX285 firmware werkt (kennelijk, zie post Xblade) maar zal dan geen prestatiewinst leveren, en mogelijk crashen als hij probeert de laatste 128 MB te benaderen.
- Asus heeft twee verschillende GTX275 PCB's; dit lijkt me onwaarschijnlijk maar Xblade zegt dat de ENGTX275 PCB identiek is aan die van de GTX285. Dan wil ik wel een foto zien van die ENGTX275 van die vriend van hem ;)
- Mijn Koreaans is niet meer wat het geweest is en het plaatje wat ik linkte is geen Asus maar bijvoorbeeld een reference board.

Conclusie: Xblade, graag meer info/foto's van die ENGTX275 van die vriend van je!
Lijkt me sterk eerlijk gezegt, zoek er es een goeie link bij?
HWI zou ik niet op bouwen wat dat betreft :P
Na flashen is gewoon te zien met GPU-Z dat hij 1GB geheugen heeft met 512bit. 127 gb per sec gaan naar de 159 gb.
Het probleem met GPU-Z is dat hij die waarden uit een eigen database haalt, en dat zijn dus geen waarden die hij rechtstreeks uitleest. Omdat in zijn database de GTX285 met die waarden gekoppeld is en hij die dus laat zien, wilt nog niet zeggen dat jouw kaart die waarden echt zal hebben.
Prijs prestatie wise is de ATI kaart denk ik net wat leuker.
Je komt de 4890 hier en daar al tegen voor rond de 200 euro.

De GTX275 absoluut niet.

Vooral voor diegene die hun kaarten stock willen houden is de 4890 denk ik de beste keuze.

Heb persoonlijk weer een ATI voorkeur, maar dat is omdat die kwalitatief betere drivers heeft. Maar mijn reactie hierboven staat los van die voorkeur.
Heb persoonlijk weer een ATI voorkeur, maar dat is omdat die kwalitatief betere drivers heeft.
Uit een recente NVIDIA vs ATI review:
Nvidia has been very aggressive with getting their drivers to perform, either before a game is launched or on the launch date of the game. They have strived to be very aggressive, and it shows in our testing. When we all talk about multi-GPU performance, opinions vary on which company is better, and with ATI's driver issues it's kind of hard not to get frustrated...
http://www.overclockerscl...s/crossfire_vs_sli/25.htm
Als ze 'kwalitetief' betere drivers hebben, maar de performance is toch minder, wat heb je dan aan deze betere drivers vraag ik me dan af.

Het is toch éénmaal installeren, configureren en gaan met die banaan.
Sommige mensen hebben liever wat meer stabiliteit en betrouwbaarheid dan enorme snelheid. Met name betrouwbaarheid is een woord dan Nvidia niet kent en dan doel ik (om eerlijk te zeggen) meer op hun bedrijfsvoering.
Lol wat een onderbouwde statement.
Er zijn vast genoeg mensen die dat denken van ATI ook.
Sorry, ik zal het enigszins onderbouwen. Nvidia heeft voor mij volledig afgedaan na het gehele G8400, G8600 en G92 debacel. willens en wetens 2 jaar lang GPU/IGP's produceren welke een produktie fout bevatten. Waarna het toegegeven te hebben zowel OEM partners als consument volledig in de kou te laten staan, omdat Nvidia gewoon geen oplossing bied. Je kunt er gewoon vanuit gaan dat wanneer je een laptop bezit met een van deze GPU/IGP's deze de produktie fout bevat en er elk moment er mee kan ophouden of vreemde strepen gaat trekken over het scherm.

Daarnaast het onhebbelijk hernoemen van oude GPU's naar nieuwe benamingen zodat oude architekteur wordt verkocht als zijnde nieuw.

Ik heb zelf een aantal jaar achtereen Nvidia kaarten gebruikt, de laatste paar jaar uitsluitend ATi en dat bevalt mij zeer goed ik heb werkelijk nergens enig probleem mee. Op dit moment probeer ik Nvidia produkten zoveel als mogelijk links te laten liggen, om bovenstaande redenen.

Ik loop nu al weer zo'n jaartje of 10 mee in de hardware wereld en dergelijke praktijken op deze schaal heb ik nog niet eerder gezien.

Dus mijn reactie was misschien niet helemaal juist, in deze context. Wat berteft stabiliteit of snelheid, persoonlijk heb ik liever stabiliteit, dan maar een paar frames minder. Met de btrouwbaarheid doelde ik dus op de gehele bedrijfsvoering van Nvidia.
Beide fabrikanten hebben goede en minder goede producten. De 2900XT was ook geen toppertje, gebruikte heel veel stroom en de beloofde performance bleef achter. Het zou zogezegd een G80 killer zijn maar dat is het nooit geworden. Toen kwam de 3870, hetzelfde voor minder geld en gebruikte minder stroom, maar was niet sneller. De 3870X2 had last van microstuttering (google 'microstuttering' maar eens), wat een hardware issue blijkt te zijn met dual en quad gpu kaarten. Bovendien zijn de ATI drivers ook niet altijd even stabiel. Met mijn oude systeem (2x3870X2's) crashte de driver constant wanneer ik dual monitor inschakelde. Het is gewoon een kwestie van voorkeur en ervaring. Naargelang kom je er vanzelf achter dat beide fabrikanten hun slechte kanten hebben.
Yep, ik heb alleen ervaring met Ati kaarten, en zodra je maar enigszins een kaart heb die ietsje afwijkt van de 'mainstream', zoals een all-in-wonder kaart of een X1950 AGP kaart, dan zijn drivers een groot probleem bij ati. Mijn advies: als je eenmaal een driver heb gevonden die goed werkt: blijf daarbij en ga niet updaten.
Ik heb jaren NVIDIA gebruikt en dan toch ook eens een highend ATI gekocht. Door de manier hoe drivers werken bij ATI denk ik niet het ooit nog eens te doen. Bij NVIDIA moet je wel een maandje wachten op goeie drivers, bij ATI komt er na de aankoop gewoon nooit verbetering op.
ach, beide bedrijven leveren slechte support op producten die niet belangerijk meer zijn of die niet veel gebruikt meer kunnen worden. Ik heb nog een 7950gx2 en ik moet drivers van een jaar oud gebruiken op vista, als ik durf een recentere te installeren weigert hij nog te booten hoewel die kaart officieel wel nog ondersteund word in de drivers...
@Sprankel:
Om even het andere plaatje te tonen:
Ik gebruik steeds de recentste drivers voor mijn 6600GT en kom nooit problemen tegen, soms zelfs een (marginale) prestatiewinst!
@Rizon: wanneer was dat dan?
Ik heb nu zelf een goeie High End van ATi in mijn PC liggen, maar ik kan elke maand(kan de klok er bijna op gelijk zetten!) een nieuwe update van het internet af trekken.
Nu merkt ik zelf niet altijd een prestatiewinst, voornamelijk vanwege de specifieke fixes voor spellen die ik niet speel. Maar toch merk ik eens in de 2 maanden dat de prestaties vooruit schieten.

Bij mijn 7900GT merkte ik dat ook wel, maar wat ik ook merkte was het doorfikken van die GPU, die werd veels te warm veels te snel(ik keek naar een icoon van een spel en dat ding floepte 3 graad omhoog(en nee, t lag niet aan de koeler)) is uiteindelijk ook afgefikt.

Voor mij iig geen nVidia meer.
Een 4870. Ik hoorse al jaren slechte verhalen over drivers van ATI en wou toch eens zelf kijken of het zo erg is.
Voor mij zit de fun er ook niet in om elke maand een nieuwe update te installeren, het moet iets veranderen aan mijn ervaring. Het control center voelt ook gewoon aan als een brak stukje software dat wel eens durft te breken.
Kan het er niet mee eens zijn dat de ATi beter uitkomt prijs/prestatie. Net als de conclusie van de review hier is mijn mening dat die paar euro prijsverschil meer dan gerechtvaardigt is door de hogere prestatie van de GTX275, op stock snelheden al.

Daarnaast heb ik wat betrefd driver support altijd meer problemen gehad met ATi, zoals de LCD scaling functie (zwarte randen toevoegen voor 4:3 resoluties op een breedbeeld scherm) die zo goed als nooit werkt. Ook BSoD's met ati driver als oorzaak, heb ik vaak genoeg gezien, terwijl ik deze sinds m'n overstap naar m'n 8800GTS 512 nooit meer heb gehad.

[Reactie gewijzigd door knirfie244 op 27 april 2009 13:26]

niet om flauw te doen maar ATI is al een poosje niet meer zelfstandig maar onderdeel van AMD zoals in de text staat vermeld.... Dit even terzijde om verwarring voor de mensen die wat minder op de hoogte zijn te voorkomen.

[Reactie gewijzigd door Baddo op 29 april 2009 10:08]

Waarom reviewen jullie dan niet meteen goed ? jullie geven zelf al aan dat voor de nVidia kaarten beta drivers gebruikt worden. En voor AMD niet eens de laatste official drivers.

Zat mensen die de conclusie niet lezen en zich aan een review blind staren.

Ik ben ook benieuwd hoe lang nVidia die GTX275 kaarten blijft leveren zeker omdat de prijs van de GTX260 redelijk hoog is. Het zou mij niets verbazen als die GTX275 al vrij snel niet meer te krijgen is.

nVidia verkoopt natuurlijk liever een GTX285. (zelfde core als de GTX275 kaarten.)
Heeft AMD met de HD 4890 de plank nu volledig misgeslagen?
Nee, deze review slaat de plank volledig mis. Er wordt niet objectief getest (de punten zijn door al door anderen genoemd), en onderscheid zich wederom niet van de concurrentie door weer het standaard riedeltje FPS benchmarks (Fry Cry, Stalker, Crysis en Call of Duty) te gebruiken. Deze review heeft derhalve geen enkele toegevoegde waarde t.o.v. de reviews die op andere tech-sites te vinden zijn. Volgende keer hopelijk beter.
De andere tech sites komen tot dezelfde conclusie. De NVIDIA kaart scoort gemiddeld beter en verbruikt minder.
De andere tech sites komen tot dezelfde conclusie. De NVIDIA kaart scoort gemiddeld beter en verbruikt minder.
Dus welke toegevoegde waarde heeft deze review? Geen.
Fry Cry? :P

Ik moet zeggen dat de meeste hate toch uit het ATIkamp komt (Ik ben neutraal, don't shoot the messenger) en gezien deze resultaten is dat ook zeer begrijpelijk. Dat de GTX275 beter presteert als de HD4890 wil ik nog wel geloven, maar dat de 4890 zo veel moeite moet doen om een GTX260/216 bij te houden vond ik toch wel vreemd, zeker aangezien de eerdergenoemde GTX260 een gelijke was aan de HD4870.
Ik hang geen merken aan, dat laat ik aan fanboy's over. Mijn filosofie is: getting the best bang for my bucks. En of dat nu ATi, Intel, nVidia of AMD is zal me een rotzorg zijn.

Maar goed, dit neemt niet weg dat mijn kritiek op deze review gegrond is. Wat voor meerwaarde biedt deze review t.o.v. van andere tech-sites?
Leuke test, leuk om te lezen hoe gekeken wordt naar prijs-prestatie.

Opmerking 1: hoe programmeer je een game om een bepaald soort/merk videokaart beter te ondersteunen? Volgens mij worden alle games richting DirectX ontworpen en is het daarna aan de videokaart fabrikanten om voor goede drivers te zorgen. Dat het ene mekr videokaart dus beter presteert dan het andere merk in bepaalde games, ligt m.i. niet aan de games maar aan de drivers. En drivers zijn van oudsher sterk bepalend voor performance.

Opmerking 2: ik had persoonlijk deze test op een dual of quad core systeem uitgevoerd en niet op een i7. Ten eerste hebben de meeste gamers nu nog geen i7 systeem. Leuk om te zien hoe dergelijke kaarten presteren op zo'n dure processor maar representatief voor het gemiddelde game systeem die op dit moment bij mensen thuis staat is het denk ik nog niet. Ten tweede zijn dit goede kaarten, maar middensegment. Mensen die het geld over hebben voor een i7 systeem zullen sneller een topsegment kaart kopen. Mensen die in de markt zijn voor deze middensegment kaarten zijn tevens de mensen die nu nog geen i7 systeem hebben (gemiddeld gezien dan he). Ben erg benieuwd hoeveel FPS dat zou schelen als je dezelfde tests uitvoert op een E8400 bijvoorbeeld, desnoods met een overklokje ;)
Nvidia heeft een aantal the way its meant to be played spellen, waarbij nauw wordt samengewerkt tussen de ontwikkelaar en Nvidia zelf. Het is zeker mogelijk om een spel zo te programmeren dat het efficienter omgaat met de drivers.

De i7 wordt gebruikt juist omdat dit de snelste cpu is, en dus een zo klein mogelijke cpu-bottleneck oplevert en lange tijd mee kan.
Over Opmerking 1 : Hoe komt men aan de DirectX specificaties ?

Dat doen de GPU fabrikanten zelf in overleg met Microsoft. Daarin staan omschreven waaraan de videokaarten moeten voldoen, met allerlei technische aspecten erin.
Het mooie daarvan is dat er meerdere "wegen naar Rome" leiden. MAW: ze doen allemaal hetzelfde, maar onder de motorkap zijn er wel degelijk grote verschillen.

Zo zit het precies met Nvidia en Ati. Ze hebben beide een geheel andere benadering en dus totaat verschillende architecturen van hun GPU chipsets.

Dar spellen op het ene platform beter tot hun recht komen dan op het andere, heeft dan ook vooral met de architectuur van de GPU te maken en de game-engine die gebruikt word. Met drivers probeer je de GPU optimaal te laten presteren maar dat poetst niet de verschillen in architectuur weg.

Dat met nieuwere drivers de performance omhoog gaat, duid er dan ook vooral op dat voorgaande drivers niet optimaal gebruik maakten van de betreffende GPU. Soms gaat de performance omlaag, omdat men bijv. een grafisch issue moet oplossen.

MAW: als de architectuur van de GPU het niet toelaat; kun je doen met de drivers wat je wil; je zal er geen extra fps meer uit kunnen persen (ervan uitgaan dat de betreffende drivers al 100% efficient zijn). Soms gebruiken ze truukjes om de kaart sneller te laten lijken, maar dat gaat altijd ten koste van de beeldkwaliteit (dat laatste zeggen ze er dan niet bij).
Heb zelf al GTX285 in triple sli. Ja vind dit niet leuk omdat ze geen nieuwe chip hebben. Ze gebruiken elke keer een oud chip om iets nieuws van te maken. We hebben 3 Asus kaarten hier geflasht. Ze zijn nu GTX285.

@AsEeL

Ze hebben dezelfde pcb nummer van een GTX285 en zo zijn we achtergekomen. Zelfde PCB zoals een GTX285 en zelfde chip. Ook 1GB geheugen waarvan 896MB herkend wordt. na flashen heb je gewoon een GTX285 ( met Asus dan ) Als iemand kent die een Gainward GTX285 heeft dan moet je zijn PCB even nakijken. Als jij dezelfde hebt dan heb je gewoon een GTX285

[Reactie gewijzigd door Hamed op 27 april 2009 10:11]

Het slaat inderdaad helemaal ergens op...

Als je toch al de hardware levert, waarom zou je deze dan zelf met een bios uitschakelen? Verlaag dan gewoon je gtx285 in prijs, doe wat met de clocks, maar je ga toch niet een aantal MB, clocks en bandbreedte die wel aanwezig is, dus toch al geproduceerd is, uitschakelen voor je gebruikers?

Ik wordt het rebranden van nvidia ondertussen ook wel een beetje zat. 8800GTS een generatie meenemen en met een die-shrink een andere maat geven ok... vooruit.

Maar deze nóg een keer rebranden... bios cripple hardware leveren...
Dit lijkt helemaal nergens op.

Marketing is kennelijk belangrijker als een goed, optimaal product voor de klant.
Misschien vind iedereen me gestoord, maar ik zou wel eens een vergelijkende test willen zijn van de beste passief gekoelde (stille) grafische kaarten die momenteel te koop zijn.
In hoeverre kan je daar als gamer mee uit de voeten? Draait het bijvoorbeeld WOW en andere MMO's die wat minder extreme eisen stellen?

* mvdlee droomt nogsteeds van een fanloze machine die goed genoeg is voor gemiddeld computergebruik.
mijn oude X1300 Pro passive draaide WOW (zonder wotlk) maxed op 60FPS. ik moet toegeven dat dit op 1280*1024 is en zonder de betere graphics, maar de gemmiddelde passieve GTxxx of HD4xxx zal toch echt wel maxed WoW kunnen draaien... met AA op 1920*1200
Ehm, hier een 4890 op een Core i7 920 draait WoW wel op maxx, maar zeker niet met 60fps. Northrend doet 40-50 en Dalaran (met alle settings max na patch 3.1) zakt naar 15-20. Ok, Dalaran is badly coded :)
Voor nog geen 30 euro koop je al hele goede, superstille GPU-koelers. Zoals de Scythe Musashi . thermalright heeft ook zoiets net als anderen.
Geluidsarm heb ik momenteel al, maar een stapel geluidsarme fans bij elkaar maakt wat mij betreft nog steeds te veel geluid. Ik wil echt geluidsloos.
Haha, dan heb je die scythe koeler nog niet van dichtbij gezien; je hoort de 92mm fans gewoon niet; punt. Dat is nu juist het mooie, het zijn speciale fans, die langzaam draaien.
Als je ze wil horen, moet je je oor ertegenaan leggen.

Punt is; ik vertrouw mee op de levensduur als er een koel briesje langs de GPU loopt.

[Reactie gewijzigd door Madrox op 29 april 2009 11:10]

Punt is dat een GPU zonder actieve koeling voor veel taken al meer dan geschikt is. Ik doel hier op een volledig geluidsstille PC.

Hoedanook zou het leuk zijn als T.net eens probeert een systeem samen te stellen die altijd ónder 3dB (om maar een voorbeeld te noemen) geluid blijft en te kijken wat dan de maximale performance hiervan is.
Toch beprijp ik je verzoek niet. Van alle geruisloze gpu's zijn er ook uitvoeringen die actief gekoelt worden. Als de specs verder het zelfde zijn, zullen d eprestaties identiek zijn als de actief gekoelde exemplaren. Beetje onnodige test om te doen dan, als je overal de resultaten al kan vinden.

Een geruisloze pc maken zou wel leuk zijn voor een special.

3dB is trouwens ultra-stil, dat ga je never nooit halen. Decibelmeter
In huis is het omgevingsgeluid al tussen de 20 en 30dB.
+1, vind ik een goed plan :D

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True