Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 69 reacties
Submitter: player-x

Een test van de site MaximumPC moest uitmaken of er verschil in beeldkwaliteit waar te nemen is tussen de kaarten van ATI en Nvidia. De twee Radeon HD3870's in Crossfire-opstelling kwamen iets beter naar voren dan de Nvidia 8800GT's in SLI.

ATi Crossfire X-logoHardwaresite Maximum PC heeft getracht een objectieve benchmark voor het beoordelen van beeldkwaliteit samen te stellen. Op de testbank lagen twee videokaarten van ATI en twee van Nvidia, respectievelijk in Crossfire- en SLI-opstelling geplaatst. Om de test zo objectief mogelijk te houden, werden de kaarten op identieke hardware getest: twee Blackbird 002 pc's van HP dienden als basis, terwijl de beelden op identieke, gekalibreerde 30"-monitoren van het type LP3065 werden getoond. De kwaliteit van het beeld werd in drie scenario's beoordeeld: bij de ingebouwde cinematografische benchmark van World in Conflict, bij een scene uit de hd-dvd versie van Blue Planet en bij een foto op hoge resolutie van een vrouwelijk model.

nVidia SLI logoEen totaal van eenentwintig testpersonen deed mee aan de proef. Van hen vormden zes mensen een controlegroep en zij kregen plaatjes van alleen de Nvidia- of de ATI-systemen voorgeschoteld. Van de controlegroep zijn helaas geen testresultaten gepubliceerd, de resultaten van de andere vijftien testpersonen staan wel online. Uit de tabellen blijkt dat ze marginale verschillen tussen de beeldkwaliteit van beide fabrikanten ervaren, met een lichte voorkeur voor ATI. De vraag is echter of dergelijke resultaten niet per definitie subjectief zijn en of ze, gezien de kleine steekproef en geringe verschillen, significant te noemen zijn.

HP Blackbird 002 x2
Moderatie-faq Wijzig weergave

Reacties (69)

Vroeger zette ATI op CRT schermen een strakker beeld neer dan NVidia. De analoge timing was beter.

Met de huidige generatie LCD monitoren zijn ze dat voordeel kwijt, zeker als je over DVI gaat.

Het renderen kan natuurlijk nog wel verschillen, maar kennelijk zijn die verschillen miniem.
Ik meen me ook zoiets te herinneren van vroeger. Hoewel ik er niet zeker ben welke overstap het was (nVidia -> ATI / ATI -> nVidia of dat ik van het zelfde merk een nieuwere generatie aanschafte) ging de 2D kwaliteit van het beeld er op vooruit. Hopelijk komt er binnenkort een uitgebreidere betere test aangezien ik steeds minder game en meer werk :)
De beste 2d grafische kaarten kwamen vroeger van Matrox... heb er zelf een gehad... zeer strak en helder was het beeld op de verschillende beeldschermen die ik gebruikt had...
Persoonlijk vond/vind ik ATi warmere kleuren hebben dan Nvidia maar na ervaring met de ATI, kaartjes die de geest gaven en imho nog steeds slechte drivers hebben ben ik toch maar weer overgstapt naar Nvidia.

Word tijd dat Intel eens haast gaat maken met zijn high end kaarten want ik vind dat door de tweestrijd die er lang heerst ze teveel met marginale update's van kaarten komen iedere keer en dat tegenwoordig van iedere serie GPU tig varianten van uitkomen, terwijl je er aan 3 genoeg hebt, low/mid/high range.

Intel kan mogelijk wat doen aan de standaard hoge Nvidia prijzen en hopelijk verdwijnt daardoor mede gauw het hele SLi/Crossfire idee, wat nauwelijks gebruikt word en geen vaste oplossing is naar de toekomst toe, niet eerder voordat de kaarten betaalbaarder worden en de graka's wat minder gaan slurpen :) Overigens vind ik het jammer dat Ageia links word gelaten of dat ze zelf niet met een physics chip/engine komen, welke dan net zo goed op de graka erbij geplaatst kan worden om zo meer de taken te verdelen, inplaats het van 2 GPU's af te laten hangen.

UT2007 is wel leuk speelbaar met de Ageia software maar zonder een dergelijke
kaart in je systeem kom je met een dual core al gauw in de problemen, aangezien er vrijwel continu 100% CPU belasting is op een dual core.
Wat een drama dat de resultaten van de controlegroep niet worden gepubliceerd. Waarom heb je dan een controlegroep?
Als we die gegevens wel hadden dan konden we zien of de geconstateerde 'verschillen' groter waren dan de ruis die je altijd hebt in een onderzoek, omdat mensen nou eenmaal niet 100% subjectieve betrouwbare waarnemers zijn.
Ik ben het eens met het commentaar dat deze test eigenlijk weinig significants heeft opgeleverd. Pas als er zeg en spreek zo'n honderd mensen de getoonde beelden blind hebben beoordeeld - dus zonder te weten of ze naar ati of nvidia kijken (niet dat ze blind zijn :) )- dan nog heb je pas het verschil gemeten tussen twee afzonderlijke videokaarten, niet twee merken.

[Reactie gewijzigd door antipode op 31 januari 2008 15:27]

Dit is toch niet echt de test waar ik op zat te wachten. Het is veel te simplystisch aangepakt en er wordt met name gekeken naar pure 'output', maar ik wil vergelijkingen zien op rendergebied!

Het is algemeen bekend dat een ATi kaart hogere precisie hanteert dan een nVidia kaart en dat een ATi minder hoge AF en "quality" instellingen nodig heeft dan een nVidia om gelijke renderkwaliteit te waarborgen. Dit is van essentieel belang, want zo kunnen benchmarks beter uitgevoerd worden. Huidige testen zoals vandaag de dag worden uitgevoerd met 4xAA/16X AF en High quality voor nVidia en ATi ingesteld. Dit is niet eerlijk want 16x AF op ATi is zwaar overkill en nekt de kaart gigantisch terwijl dit bij nVidia niet het geval is. Zo krijg je altijd verkeerde scores waaruit blijkt dat een nVidia kaart sneller is terwijl op gelijke kwaliteit de ATi misschien wel sneller is. Een ATi kaart heeft in principe de gave om een boven de 'high quality' van nVidia nog een extreem hoge render kwaliteit in te stellen, maar zo wordt het niet genoemt en zo is een wezenlijk verschil met nvidia niet op te maken uit de driverinstellingen maar het is weldegelijk te zien als je goed kijkt. Deze supergoeie details zijn opzich een leuke bijkomstigheid van ATi kaartjes, maar je mag niet die superkwaliteit gaan vergelijken met de 'high quality' van nVidia. En aangezien mensen alleen maar getalletjes met getalletjes vergelijken en aan de hand daarvan ook testen maken we ongezien een grote fout door de renderkwaliteit niet in acht te nemen.

Een test zoals deze die gebasseerd is op de rauwe output van je videokaart is tegenwoordig ook echt bollux te noemen. Het gaat niet meer om output kwaliteit, die tijd is van de analoge uitgangen en goedkope videokaarten met slechte filters. Hoe een DVD gerenderd wordt boeit me ook niets, want ik gebruik altijd externe filters zoals de libavcodec van FFDshow en dan is er geen verschil tussen videokaarten omdat er geen interne hardwarematige accelleratie algoritmes worden toegepast en het beeld dus ook niet verziekt kan worden. Hoewel het opzich een test waard kan zijn omdat er nou eenmaal grote verschillen kunnen optreden vind ik enkel wat plaatjes met elkaar vergelijken eerder een beeldschermen test dan een test tussen ATi en nVidia. Dat beide kaartjes eventueel een iets ander kleurbeeld oid zouden leveren is zo nihil dat ik het eigenlijk niet testwaardig vind.

jammer, het is toch net alsof die testers eigenlijk helemaal geen verstand van videokaartjes hebben, altijd zo half/half. Ok ok, niet zeuren dan moet ik het zelf maar testen nietwaar...

Als ik in andere benchmarks de screenshots vergelijk op gebied van AA etc. zou ik persoonlijk de voorkeur geven aan de 8 serie van nVidia. Maar op AF niveau de voorkeur aan ATi. Maar als je de plaatjes van verschillende kwaliteit naast elkaar bekijkt is er eigenlijk geen wezenlijk verschil te noemen en zijn beide kaarten op dat gebied wel aan elkaar gewaagd. Zet je echter een nVidia en ATi kaart op "quality" mode (1na beste stand)en op 4x AF dan zie je dat de nVidia kaart een stuk minder mooi is geworden terwijl de ATi nog veel beter beeld heeft wat in de buurt komt van een nVidia kaart op hoogste instellingen. Vrij krom dus allemaal, en ATi heeft dit principe niet slim aangepakt. Ze zouden een hoop performance kunnen winnen door de grafische instellingen meer in lijn te leggen met die van nVidia. Of nVidia moet gewoon eens wat hogere kwaliteit waarborgen. Ik denk dat nVidia een hoop performancewinst behaalt door slim om te gaan met kwaliteitsinstellingen waardoor het lijkt alsof de kaart op gelijke instellingen beter presteert dan ATi.

Overigens ben ik geen ATi fan, maar ik probeer wel zo goed mogelijk de verschillen op een rijtje te zetten en deze test helpt daar helaas niet bij

[Reactie gewijzigd door BruT@LysT op 31 januari 2008 17:52]

Leuk idee, maar verschrikkelijk slecht uitgewerkt. De test groep is te klein om daar gegevens uit te halen. Statisch zijn de waargenomen verschillen totaal niet relevant.

Kijk naar de referentie groep: 12x kiezen ze een of de ander, en slechts 3x komen ze tot de correcte conclusie dat er geen verschil is... Dan weet je toch ommiddellijk dat je niet op die manier kunt meten?!! NB: De afwijkingen zijn groter in de referentie groep, dan in de test groep waar men ook daadwerkelijk verschillende hardware had. |:(

M.a.w. dit "onderzoek" kun je gelijk in de prullenbak gooien. Ik snap niet dat ze het uberhaupt op deze manier durven te presenteren...

Als ze een beetje hadden nagedacht, dan hadden ze het experiment enige malen herhaald. Je laat dezelfde personen 5 of 10 keer kijken, waarbij soms de schermen/kaarten verwisselt zijn. Dan had je de reproduceerbaarheid van de individuele metingen kunnen zien, en van de test als geheel. Dat hoeft helemaal niet zo veel meer tijd te kosten, en daarmee was de test veel en veel beter geweest, en had je wel het recht gehad conclusies te trekken.

Jammer... dit is een gemiste kans. Uiterst beschamend dat men dit, op deze manier, durft te publiceren.
Om de test zo objectief mogelijk te houden, werden de kaarten op identieke hardware getest: twee Blackbird 002 pc's van HP dienden als basis, terwijl de beelden op identieke, gekalibreerde 30"-monitoren van het type LP3065 werden getoond.
Als je goed had gelezen, dan had je gelezen dat de overige hardware identiek is, en niet verschillend.

[Reactie gewijzigd door alteredwazzup op 1 februari 2008 08:52]

Als je de rest van deze thread gelezen had, dan had je gelezen dat mensen ook een voorkeur voor links of rechts kunnen hebben, doordat ze bv rechtshandig zijn en dat scherm dan makkelijker aanwijzen etc.

Door de ene keer links het ATI beeld te zetten en de andere keer links het Nvidia beeld kun je dat probleem omzeilen.
En daarvoor moet je dus de schermen of de kaarten wisselen, zoals AHBdV aangeeft.
Jammer dat ze het verwisselen van de videokaarten tussen de twee systemen en dan hertesten niet hebben meegenomen, ik betwijfel of die 2 lcd's standaard al eenzelfde beeld geven, of kan dat met dat genoemde 'kalibreren' rechtgetrokken worden?

Ik ben wel eens betrokken geweest bij een beeldkwaliteittest, hadden we op een gegeven moment twee identieke lcd's met identieke instellingen met daarachter 1 bron met video en wat bleek: de schermen zagen er verschillend uit, niet beter of slechter maar anders. Dus het kan best zijn dat de lichte voorkeur voor ati komt omdat die monitor standaard een net iets warmere kleur gaf, ofzo.
Dat klopt, heb zelf ook 2 identieke schermen langs elkaar staan, ongeveer evenveel gebruikt. Heb overal exact dezelfde instellingen en zitten op dezelfde videokaart, beide dvi aansluitingen. Als ik ze van dvi poort wissel blijft evengoed de linkse mooiere vollere kleuren geven.
Beide op 1 kaart, maar als ik de aansluitingen verwissel blijft de linker mooier beeld geven.
Ouch, lijkt me een pijnlijke voor brutalist die gisteren nog zat te beweren dat AMD kaarten echt niet meer bij Nvidia kaarten in de buurt konden komen. Hieruit blijkt maar weer dat het slap gelul was en dat je meer hebt aan een echte test. Als hieruit al blijkt dat al die mensen moeite hebben om grote verschillen te zien.....

(http://tweakers.net/react...=Posting&ParentID=2432220)

Ik kan me niet voorstellen dat er veel verschil in zit. Als ze mij 10 keer 2 dezelfde plaatjes laten zien op een AMD en Nvidia systeem, en ik geef ze een score, dan denk ik dat als diezelfde sessie herhaald word en ik ze weer mag beoordelen, er hele andere waarden uitkomen. (zolang voor mij onbekend is welk plaatje op welk systeem word getoond natuurlijk ;))

Daarmee bedoel ik alleen maar te zeggen dat de verschillen miniem zijn en me bij een volgende "testronde" wel eens nieuwe dingen in het oog kunnen springen zodat ik mijn keus ongemerkt aanpas.

Het is ongeveer hetzelfde als met bier. Sommige mensen zweren bij Heineken, anderen bij Grolsch, maar 95 % kan ze niet uit elkaar houden als het flesje er niet meer omheen zit en ze zuiver op smaak af moeten gaan.

[Reactie gewijzigd door D2Freak op 31 januari 2008 14:44]

Het is ongeveer hetzelfde als met bier. Sommige mensen zweren bij Heineken, anderen bij Grolsch, maar 95 % kan ze niet uit elkaar houden als het flesje er niet meer omheen zit en ze zuiver op smaak af moeten gaan.
Als je Grolsch en Heineken niet uitelkaar kan houden dan drink je vrijwel nooit bier :|

Maar even ontopic:
Dit is zeer twijvelachtig, want wat is beter? Wat ziet er mooier uit? Over smaak valt te twisten. Het kan wel leuk zijn dat ATI een betere kwaliteit levert, maar in een FPS als ETQW kan ik daar niet bepaald op letten. Echter zie ik wel de paarse textures die bruin horen te zijn. Tsja, dan wordt mij keihard duidelijk gemaakt waarom NVIDIA zoveel beter is op OpenGL gebied...

[Reactie gewijzigd door GENETX op 31 januari 2008 15:22]

Als men iemand maar lang genoeg laat kijken naar 2 indentieke fotos en roept welke van de 2 fotos mooier is. Dan zal testpersoon op een gegeven moment een keuze maken. Rechtshandige personen gaan dan eerder voor de rechtse foto omdat deze makkelijker met de rechterhand te pakken c.q. aan te wijzen is.

Voor een echt onderzoek zou men 2 afbeeldingen over elkaar heen moeten leggen en daaruit moeten opmaken waar de verschillen zitten. Voor de videokaart testsetup hadden 2 raw screenshots voldoende geweest om elk subtiel verschil te kunnen onderscheiden door berekening.
Die screenshots bekijk je dan uiteindelijk toch ook met één videokaart.
Het beste dat je kunt doen is een meet-apparaat aan de DVI-poort, die precies kan vertellen wat de verschillen zijn op de uitgang. Vervolgens kunnen we achterhalen wat die verschillen voor invloed hebben.... moet je tot een objectief antwoord kunnen komen.
De testpersonen hadden ook de optie om "geen voorkeur" te kiezen.

Bovendien werden de opstellingen steeds verwisseld, zodat een overwegende voorkeur voor rechts van rechtshandigen de resultaten niet zou beinvloeden.

Wel is het zo dat in de testgroep de helft van de mensen een voorkeur uitspraken. Hoewel dat bevestigt dat mensen toch graag een "winnaar" aanwijzen is dat toch duidelijk minder dan bij de testpersonen die daadwerkelijk verschillende schermen kregen.
Al is de vraag dan hoe en waar net die screenshots gerenderd/gesaved worden.
of ze lieten bij ati gewoon stiekem een veel mooiere vrouw zien :P

wel grappig, ik dacht altijd dat beeldkwaliteit opzich niet echt zou verschillen, pixels zijn pixels nietwaar...maar zou wel leuk zijn als je hier bij grotere tests toch echt verschillen mee ozuden zijn, dan krijg je reclamespotjes met ''het mooiste beeld'' ofzo :P

[Reactie gewijzigd door darkpluisje op 31 januari 2008 14:25]

Pixels van de ene kaart zijn niet hetzelfde als die van een andere.
Dat ligt vooral aan de beeldbe- en -verwerking van de gebruikte drivers en chips.
Elke fabrikant heeft wel z'n eigen aanpak van hoe hij om moet gaan met o.a. jaggies (in 2D beelddata), gamma, kleuren, e.d.
Als je verschillende DVD afspeelprogs hebt geprobeerd, weet je dat ook: er zijn verschillen waar te nemen in beeldkwaliteit. Dit treedt dus ook op in drivers, en hier komt ook nog het hardware-verschil bij.
Om maar nog niet te spreken over de DAC's, als er analoge signalen verwerkt moeten worden.
Verschillen zullen er zeker zijn, maar -geheel volgens verwachting- heel miniem.
De monitor zelf maakt veel meer uit.

[Reactie gewijzigd door Fireshade op 31 januari 2008 14:49]

Tjonge, de verschillen die er vroeger waren zijn dus blijkbaar wel aardig bijgetrokken. Neem ik een testje van 5 jaar terug:
Alle kaarten, op de Matrox Millennium G550 na, presteren ruim voldoende in games gebaseerd op DirectX 7.0 en 8.0. In de OpenGL shading-benchmark Cineview blijkt het inschakelen van de dualhead-functie voor de G550 en de Radeons grote impact te hebben op de performance. In de CAD-applicatie SolidWorks 2001+ presteerden de Radeon 7500 en 9000 Pro erbarmelijk slecht. Waarschijnlijk is dit te wijten aan de verouderde drivers die in de tests gebruikt zijn. In SPECviewperf 7.0 is de Quadro-serie heer en meester. De originele Quadro, gebaseerd op de GeForce 256, verslaat zelfs nVidia's Ti4400. Op het gebied van 2d beeldkwaliteit mag de Matrox G550 zich nog steeds koning noemen, maar de Radeon 9000 Pro van Tyan is een goede tweede. Ook de S-Video-output van de 9000 Pro is dik in orde en weet de concurrentie ver achter zich te laten.
nieuws: Beeldkwaliteit nader bekeken in round-up videokaarten

Sindsdien is qua beeldkwaliteit is nVidia dus aardig bijgetrokken. En aan ATi doe je geen miskoop wat beeldkwaliteit betreft. :)
toen lag het kwaliteitsverschil aan de DAC (digitaal naar analoog convertor), nu we met dvi werken blijft alles digitaal en zijn de verschillen kleiner
vooral Matrox staat bekend om z'n goeie DAC's
dac's zijn niet echt van toepassing aangezien hier denk toch wel DVI wordt gebruikt, of mis ik nu nog een DA-stap in het proces van videokaart->monitor ?
Met de digitale outputs van tegenwoordig hebben we toch weinig verschil meer. Vroeger was er nog het nodige verschil, gezien de filters die op de vgaconnectoren werden gebruikt soms van shitty kwaliteit waren (je wilde echt geen budget kaart hebben, dat was gewoon te bagger beeld in veel gevallen). Maar als iets digitaal doorgestuurd wordt dan zal er zoals het onderzoek ook uitwijst, niet bepaald nog verschil in zitten, omdat alles digitaal is.
Ja en nee.

Inderdaad, de enorm grote verschillen die je bij analoge VGA signalen zag, zijn met digitaal verdwenen.

Maar dat wil niet zeggen dat er digitaal geen verschil kan zijn! Zelfs wanneer er exact dezelfde scene wordt gerenderd, kunnen er toch verschillen zijn.

Een bekend voorbeeld is anti-alisaing. Dat lijk zo simpelweg: een pixel die de helft wit en de helft zwart heeft, wordt middelgrijs gemaakt. Maar het zit ietsje ingewikkelder... die tinten grijs op je monitor hebben namelijk geen lineaire schaal. (omdat je ogen dat ook niet hebben). Daarom heeft ATI op een gegeven moment een gamma-gecorrigeerde anti-aliasing ingevoerd, waarbij rekening wordt gehouden met die factoren. Het resultaat is dat die grijze pixel bij ATI een ietsje andere tint heeft dan bij Nvidia. Verschil is niet groot, maar wel waarneembaar.

Ook digitaal kunnen er dus best verschillen zijn... maar dan wel omdat er andere bits over de kabel worden verzonden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True