Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties
Bron: AnandTech

Bij AnandTech is een vergelijking verschenen van de prestaties en kwaliteit van gpu assisted hd-decodering. Gekeken wordt naar de nieuwste generatie DirectX 10-videokaarten van zowel nVidia als AMD.

Het blijkt dat er flinke verschillen zitten tussen de prestaties en de kwaliteit die geleverd wordt. De beste beeldkwaliteit wordt geproduceerd door de nVidia-videokaarten die alle 100 van de 100 punten halen in de Silicon Optix HD HQV-test. De high-end- en midrangekaarten van AMD halen 90 van de 100 punten, omdat deze minder goed ruis weten te onderdrukken. De Radeon HD 2400 XT valt op in negatieve zin door een score van 55 punten, omdat de ruisonderdrukking niet werkt en ook de kwaliteit van de deinterlacing niet goed is. De budgetkaarten van nVidia doen het echter nog slechter: de GeForce 8500-serie is niet meegenomen in de test omdat de drivers nog niet ver genoeg ontwikkeld zijn.

ATi Radeon HD 2600 XT met hdmi-aansluiting (klein)Ook tussen de prestaties zijn er grote verschillen. Het afspelen van h.264-films gaat het beste met de midrangekaarten van nVidia en AMD. In tegenstelling tot de duurdere modellen kunnen deze kaarten hardwarematig het processorintensieve cabac- en cavcl-bitstreamprocessing uitvoeren, wat aanzienlijk scheelt qua processorbelasting. Een relatief langzame Pentium 4 560-cpu wordt bij het afspelen van zware h.264-films gemiddeld tussen de 93 en 98 procent belast, in combinatie met een GeForce 8800 GTX of Radeon HD 2900 XT. Wanneer een GeForce 8600 GTS of Radeon HD 2600 XT wordt gebruikt is de gemiddelde belasting slechts 14 à 21 procent. Bij het afspelen van high-definition vc-1-films blijkt de bitstream processing functionaliteit minder belangrijk te zijn. De GeForce 8600 GTS, die deze functionaliteit niet bezit, zorgt voor een belasting van 30 procent terwijl de Radeon HD 2600 XT zorgt voor een belasting van 13 procent. Relatief een groot verschil, maar beide kaarten kunnen de film vloeiend afspelen.

Processorbelasting Virtual Trip: Yozakura met Pentium 4 560 (h.264)
Radeon HD 2600 XT 14,4 %
GeForce 8600 GTS 15,2 %
GeForce 8800 GTX 98,1 %
Radeon 2900 XT 98,2 %

Hoewel de kaarten van AMD de beste prestaties neerzetten, zeker in combinatie met vc-1-films, gaat de voorkeur van de reviewer uit naar de oplossing van nVidia. De prestaties van de midrange nVidia-kaarten zijn voldoende voor het vloeiend afspelen van alle films op een relatief oude cpu en de beeldkwaliteit is beter. Daarnaast kan de gebruiker bij de AMD-kaarten geen controle uitoefenen over de ruisonderdrukking. Verder concludeert de reviewer dat de budgetkaarten van beide fabrikanten absoluut niet geschikt zijn om het afspelen van hd-films te versnellen. De prestaties van zowel de Radeon HD 2400 XT als de GeForce 8500 GT schieten te kort om deze taak goed te kunnen uitvoeren. Deze kaarten worden in de markt gezet als een goedkope oplossing voor htpc-systemen, maar bieden onvoldoende power om dit mogelijk te maken.

Moderatie-faq Wijzig weergave

Reacties (57)

Wat ik niet snap is waarop nvidia zulke hoge punten krijgt. Als je purevideo aan hebt zie je duidelijk dat zwart niet zwart is maar donker grijs. Dit omdat nvidia het aantal kleuren beperkt: Since release 90 the levels have been squashed to 16-235 to output for TVs.

http://forums.nvidia.com/...ient=printer&f=33&t=23758

Nvidia DOE eens hier wat aan!
Hier een regfix :)
www.xs4all.nl/~evilgame/t_net/downloads/nvidia_vmr9_fix.zip

[Reactie gewijzigd door Pascal op 24 juli 2007 12:01]

Beetje vreemd dat Anandtech geen screenshots van de noise reduction wil plaatsen.
Ik ben van nature wantrouwend tegenover reviews die alleen hun eigen subjectieve mening plaatsen (die test geeft geen objectief meetbare cijfers) en de lezer niet zelf de gelegenheid geven om te kijken of ze het wel met die mening eens zijn.
Het blijkt immers vaak genoeg dat dat nodig is.

Als je verder gaat kijken blijkt dan ook dat verschillende reviewers nogal verschillende scores weergeven.
http://guru3d.com/article/Videocards/443/5/
http://techreport.com/rev...d-2400-2600/index.x?pg=11

Verder wordt een erg belangrijk punt niet genoemd. In de reacties op de review geven mensen aan dat PureVideo HD niet ondersteund wordt in Windows XP. Alleen maar op Vista.
Dat vind ik best wel een erg groot nadeel en een veel belangrijker punt dan dat kleine verschil in noise reduction.
Jou linkjes komen totaal niet overeen met je verhaal. 1 De scores tussen de 8600 en 2600 komen weldelgelijk overeen met de verhalen van Anandtech en Hardware.info
en als ik stukjes lees als:
also seems to be a residual side effect that i need to look into. Until that is solved I'm deducting 5 points for HD noise reduction.
strookt dat niet echt met jou visie...
Ik ben van nature wantrouwend tegenover reviews die alleen hun eigen subjectieve mening plaatsen (die test geeft geen objectief meetbare cijfers) en de lezer niet zelf de gelegenheid geven om te kijken of ze het wel met die mening eens zijn.
Wat strookt er niet met mijn visie dan?
Anandtech trekt geen cijfers af omdat er niets niet klopt met de noise reduction, dus daar zit een duidelijk verschil in.
Verder geeft het maar al te goed aan dat het geen objectief meetbare cijfers zijn, maar interpretaties van de reviewers hoe de scores verdeeld moeten worden.

Overigens geven de andere review sites ook geen screenshots, dus wat dat betreft vind ik die net zo slecht als Anandtech.
Purevideo HD niet ondersteund door XP? :)
http://www.nzone.com/obje...urevideo_32bit_92.91.html

Weer geen onwaarheden verkondigen MJT.
Jamaar in de release notes van de laatste Forceware Drivers staat wel:

"PureVideo™ HD support is currently only available on Microsoft® Windows™ Vista"

Of moet ik nu terug naar een oudere Forceware?
Nog wat overwegingen...
- nVidia purevideo HD werkt (vooralsnog) alleen op Vista.
Indien je dus op zoek bent naar een kaart voor in je HTPC met daarop Win MCE2005 is de nVidia kaart dus geen goede optie.

- Ruisonderdrukking bij de ATI is wel uit te zetten. Dit is alleen complex en vergt aanpassingen in je registry.

- De ATI 2600 XT verbruikt minder stroom dan de nVidia 8600GTS
In een krappe media center behuizing is warmte afvoer altijd een issue.
Het is dan ook altijd prettig componenten te gebruiken die minder hitte produceren.
Verder neemt de ATI ook meer werk over van de CPU. Dit zorgt er ook voor dat de CPU minder hitte produceert.

[Reactie gewijzigd door RAPWare op 24 juli 2007 11:39]

- Purevideo HD wordt nochtans door anand in win XP getest:
http://www.anandtech.com/video/showdoc.aspx?i=2798&p=1
En hier de XP driver:
http://www.nzone.com/obje...urevideo_32bit_92.91.html

- Instellingen gaan veranderen in je registry is niet wat de gemiddelde HTPC gebruiker zal doen. Het is duidelijk dat als je ruisonderdrukking aan of af wil zetten, je niet telkens in registry wil duiken.

- De concurrent van de 2600XT is de 8600 GT, en die vebruikt minder stroom.
http://enthusiast.hardocp...M2MCwxMCwsaGVudGh1c2lhc3Q=

- ATi neemt inderdaad meer werk over van de cpu, maar dit is geen punt voor anand:
"AMD's UVD does beat out NVIDIA's VP2 in both H.264 and VC-1 decode performance. However, it isn't really enough to make a tangible difference in the viewing of movies. But we still have to favor the 8600 for its superior image quality. "

[Reactie gewijzigd door aval0ne op 24 juli 2007 10:55]

Die XP driver is al wel erg lang in Beta.
Net zo goed als een gemiddelde HTPC gebruiker idd waarschijnlijk geen registry wijzigingen wil doorvoeren, zal deze waarschijnlijk ook geen beta drivers gaan gebruiken.

De 8600GT gebruikt idd minder stroom, maar volgens HardOCP wordt de 2600XT toch meetbaar minder warm bij gebruik.
"ATI Radeon HD 2600 XT is measurably cooler under load."

Verder kan Anandtech er wel geen punt van maken dat de processor minder werkt hoeft te doen bij de ATI. Voor mijn Media Center is dat wel een issue. Minder CPU werk is nu eenmaal minder hitte.

Ik vind het overigens jammer dat Anandtech de SD weergave niet meegenomen heeft in hun test. Een goede videokaart in een HTPC moet immers beide (zowel HD als SD) goed kunnen weergeven (en mijn persoonlijke ervaring is dat een ATI GPU betere kwaliteit SD beeld oplevert dan een nVidia GPU).
Instellingen gaan veranderen in je registry is niet wat de gemiddelde HTPC gebruiker zal doen.
En wel rondzoeken op internet en betaspul installeren dat misschien wel eens kan helpen met videodecodering?
@aval0ne
Je haalt nu een aantal zaken compleet door mekaar heen.

PurevideoHD wordt door Anand NIET in Win XP getest. Leest het artikel nog maar eens goed door.
Een jaar geleden heeft Anand inderdaad met een beta driver op XP getest.
Maar die driver heeft absoluut niet de hoge beeldkwaliteit die je nu in de test bij Anandtech ziet.

Daarvoor moet je echt de nieuwe driver hebben, en die is er dus niet voor XP.

Voor mensen die nog niet naar Vista willen, is Nvidia daarom dus niet de beste keus.
Nu kan ik mij vergissen, maar volgens mij is een 8800GTX toch een aanzienlijk stukkie duurder dan een 2900XT.

Volgensmij heeft elke kaar zo zijn eigen 'specialiteiten'. Bij een leuke filmpje kijken in goede kwaliteit komen de 8800GTX en de 2900XT hetzelfde uit de bus, maar bij verschillende reviews heb ik gezien dat bij de ene game de 2900XT hoger scoort, en bij de andere game de 8800GTX er soms met kop en schouders bovenuit komt. Het is maar net waar je je geld aan uit wilt geven.
Er is geen enkel game waar de 2900XT hoger scoort dan de 8800GTX.
wel games waar hij bijna of even hoog of zelfs marginaal hoger scoort
en dat voor een kaart die toch een stuk minder kost...
http://tweakers.net/bench...1&DB=Nieuws&Query=Keyword

The Elder Scrolls IV Oblivion op 1024x768 zonder AA.
Jetway X29XTEN512Q Radeon HD 2900XT / Sparkle Calibre SFP880+ Geforce 8800GTX OC-edition
geen goede benchmark

zoals je kan zien is de 8800GTX namelijk een fabriek af overclockte kaart... terwijl dit NIET voor de HD 2900XT geld...

waarschijnlijk is die kaart NÓG duurder...

[Reactie gewijzigd door mstreurman op 24 juli 2007 13:39]

over het laatste stukje... een 8800 GTX / 2900XT wordt niet aangeschaft in combinatie met een slome processor, midrange varianten vaak wel. Daarom is het handig dat in de midrange de video hardwarematig wordt versneld terwijl bij de high end de cpu over genoeg horsepower beschikt om het zelf te kunnen.
oftewel je zegt dat het er niet toe doet, nou ik vind het toch prettig als mijn videokaart meerekent hoor, en voor dat bedrag verwacht ik ook zeker dat ie dat doet.
hopelijk gaan de G92 en de R700 wel UVD ondersteunen en dan aub ook voor andere formats divx bijvorbeeld
nou ik vind het toch prettig als mijn videokaart meerekent hoor
Ook als je hardwaredecoder een mindere kwaliteit/snelheid oplevert dan een software impplementatie?
uhhh... ik bedoel eigenlijk dat of het doel nu berijkt wordt door je videokaart, of je cpu, het toch eigenlijk geen ruk uitmaakt?... :/

als je processor het niet kan trekken, (wat je vaak ziet in low - mid end), dán is het handig als je videokaart een gedeelte meeneemt. Daarbij is de kwaliteit toch hetzelfde, die ene pixel, blijft die ene pixel. Of hij nu door de videokaart of je cpu geprocessed wordt.
In een test die ik maanden geleden bij Firingsquad zag, bleek dat de meeste DVD spelers maar erg matig scoorden in deze test.
Alleen de super high-end (en super-kostbare) DVD spelers konden een hoge score bereiken. (denk aan prijsklasse van ¤3000)

Het zou me dus niet verbazen als de 2400 gelijkwaaridg is aan de standalone HD-DVD en Bluray spelers.
Wat ik zwaar knudde vindt is het volgende: je koopt een topkaart: een 8800GTX of een 2900XT en dan is je gameperformance ook top, echter je video-decoding zuigt dan zwaar.....(in de trend van: je CPU rekent zich te pletter)... |:(

Kunnen ze nou bij de volgende generatie niet een topkaart uitbrengen die allebei heeft, het is notabene alleen de decoderchip die ze erop moeten zetten, dacht ik..... :X
Natuurlijk zullen ze het in een toekomstige versie wel inbouwen. Echter je kan ook anders redeneren. Als iemand een 8800GTX koopt zal die de kaart over het algemeen in combinatie met een krachtige CPU gebruiken. Die CPU heeft meer dan genoeg rekenkracht om de decoding te verzorgen waardoor de hardware decoding feitelijk niets toevoegd. Als de decoding chip niet beschikbaar is of redelijk duur om toe te voegen kun je als fabrikant ook ervoor kiezen de kaart zonder hardwaredecoding te leveren en op software vertrouwen. De klant kan tenslotte nog steeds zonder problemen de film bekijken en je hebt enkel een "probleem" in reviews.

In real life voegt hardwaredecoding dan ook weinig tot niets toe aan een kaart als de 8800GTX en zou de hardwaredecoding chip wel eens trager kunnen zijn en een mindere kwaliteit kunnen weergeven dan met goede software en een krachtige CPU mogelijk is.
Aan de post boven mij wil ik nog wel even toevoegen dat je beter je CPU harder kan laten werken dan je GPU wat betreft het stroomverbruik. Zoals gezegd heb je met zo'n videokaart echt wel een goede CPU in je pc, anders heb je wel een heel ongebalanceerd systeem gekocht. Met een beetje leuke dual core CPU kan je dus naast je video decoderen ook prima nog wat anders doen en een veel lager stroomgebruik hebben dan een CPU die niets doet met een videokaart die je kamer warm aan het blazen is.
Wordt die fucntionaliteit ook ondersteunt door de linux NVidia drivers
Cg is ondersteunt onder Linux, dus je kunt je eigen accellerator via BrookGPU of Cg schrijven. Maar realistisch, ik zou liever de MMX/SSE2 prestaties van FFMPEG als vergelijking in algemene load zien op een systeem waar zo'n duur kaartje in zit ;)
Wat ik niet snap :

Waar komt de ruis vandaan die onderdrukt moet worden?

Het gaat toch om digitale signalen? Waarom moet het beeld dan nóg eens een keer bewerkt worden? Ik ben al die foefjes van die fabrikanten echt spuugzat. Pureshit hier, Trueblabla daar.. maar het beeld wordt er allemaal niks beter op, eerder slechter. Wanneer leren die fabrikanten nu eens met hun handen van het signaal af te blijven?!?
Digitale ruis, oftewel 1tjes die omvallen.
Je moet niet vergeten die HD stream is niet 'puur', het is een gecomprimeerde stream. Hierbij moet erg veel gerekend en gedaan worden om weer de orginele beelden op snelheid te krijgen. Hierbij ontstaat ook ruis. Verschillende software en hardware systemen willen wel eens net afwijkende kleuren/ruis/contract/etc hebben.
Waar vallen die 1tjes dan om???
Als er zoveel 1tjes omvallen dat er ruisonderdrukking nodig is dan is er misschien wel fout met het ontwerp van de hardware...
Blijkbaar is de hardware niet toereikend in het bovenstaande geval...

[Reactie gewijzigd door servies op 24 juli 2007 11:08]

Hd-films zijn wel digitaal, maar de camera's waarmee ze gemaakt zijn zijn dat niet altijd. Daarnaast hebben digitale camera's ook last van ruis bij het opnemen. Zeker bij de wat oudere en goedkopere films die niet gemaakt zijn met hd in het achterhoofd kan er een flinke hoeveelheid zichtbare ruis aanwezig zijn, afkomstig van de gebruikte camera's.

[Reactie gewijzigd door Hielko op 24 juli 2007 14:44]

Vreemd dat die 2400 zoveel slechter werkt dan de 2600.
Die zouden beiden toch precies dezelfde UVD moeten hebben? Waar komt dan dat verschil vandaan?
Ook wel slecht dat Anandtech dat niet nagevraagd heeft bij ATI. Dat hoort juist bij het werk van een reviewer.
Dat is niet de taak van de reviewer, de taak van reviewer is de kaarten reviewen in hun huidge toestand zoals een normaal persoon die zou gebruiken. Anand zou anders misbruik maken van zijn bekendheid en waarschijnlijk een of andere hotfix van ati krijgen terwijl voor gewone gebruikers dit nooit het geval zal zijn.
Tuurlijk is dat wel een taak van de reviewer.
Als een reviewer zeer vreemde of opvallende resultaten ziet, dan hoort hij na te gaan waar die vandaan komen.

Zij hebben de juiste ingangen bij de hardware leveranciers en kunnen dus bv vaststellen of UVD wel of niet gelijk is bij die twee kaarten. (zoals tot nu toe altijd gesuggereerd is)

Dat heeft dus geen zier te maken met het bevoordelen van een of andere leverancier!!!Jammer dat jij weer alleen in die termen kunt denken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True