Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties
Bron: Firing Squad, submitter: FFWD

Bij Firing Squad heeft men een selectie van ATi's, nVidia's en XGI's videokaarten in huis gehaald om de videobeeldkwaliteit aan een nader onderzoek te onderwerpen. Het gaat daarbij om mainstream gpu's als de ATi Radeon X800 XL, de GeForce 6600GT en XGI's Volari 8300. Daarbij wordt door de reviewer benadrukt dat het enkel om de kwaliteit van videobeelden gaat en niet om de 3d-verwerkingssnelheid. Voor het testen wordt gebruikgemaakt van HQV Benchmark DVD en het beeldscherm met een resolutie van 1280x1024 pixels wordt met de videokaart verbonden door middel van een dvi-interface. Aangezien de dvd-decoder een belangrijke invloed heeft op de beeldkwaliteit, wordt voor elke videokaart de 'beste' software gebruikt voor dat specifieke platform. Voor nVidia is dit de PureVideo decoder, voor XGI de Cyberlink PowerDVD en voor ATi het Multimedia Center, dat gebaseerd is op Cyberlink.

Na uitgebreid testwerk komt de reviewer tot de conclusie dat nVidia's PureVideo indrukwekkende resultaten weet neer te zetten over de hele lijn, ondanks het feit dat de technologie al ongeveer een jaar oud is. PureVideo is dan ook het platform dat FiringSquad zou aanraden voor HTPC-gebruikers, waarbij de reviewer bovendien lovende woorden heeft voor het feit dat PureVideo met high-definition video werkt op de GeForce 7-gpu's. Naast nVidia schittert echter ook XGI, zo weet de reviewer te vertellen. De algoritmes mogen dan wel niet zo excellent zijn als die van nVidia, de kwaliteit blijft uitstekend voor de meeste realistische gebruikssituaties. De Volari 8300 en GeForce 6600 hebben bovendien elk hun eigen sterke punten. Wanneer de prijs van doorslaggevend belang is, dan is de Volari 8300-kaart zeker en vast de betere keuze, aldus de reviewer.

PureVideo-beeldkwaliteit
Moderatie-faq Wijzig weergave

Reacties (46)

Voor degenen die hun aankoop mede af willen laten hangen van deze resultaten, wil ik opmerken dat de hardwarematige versnelling van PureVideo op onder andere de oudere GF6800 chips niet goed werkt.

Hierdoor wordt bijvoorbeeld de CPU extra belast. Bij mij is het zo (AMD 3500+ Winchester, 1GB CAS2, GF6800GT) dat bij een aantal plotselinge overschakelingen in het beeld achter elkaar het beeld even stilstaat; dit overigens ondanks dat het CPU-gebruik lang niet op de 100% ligt.

http://www.anandtech.com/video/showdoc.aspx?i=2305
What was once known only as the NV4x Video Processor has now been given the marketing name PureVideo. PureVideo is exclusively available on the GeForce 6 series of GPUs and only the latest GeForce 6 GPUs have a fully functional PureVideo core. The original NV40 and NV45 (GeForce 6800GT/Ultra) do not have functional Windows Media Video 9 decode acceleration, but the rest of the GeForce 6 series are feature complete (GeForce 6800/6600GT/6600/6200).
volgens mij is dat alleen het geval met de AGP versie.
Nee, de bug zit in het ontwerp van de 6800-core. PCI-e kaarten hebben dezelfde core maar dan met een AGP-PCI-e brug ertussen en hebben dus hetzelfde euvel.
Wat wel kan zijn is dat ze de bug in een latere stepping hebben gefixed maar kan me daar niet van herrinneren dat ergens gelezen te hebben.
Nee ze hebben het pas bij de NV43 chip gefixed, bij de 6200 / 6600(gt) dus. De 6800 was er eerder.
idd in feite bizar dat Matrox niet is meegenomen.
Feit is dat Matrox geen gamerskaarten heeft en de Parhelia ondertussen al jaren oud is.
Maar ik heb zo'n vermoeden dat Matrox op het vlak van beeldkwaliteit nog steeds een streepje voor heeft.
Als ik mijn workstation met nVidia Quadro FX vergelijk met die van mijn collega met Matrox Parhelia APVE moet ik toch zeggen dat de beeldkwaliteit bij hem een stuk beter is. In het bijzonder als het gaat over DVD weergave etc.
Voor er hier rare reacties komen : voor de rest zijn de configuraties identiek.
Bij matrox doel je uiteraard wel op de "output" kwaliteit, die is vanzelfsprekend erg goed, maar de 'render' kwaliteit is heel wat anders.
Interessant is wel om te weten hoe de S-video outputkwaliteit zich ten opzichte van elkaar verhouden. Tenslotte wil je die HTPC op een TV gebruiken. Bij gebruik van een digitale uitgang zoals DVI is de outputkwaliteit niet meer aan de orde en heeft Matrox in dat opzicht ook geen voordelen. Dan rest de vraag hoe het beeld gerenderd is en daar word hier juist op in gegaan. Helaas met in mijn ogen de verkeerde applicaties. De aanbevolen (meegeleverde) applicates bij de videokaart om DVD's ed. af te spelen zijn niet echt bepaald goed te noemen.

(nog ff iets anders, je vergelijkt je beeldkwaliteit met een ander en je constateert dat het beeld op de matrox beter is, en de configuraties zijn gelijk, jullen hebben dus allebij dezelfde monitor?)

Om het even toe te lichten, misschien doel je op aanwezigheid van artifacts oid tijdens het spelen van DVD's, maar bedenk ook dat de ene monitor de ander niet is. Ik heb bijvoorbeeld drie exact gelijke beeldschermen, waarvan de kleurweergave bij alledrie enigsinds anders is, de helderheid/contrast verschilt en de scherpte verschilt zelfs, dit hoeft niet altijd de videokaart te zijn. Daarnaast heb ik persoonlijk wel eens last van het "gras is altijd groener bij de buren" effect. Misschien ben ik wel overdreven kritisch als het om eigen apparatuur gaat. Je kan pas echt oordelen als je beide systemen pal naast elkaar zet.
Wat een onzin, ik gebruik uberhaupt niet de aangewezen programma's en dvd codecs om DVD's te bekijken. m.a.w, deze hele test is totaal nutteloos. Als ze nou eens elke kaart in combinatie met Mediaplayer Classic zouden gebruiken en daarmee dus alledrie DEZELFDE codec laten gebruiken heb je goed vergelijkingsmateriaal. Daarnaast zal ik voor een HTPC NOOIT de desbetreffende applicaties gebruiken die hier worden genoemd want ik vind ze alledrie niet goed genoeg, vragen te veel resources en zijn in mijn ogen simpelweg niet practisch. Jammer, maar deze test getuigt niet echt van een 'tweaker' gehalte.
Read between the lines !!
Aangezien de dvd-decoder een belangrijke invloed heeft op de beeldkwaliteit, wordt voor elke videokaart de 'beste' software gebruikt voor dat specifieke platform. Voor nVidia is dit de PureVideo decoder, voor XGI de Cyberlink PowerDVD en voor ATi het Multimedia Center, dat gebaseerd is op Cyberlink.
Inderdaad de test is niet al te goed uitgevoert zoals Brut@lyst al aangaf maar je zou alsnog tot de zelfde conclusie zijn gekomen .

De decoder die je gebruikt staat geheel LOS van je gebruikte player !
Het is dus prima mogelijk om nvidia`s purevideo decoder te gebruiken i.s.m Media Player classic .

Ik quote

" Features of nVIDIA PureVideo Decoder 1.02-185:

- High quality MPEG-2 decoder supports any third party software application based upon Microsoft DirectShow "

- Does this product take advantage of hardware acceleration on non-NVIDIA graphics processors?

Yes, this product was built using Microsoft DirectX Video Acceleration (DXVA) which allows software applications to accelerate video playback directly on graphics processors. If your graphics processor supports DXVA and has built-in technology to accelerate DVD and MPEG-2 file playback, then the NVIDIA PureVideo Decoder will provide hardware acceleration

Ik neem aan dat de XGI kaart ook HW matig playback kan regelen en juist daarom hadden ze 1 player met dezelfde codec die HW acceleratie ( purevideo bijvoorbeeld ) support te gebruiken .

Echter zal de Nvidia logisher wijze in zo`n situatie alsnog hebben gewonnen met purevideo kwa CPU usage .
MAAR het zou echter intersant zijn geweest om te kijken of de GPU`s van ATI en XGI dezelfde beeldkwaliteit wisten te behalen met de purevideo algoritmes .
Daar heb je an sich gelijk in, alleen vergeet je even dat 'media player classic' zijn eigen DVD decoder aan boord heeft, en deze is nog gratis ook. Daarnaast kan deze in DX9 renderen en kan je er Pixelshaders (2.0) en nog wat andere enhancements op los laten. Zeer goeie codec dus. En wat nou als ze alle 3 de kaarten getest zouden hebben met deze codec? Misschien was er wel totaal geen kwaliteitsverschil op te merken. M.a.w, het verschil zit em niet in de videokaart, maar in de gebruikte codec. Het argument WELKE videokaart je dus aan moet schaffen voor een HTPC is dan totaal overbodig. Het gaat dus om de gebruikte Codec die de kwaliteit bepaald.

De titel geeft mij dus verkeerde verwachtingen, helaas... ik had verwacht dat de kwaliteit van de output eindelijk eens aan de tand gevoeld zou worden, maar dat blijkt niet het geval.

/edit

Om nog maar even door te zeuren ;)
Op een HTPC zou ik ook wel graag mijn DIVX/XVID filmpjes willen bekijken in goeie kwaliteit, dan komt FFDshow automatisch aan de orde. MplayerC en FFDSHOW zijn eigenlijk een betere combinatie voor volledige support van alle denkbare media en heel geschikt voor gebruik op een HTPC. Maar iedereen zijn eigen mening, waar het hier eigenlijk om draait (de kwaliteit), zou die eigenlijk wel verschillen als op alle kaarten dezelfde afspeelmethodes toegepast zouden worden? Als hier totaal geen verschil in zit (dat weet ik helaas ook niet) gaat dit hele bericht nergens over. Zoals jij ook al aangeeft, beetje vreemde test dus nietwaar ? :)
Ik had liever een Matrox kaart gezien in plaats van een XGI.
en ik die altijd dacht dat ATI de beste beeldkwaliteit had
Ati was vroeger inderdaad altijd beter qua beeldqualiteit, in de tijd van Radeon 9700 vs Geforce 4.

nVidia heeft toen een flinke inhaalslag gemaakt en zich naast verwerkingssnelheid ook flink gericht op de beeldkwaliteit. Mét succes zo te zien :)
Ik denk dat je beter kan zeggen dat nVidia vroeger gewoon SLECHT was in beeldkwaliteit. Pas bij de GeForce FX serie hebben ze hun beeldkwaliteit een beetje voor elkaar gekregen. Die beeldkwaliteit was er bij de overgang van de TNT serie naar de GeForce serie flink op achteruit gegaan. Dat zouden ze oplossen in de GF 2 serie. Niet gelukt. Toen zou het opgelost worden in de GF 3 serie. Niet gelukt. Toen zou het opgelost zijn bij de GF 4 serie. Niet gelukt. Pas bij de FX serie is de beeldkwaliteit verbeterd.
Pertinente onzin. Nvidia maakt geen videokaarten. Het probleem heeft derhalve nooit bij NVidia gelegen, maar bij de kaartbouwers, die inferieure filters gebruikten om kosten te besparen. Pas na de GF4 heeft NVidia kwaliteitseisen gesteld.
Zou best kunnen, maar ik zou dan wel eens het referentie design van die kaarten van Nvidia willen zien uit die tijd.

Bovendien had Nvidia toendertijd ook méér druk op de kaartenbouwers kunnen leggen om betere filters te gebruiken, als ze dat al gedaan hebben is dat toendertijd inderdaad niet gelukt.
Ach, er waren kaarten die gebaseerd waren op nvidia gpu;s die idd niet altijd verder kwalitatief goed waren afgewerkt (had je met andere merken die zelf geen kaarten bouwde ook), maar dat is voornamelijk bij de gf2 serie geweest, daarna heb ik zelf weinig kaarten meer gezien die onderdeden voor de rest (ik vind bijv mn matrox g200 beduidend slechter beeld geven dan mn tnt, en mn ati rage pro is helemaal om te huilen)

maw: het is onzin en tegenwoordig al helemaal achterhaald
Wat RoCK-iT zegt klopt. Ik heb zelf een Canopus 2500 Spectra gehad (TNT-1) en die gaf een veel beter beeld dan de diamond van mijn vader met dezelfde iiyama. Canopus plaatste namelijk extra filters.
Volgens mij gaat het hier om DVD playback. Maar ATI mag er toch ook wel zijn?
Eigenlijk ook niet.

Het is eigenlijk een review van de software dvd decoder.

Ze hebben wel wat andere plaatjes/animaties, maar lijkt erop dat die ook gewoon afgespeeld worden van DVD (ze hebben het over intelacing etc.)

ATi was (na matrox : p) altijd erg sterk in het outputten van zuivere signalen. Wadoor je dus erg mooie beelden kreeg. 2D of 3D maakt dan niet uit.

De kwaliteit van de rendering, welke mooier is, word vaker onderzocht maar dat staat hier helemaal los van.

Dus als je het mij vraagt niet helemaal eerlijk deze test. 3 verschillende chips, 3 verschillende decoders, wat test je dan ...
Dus als je het mij vraagt niet helemaal eerlijk deze test. 3 verschillende chips, 3 verschillende decoders, wat test je dan ...
Wat voor een plaatjes er aan het eind va het proces naar buiten komen misschien?
Je vergeet zeker Matrox ?
Ze hebben het hier over het afspelen van video, ati presteerd qua kwaliteit beter met renderen van 3d-beelden(volgens mij)
Jammer dat ze geen X1 serie in de test hebben genomen (bijv. de 100$ X1300PRO) Die heeft AViVo, wat voor bij videoplayback en HDTV etc. betere beeldkwaliteit moet opleveren.
Dat AVIVO is een chip oplossing van ATI wat die kwaliteitsverbetering mogelijk maakt echter is het wel meer afhankelijk van driver software.
Tot op heden zijn ze daar nog niet zo ver mee behalve dan met decoding en encoding.

Dit zit ook in de Xbox360 maar daar levert de DVD playback een barslechte kwaliteit op en ik vermoed dus driverissues.
Die AVIVO is ook hetgeen wat de geteste kaart (een X800XL) had. Het punt is niet zo zeer dat de kaart slecht is, het is meer dat de software die erbij zit om de videokwaliteit te regelen niet goed presteerd. (of iig slechter presteerd dan een videokaart van nog geen 20% van de prijs....)
Er wordt overigens in de conclusie vermeld dat ATi er hard aan werkt om de kwaliteit van AVIVO zo op te krikken dat het een score haalt in de HQV Benchmark suite van boven de 100pt (t.o.v. 51 pt voor nVidia in de huidige test).
AViVO zit er pas op de X1 serie kaarten hoor, en dat is de X800XL niet :)

Zie: http://www.ati.com/technology/avivo/
De tijd dat ATI echt beter was, kwam volgens mij door de betere filters en D/A converters op de kaart. Tevens staat aan eind van de review dat de kwaliteit voor video bepaald wordt door de software. :

Like NVIDIA PureVideo, ATI’s video processing hardware is software programmable. Our sources indicate that ATI is testing new drivers that will use more of the video hardware in the X1800 and the X800.
Word de beeldkwaliteit beter in 2d met de omega drivers eigenlijk? Ik weet dat ze in 3d beter worden maar 2d.
RTFA... oh wacht, waar is TFA eigenlijk?
nou ik hoop dat xgi zo nog een beetje door gaat met al die veranderingen, dan koop ik mischien nog een xgi :Y)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True