Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties
Bron: AnandTech

Een van de eisen die entertainmentbedrijven kunnen stellen voor het afspelen van een film, is dat een afspeelapparaat voorzien is van hdcp-technologie. Indien dat niet het geval is, kan besloten worden het beeld in een lagere resolutie door te sturen. AnandTech bekeek een collectie videokaarten die aan deze eis voldoen.

nVidia logo (75 pix)Voor de review heeft AnandTech een aantal doelen gesteld. Vooreerst wil men nagaan wat de beste videokaart voor gamers is die volledige hdcp-ondersteuning biedt. Daarnaast wil men ook nagaan hoe het met de videokwaliteit gesteld is en zijn energieconsumptie en geluidsproductie belangrijke onderwerpen. Blu-ray-films worden afgespeeld met een Pioneer BDR-101A en Cyberlinks PowerDVD-software. Niet alleen de videokaart en de speler moeten hdcp ondersteunen, maar ook de drivers moeten hiermee overweg kunnen. Met de laatste Catalyst- en ForceWare-drivers is echter ook die hindernis overwonnen. De hdcp-compatibele tv die als testobject mag dienen is een Westinghouse lvm-42w2.

Maar liefst achttien vertegenwoordigers van het nVidia-merk en vier visuele krachtpatsers met een ATi-logo zullen zich in deze review moeten laten gelden. Vier van de gereviewde modellen zijn op het moment van schrijven echter nog niet gelanceerd. Twaalf pagina's lang worden de verschillende merken en modellen voorgesteld, maar daarna gaat men over naar het echte werk. Als opwarmertje krijgen de kaarten - in een Intel D975XBX-moederbord met Core 2 Duo E6300 en 2GB geheugen - een sessie Battlefield 2 te verwerken, gevolgd door een partijtje Oblivion. De resultaten uit deze test zijn weinig verrassend aangezien dit standaardonderdelen zijn van een benchmarksessie voor videokaarten.

Daarna komt echter het echte hdcp-werk en wordt het cpu-gebruik gemeten tijdens het afspelen van een Blu-ray-film. Aangezien de huidige films nog in mpeg-2-formaat gecodeerd zijn, is het nog niet mogelijk een uitgebreid beeld van het processorgebruik te geven. Codecs als VC-1 en H.264 vergen immers veel meer rekenkracht en het is dan ook nog afwachten geblazen hoe de kaarten het er daarmee vanaf zullen brengen. Bij nVidia-kaarten wordt het decoderen van de mpeg-2-stream volledig afgehandeld door de PureVideo-processor, die op zijn beurt gebonden is aan de kloksnelheid van de videocore. Een nVidia-kaart met meer pipelines zal dan ook beter presteren in videospellen, maar dat betekent niet dat ze als beste uit de bus zal komen in deze test. De ATi X1900 XT 256 valt op in positieve zin met een gemiddeld gebruik van 34,2 procent van de cpu-tijd. Bij nVidia zijn de 8800 GTX en 8800 GTS het mildst voor de processor. De slotconclusie voor dit onderdeel is volgens de reviewers echter dat cpu-gebruik weinig invloed zal hebben op de keuze voor deze of gene videokaart.

ATi Catalyst logo - bollenOok de energieconsumptiemetingen brengen weinig verrassends boven water. High-end kaarten blijken opvallend meer energie te verbruiken, waarbij de nVidia 8800 GTX zelfs vereist dat er een vervangende voeding gebruikt wordt. Wanneer de industrie meer gebruik gaat maken van VC-1 of H.264, zal er echter beter gebruik gemaakt kunnen worden van hardwarematige acceleratie en dat zou de efficiŽntie - en bijgevolg ook het energieverbruik - ten goede moeten komen.

Het lijkt er bovendien op dat nVidia-kaarten de opgenomen energie enigszins efficiŽnter omzetten dan de ATi-modellen. De GeForce-chips worden over het algemeen iets minder warm dan hun concurrenten en ook wat geluidsproductie betreft doen deze videokaarten het niet slecht. De Asus EN7600 GT is dan weer wel de luidruchtigste kaart in het testveld. Het stilste model is de Leadtek Winfast PX7900GS TDH Extreme 520/700.

De conclusie van de reviewers begint duidelijk: de 8800 GTX levert onbetwistbaar de beste prestaties af, gevolgd door de 7950 GX2-kaarten van BFG en EVGA. Vervolgens komt men echter met de nuanceringen aanzetten. Zo leunen ATi-kaarten minder op de cpu tijdens het afspelen van Blu-ray-video, hoewel de 8800 GTX en GTS wel de nVidia-clan blijven aanvoeren. Bovendien zegt deze test niets voer de toekomstgerichtheid van de kaarten, aangezien er nog geen duidelijkheid is over prestaties bij decodering van H.264- of VC-1-materiaal, dat in de toekomst ongetwijfeld mpeg-2-video zal gaan vervangen. Wie hoge eisen stelt op zowel het gebied van gameprestaties als op hdcp-vlak, kan terecht bij de GeForce 8800 GTX, zo besluit de reviewer. Wie hdcp-ondersteuning wil, maar niet al te veel wil uitgeven, kan beter naar de NX 7600 GT kijken.

ATi's HDMI/HDCP-videokaart
Moderatie-faq Wijzig weergave

Reacties (37)

Wil dit dan zeggen dat het op het moment alleen Blueray films uitgekomen zijn met MPEG2-codering of hebben de heren hun test gewoon niet goed voorbereid?
Ik vind deze test ook een beetje vaag. Er worden een hoop conclusies getrokken maar daarbij worden ook weer een hoop met kanttekeningen geplaatst.
Sorry maar dat kan ik geen conclusie meer noemen dan!
Verder mag ik aannemen dat er ook een HD-DVD film had kunnen worden gebruikt die dan wel betere codecs gebruikt dan de Mpeg2?
Dit lijkt bijna op een onderzoek met een voorgeprogrammeerde conclusie die er geen is!
wat mij opvalt, ze hadden beter 4Nvidia en 4Ati kaarten kunnen pakken.
ik vind deze test nu nou niet zo heel erg betrouwbaar meer.
ik lees welgeteld 1 Ati-kaart en zoiezo al 4Nvidia kaarten.
Is het ook niet zo dat Ati nog maar 1 kaart heeft die HDCP compatible is? Daaarom doet er ook maar 1 kaart van Ati mee,ligt niet aan de test maar aan Ati :Z
Er zijn verschillende nVidia GPUs getest op verschillende merken kaarten.

Er is welgeteld 1 kaart met een ATi GPU getest en daarnaast nog een aantal referentie modellen (ofwel: ATi heeft wel degelijk meerdere GPUs met ondersteuning anders hadden de referentie modellen ook niet getest kunnen worden).

Als je dus een eerlijke test had willen zien hadden alle ATi GPUs met ondersteuning op verschillende merken kaarten getest moeten worden......
Die test is niet betrouwbaar omdat er maar 1 ATI kaart inzit? ATI heeft er maar 1! Wat moet anand doen? Er zelf 3 bijverzinnen?
ze hadden iig hier kunnen kijken:
***The Official 100% HDCP ready video card list.***

dan tel ik toch al 6 verschillende versies als je het bij core de ATi naamgeving alleen houd.
Er is inderdaad slechts 1 ATi kaart opgenomen. De rest van de ATi "kaarten" in de test zijn reference builds van ATi zelf; over het algemeen zeker niet de best presterende kaarten.

De test zegt dan ook niets over de performance verschillen tussen ATi en nVidia, alleen over de verschillende merken kaarten met nVidia GPU.
Dus voor de rijke gamers onder ons blijft de Nvidia 8800 GTX et zaligste kaartje van het moment...? Of zijn er nog andere modellen (behalve de GTS dan) die ook DirectX 10 ondersteunen...?
Sorry indien ik domme vragen stel, ben (nog) geen echte expert op hardware vlak...
Dit zijn de enige jah, Ati komt binnenkort met de R600 die ook DX10 ondersteund

lees deze:

nieuws: Geruchten over specificaties ATi R600-core
Het gaat in dit geval niet om DX10 kaarten maar om HDCP compatible kaarten,de 8800 is gewoonweg het nieuwste(alweer)op dit moment die dus DX10 hardwarematig ondersteund.
HDCP werk? Is nu alles weer veranderd en ben ik in de war of de schrijver van het artikel?

HDCP = De chip die er voor zorgt dat het beeld wordt beveiligt tegen piraterij, zonder deze beveiliging zou het beeld terug gaan op 1/4 van de resolutie. (HD Content Protection gok ik zo)

HD = High Defenition beeld

Voor het weergeven van HD materiaal zijn huidige videokaarten van hardwarematige decodeer spul voorzien (kan ff het woord niet vinden :P ). Bij nVidia heet dit PureVideo en bij ATi AVIVO. Dit zorgt er voor dat het door de videokaart wordt gedaan in plaats van de CPU, waardoor de CPU minder wordt belast.

Zoals je wel ziet is HDCP iets heel anders!

Mijn laptop heeft geen HDCP chip maar kan wel HD hardwarematig decoderen. Dit beteknd dat beveiligd materiaal op 1/4 van de resolutie zou draaien en niet beveiligde gewoon op de HD resolutie. Echter zal bij mij ook de CPU minder worden belast.
Waarschijnlijk kan je laptop het signaal niet hardwarematig coderen maar decoderen ;) . Daar zit veel verschil tussen.
Tsja, eer je een blue-ray drive in je laptop neemt heb je een nieuwe laptop/computer gok ik.
Wie hdcp-ondersteuning wil, maar niet al te veel wil uitgeven, kan beter naar de NX 7600 GT kijken.

--> Niemand wil HDCP, enkel de filmindustrie die ons weer op kosten jaagt! Denken ze nu echt dat er hierdoor geen illegale kopies van HD-films op het net zullen verschijnen? Da's slechts een kwestie van tijd, maar de consument is er weer de dupe van en moet een nieuwe vidkaart kopen... :(
Deze beveiliging zou als het goed is pas in 2011 worden doorgevoerd in het videomateriaal.

Ik weet niet hoe het met jou zit, maar dan heb ik wel weer een nieuwe graka ;)
jah maar ik hoop toch mijn schermpje toch een beetje langer te gebruiken...
En als je videokaart nou geen hdcp-technologie ondersteund, wat is dan de CPU belasting?
Ik heb zelf nog een Geforce 6800Ultra die ik nog niet wil vervangen.
Als je videokaart geen HDCP ondersteund dan kan je dat simpelweg niet gebruiken, in dat geval krijg je gewoon een lagere resolutie voorgeschoteld (of een scherm dat je een HDCP systeem moet aanschaffen)

Dat was/is in ieder geval de planning.
@ yori1989

Moet ik dus zeggen aan mijn baas da hij de G80-core kaarten invoert, of wachten op de R600's? Of geen enkel van de twee? Of beide? Deze kaarten moeten toch masaal verkopen binnenkort? DirectX 10-games, Vista Ultimate, ...
neej
de G80 en RD600 zijn high end en worden relatief weinig verkocht
tegen de tijd dat DX10 games zijn zijn er ook mid end kaarten
RD600? De moederbord chipset? Het gaat hier over grafische kaarten weet je wel ....
Het lijkt er bovendien op dat nVidia-kaarten de opgenomen energie enigszins efficiŽnter omzetten dan de ATi-modellen.
Wat is dit voor een rare conclusie, Šlle opgenomen energie wordt omgezet in warmte, dus hoe kan de ťťn hier nu efficienter in zijjn dan de andere :?
Als de ene kaart minder vermogen opneemt dan een andere kaart voor de zelfde berekening in de zelfde tijd of minder,dan is die efficiŽnter.
HDCP = High-Bandwidth Digital Content Protection
http://en.wikipedia.org/wiki/HDCP
Wat een brakke review zeg.

MPEG2 kan een beetje pc tegenwoordig wel in software decoderen. MPEG4/AVC en H.264 is daarintegen een heel ander verhaal. Als je dan 1080p als resolutie neemt trekt dat op een redelijke Athlon 64 3500+ meer dan 100% cpu tijd. (Skippende frames en wegvallende audio). Maar met DVA acceleratie; oftewel off-loaden naar de grafische kaart; zakt het processor gebruik (in mijn geval een 7800gtx) naar 30-40%. Dit is met een hele heftige h.264 1080p stream van de docu "Galapagos" geript van BBC HD op de Astra.

Bij nVidia moet je overgens minimaal een 7600gt hebben om alle opties van de acceleratie te kunnen gebruiken. En een driver waarbij Purevideo HD niet broken is. En daarbij nog een decoder van Cyberlink of Ahead. De Purevideo decoder die nVidia zelf levert doet alleen maar MPEG2 en geen 4/AVC of H.264.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True