Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 65 reacties
Bron: AnandTech

AnandTech werpt een blik op de hardwarematige H.264-acceleratie van de GeForce 8600. Nvidia - dat normaal altijd achterloopt met dit soort features - is ATi in dit geval te snel af, maar hoe goed werkt het?

H.264 is de zwaarste van de drie codecs die worden ondersteund door blu-ray en hd-dvd. Het levert goede kwaliteit, maar eist ook erg veel van de processor. Zelfs een relatief snelle dualcore kan nog een flinke kluif hebben aan het verwerken van een hd-stroom. Oudere videochips kunnen hier wel een beetje bij helpen, maar laten het zware werk nog steeds aan de cpu over. De pas geleden uitgebrachte GeForce 8500/8600-kaarten zijn de eerste met volledig hardwarematige H.264-decodering, inclusief het decrypten van aacs-beveiliging. Gek genoeg heeft de duurdere GeForce 8800 deze functie niet en het is ook niet duidelijk of hij hem ooit nog zal krijgen.

Om te beginnen met de test worstelt AnandTech met softwareproblemen. PowerDVD en WinDVD bieden dan wel ondersteuning voor blu-ray en hd-dvd, maar hebben nog (regelmatig) last van crashes. Helemaal onder de 64-bit versie van Vista en in combinatie met de acceleratie van ATi zijn de problemen sterk aanwezig. Met een beetje doorzettingsvermogen weet men uiteindelijk toch benchmarks voor drie hd-films te verzamelen: Yozakura, The Interpreter en Serenity.

nVidia GeForce 8600 GTS

Tijdens het weergeven van de eerste 105 seconden van de eerste film zónder gpu-versnelling heeft PowerDVD gemiddeld 88% van de rekenkracht van een Core 2 Duo E6320 nodig. Met hardwarematige decodering zakt het verbruik naar rond de 21%. De veel duurdere 8800 GTX laat de processor voor 65,4% belast, omdat hij op dit gebied minder features heeft dan zijn kleine broertjes. De huidige topkaart van ATi komt op 75,2% uit. WinDVD is over het geheel genomen iets efficiënter dan PowerDVD, maar mist ondersteuning voor de functies van ATi en is daarom minder interessant om te vergelijken. De tweede film laat ongeveer hetzelfde beeld zien als de eerste. Voor de derde film heeft de feature minder effect, omdat deze met een ander codec (VC-1) is gemaakt. Deze codec is sowieso minder zwaar dan H.264 (puur softwarematig hoeft er maar 35,9% voor afgetikt worden) en de gpu kan daar nog een procent of tien vanaf scheren.

H.264 decodering GeForce 8600

Naast prestaties komt ook het stroomverbruik nog even aan bod. Gemiddeld verbruikt het systeem 135,1 watt tijdens het decoderen met de cpu en 124,8 watt met de gpu. Een marginaal verschil, maar het is in ieder geval niet zo dat de besparing die de processor maakt teniet wordt gedaan door videokaart. De conclusie luidt dat er behalve de nog steeds brakkige ondersteuning voor blu-ray/hd-dvd in pc-software geen nadelen zijn aan het gebruik van hardwarematige decodering. Vooral de goedkope GeForce 8500 is een erg interessante optie voor bouwers van htpc-systemen. Hoewel verwacht wordt dat ATi zeer binnenkort zijn eigen oplossing zal uitbrengen in deze categorie, is het toch positief voor nVidia dat ze dit keer niet achter de feiten aanlopen.

Lees meer over

Alle 25 producten

Moderatie-faq Wijzig weergave

Reacties (65)

Kan dit niet door middel van drivers toegevoegd worden aan de mogelijkheden van de videokaart? Dat de driver gewoon de berekeningen door de GPU laat doen.
Dat de driver gewoon de berekeningen door de GPU laat doen.
Het is zeker mogelijk, maar wellicht niet snel genoeg of niet energie-efficient. De GPU werkt met 32-bit floating-point getallen, terwijl video voornamelijk kleine gehele getallen gebruikt. Bepaalde bewerkingen op gehele getallen, zoals XOR bijvoorbeeld, komen niet eens voor op de GPU, en moeten dan via trage tabellen geimplementeerd worden. "Gewoon de berekeningen door de GPU laten doen" is dus echt niet zo vanzelfsprekend.
Dit is allemaal veranderd met de 8600 serie, deze heeft een native integer data type dat even snel, zo niet sneller is als float. Ook zijn instructies als bitshift en xor gewoon aanwezig.
http://developer.nvidia.com/object/cuda.html
Geen idee. Het zou kunnen dat het echt puur moet worden ingebouwd met instructiesets, en dat is hardware die je niet meer kan veranderen. Dat zou ook direct laten zien waarom de rest van de 8xxx serie zo laat komt: de 8800 is er uit gegaan voor de gamers en tuurlijk ook het geld wel, maar zo had NVIDIA ook mooi de tijd om dit in de andere versies te bouwen. Iig is er geen nieuwe PureVideo driver iig.
Dat noemt men dus software matige acceleratie,wat weer een belasting vormt voor je cpu.
je hou haast zeggen van wel, puur om de reden dat de 8800 ook streaming processors heeft... kan me haast niet voorstellen dat die ook niet te programmeren zijn voor hardwarematige decoding van videostromen... ik bedoel als je ook al Physics en veel andere dingen er al op kan berekenen...

tijd om dat maar eens via CUDO (zo heette dat shaderlanguage toch?!?) te gaan programmeren
Ik weet het niet zeker, maar krijg je dan niet dat het eerst softwarematig word ge-emuleerd naar de GPU, hardwarematig word klaargemaakt, en weer terug word gestuurd om het vervolgens via de driver weer (Softwarematig) te decoderen?
Vooral de goedkope GeForce 8500 is een erg interessante optie voor bouwers van htpc-systemen.
Ik neem aan dat dat de 8600 moet zijn?
Nee, de 8500 is geschikter voor htpc, die is goedkoper omdat hij minder 3d-kracht heeft, maar biedt wel dezelfde H.264-features.
Ik vind de 8500 juist niet zo geschikt voor een HTPC. Op het moment dat je deze kaart koopt om HD-materiaal erop te kunnen bekijken, dan neem ik aan dat men later ook Bluray of HD-DVD wil bekijken. Zonder HDCP is dit echter niet mogelijk op HD-resolutie. Een groot gemis vind ik zelf voor de 8500-serie.
Zonder HDCP is dit echter niet mogelijk op HD-resolutie.
Alleen als men die beveiliging inschakelt, en daar zijn heel wat mensen tegen (inclusief enkele studios).
Ik vind van niet. Ook al ben ik redelijk ATI fan, da's toch een kaartje naar m'n hart. Hoe minder extra troep voor HDCP, hoe minder ik betaal voor die rotzooi die ik niet wil. Schijfjes met HDCP mijd ik toch als briefjes van 11 euro, ik wil gewoon de film zien hoe ik het wil. Daar gaan die fabrikanten mij 0,0 aan beperkingen voor opleggen :)
Nee hoor heb hier zelf een 8500 gehad ze bestaan dus echt.
LOL... we hebben het hier over de NVIDIA GeForce 8500 (oftewel de laatse generatie kaarten) en NIET over de ATI Radeon 8500 (die dus ondertussen (bijna) 4(!) generaties oud is...)

ik kan me btw de verwarring wel voorstellen (goede zet van NV denk ik dan persoonlijk want de Radeon 8500 (dit was uiteraard ten tijde van de Geforce 4 TI series)kaartjes waren SUPER!!! en zo zou je wat "oudere" consumenten om de tuin kunnen leiden)
Nee hoor, de 8500 is erg goedkoop en heeft ook H.264 acceleratie
Om het even duidelijk te maken (wow 2 postst die hier niks toevoegen :P):

De 8500 is hetzelfde als een 8600 alleen moet deze het stellen met DDR2 geheugen ipv GDDR3. NVIDIA wil dus blijkbaar dat verschil nu duidelijk maken.

EDIT: Hmmz, dat heb ik dus ook fout, meende te lezen dat het dezelfde core was, NOT dus...
Ik moet zeggen dat de hardware acceleratie van de 8500/8600 heel erg teleurstellend is. Het is fijn dat de processor minder trekt, maar het totale verschil is slechts 10W. Zeker een HTPC heeft niet de extra ruimte nodig van de processor.

Volgens mij bespaart het een hopmeer stroom als je gewoon je tweede core gebruikt dmv. CoreAVC. Ik zou graag hebben gezien wat voor stroom verbruik dat zou hebben bespaart (gebruikt niet de GPU, en verdeelt de load netjes over twee cores waardoor deze ook minder verbruiken).
Hey, maar 10W is wel bijna 10% van het totaal plaatje :)
Het is natuurlijk leuk dat je zo stroom bespaart maar veel belangrijker is het dat je ook H264 kan gebruiken met een tragere processor.
Vreemd, op mijn X1900XT en VLC player (WMP & QT lijken de hardware accelaeratie niet te herkennen van deze kaart) kijk ik 1080p tcoh echt met een belasting van ongeveer 20% op een AMD X2 3800+ ???
dat klop, dat is hardware acceleratie, op dat typen kaarten.
het is geen nvidia 8600 die het bijna 100% kan decoden.
En waarschijnlijk ZONDER deinterlacing etc., zet deze maar eens aan, kijken hoe hard het dan nog gaat.
Ook is de beeldkwaliteit van Nvidia Purevideo (HD) zeer hoog, veel hoger dan VLC en ATI.
waarom doen ze er zo lang over om volledige vc1 h.264 of gewoon HD formaten in het algemeen te versnellen begrijp ik niet.

Ik had op mijn ati kaart van 10 jaar geleden al een aparte mpeg2 chipje erop zitten om dvd's te versnellen en dat werkte gewoon prima maar om de een of andere manier blijft zelfs bij de meest high end kaarten HD versnelling onvoldoende naar mijn mening.
DVD is maximaal 720×576, HD is maximaal 1920 × 1080. Dat is (exact) vijf keer meer pixels. Daar komt nog eens bij dat de codec zelf veel complexer is en de data gedecrypteerd moet worden.
Ik had op mijn ati kaart van 10 jaar geleden al een aparte mpeg2 chipje...
Kan niet. Zal wel eerder 5 jaar geleden zijn.
In 1998 kon je o.a. van Creative MPEG2 versnellingskaarten kopen samen met een DVD-ROM speler om DVD's te bekijken. Zonder zo'n kaart had je iets van een P2@400mhz nodig.

Of Ati toen dat soort kaarten had weet ik niet, maar het is dus zeker wel mogelijk geweest

DVD's zijn ook versleuteld, maar codecs zoals VC1 en H.264 zijn inderdaad geavanceerder dan MPEG2.
Kan wel.

Ati 3D Rage II, officieel aangekondigd op 2 september 1996 en een paar weken later in de winkel had volledige MPEG-II hardware decodering aan boord.
En weer worden de mensen met de high-end kaarten genaaid.

Ten tijde van de 6800GT/Ultra was de hardwarematige ondersteuning ook brak geimplementeerd en pas de latere uitgaves als de 6600GT hadden wel goede ondersteuning.
In dit geval zijn de 8800 users genaaid omdat de hardwarematige H264 niet goed ondersteund wordt en voor de 'goedkopere' kaarten wel.
Dit keer hebben ze in ieder geval geen valse beloftes gemaakt, hoewel het voor 8800-kopers natuurlijk nog steeds bitter smaakt. Maar goed, zoals iemand anders ook al opmerkte zou ieder systeem met een 8800 toch al krachtig genoeg moeten zijn voor hd-video, dus onmisbaar is het ook niet :).
Niet helemaal waar. Als je kijkt op :
http://www.nvidia.com/page/geforce8.html

zie je dat voor de 8-serie je PureVideo ondersteuning hebt, alleen de voetnoot verraad dat het momenteel alleen beschikbaar is voor de 8500/8600 onder Vista. Er staat niet dat het niet op de 8800 zit.
Welk deel van alleen voor 8500/8600 begrijp je niet?
en laat ik daar nu 2 van hebben... (hoezo genaait?) :'(

http://www.nvidia.com/page/purevideo_support.html
Ik gebruik CoreAVC als H264 codec en die werkt zelfs op m'n 2GHz AthlonXP zonder enige probleem voor 720p HD resoluties. Op mijn Opteron 165 (op 2,6GHz) is 1080p ook geen enkel probleem. Voorheen gebruikte ik daar nog FFDShow voor maar toen moest m'n Opteron alle zeilen bij zetten en ging de CPU fan als een bezetenne draaien. Maar met CoreAVC is dat met een CPU belasting van enkele 10tallen procenten echt geen moeite meer en blijft de CPU fan heel rustig z'n rondjes draaien.
Het gaat er dan natuurlijk wel om of je een full high quality film hebt van een blu ray of HD DVD disc (15-30 GB of een internet HD download / rip van 5-9 GB).
Het maakt namelijk nogal uit of je 8MB/s of 50MB/s moet decoderen.
ik gebruik met mijn X2-3600 X1650XT 30-50% op 1080p en 20-40% op 720p. (trailer Pirates ot Car 3). Dus zo heel veel maakt nou ook weer niet uit. En dat zijn toch zgn minderwaardige processoren vlg met core2 en 8600.

edit: als ik zeg 1080p dan bedoel ik 1080p. Als een film een andere aspectratio heeft is de film altijd zo, dus ook de trailer. De geteste BD film zal ook geen volle 1920*1080 zijn.
Maar trailers zijn meestal niet in volledig 1920*1080 maar eerder 1440*1080 o.i.d. en dat scheelt behoorlijk wat decodeerwerk.
Wel matig dat de 8800 serie geen hardwarematige decodering heeft. Zou dit op te lossen zijn met een BIOS/Firmware upgrade van de kaart?
Nee. Hij heeft er simpelweg niet de hardwarecomponenten voor.
Jammer dat er nog geen AGP versies van deze 8600 kaarten op de planning staan. Veel mensen hebben een iets ouder systeem met Pentium 4 of Athlon64 singlecore processor. Als een 8600GTS de CPU load van een E6320 naar <25% kan brengen dan zou zo'n AGP systeem prima in staat zijn om volledige HD video in hoogste kwaliteit zonder schokken af te spelen.

En dat maakt een oude PC ook goed geschikt voor mediacenter functionaliteit. Men hoeft dan niet gelijk een PCI-E moederbord en dualcore processor te kopen. :P

Beter voor het milieu en beter voor de portemonnee. :P

Nou is het te hopen dat de HD2600 serie van ATi gelijkwaardige resultaten neerzet, want de midrange is echt heel belangrijk voor het marktaandeel in de GPU markt. Ik gun het AMD zeker nu ze in zwaar weer zitten. :)
Helaas staan ze niet alleen niet op de planning maar schijnt de AGP bus niet in staat om dit soort dingen aan te kunnen, zie mijn vraag hierover in de comments van de bron artikel.

* phusg zou graag het milieu en zijn portemonnae sparen door zijn AGP HTPC te opwaarderen met zo'n kaart.
op de windows XP driver site:"quote" PureVideo™ HD support is currently only available on Microsoft® Windows™ Vista
http://www.nvidia.com/object/winxp_2k_158.19.html
Welke beperking levert dat op voor win XP gebruikers en hoe is dat te compenseren?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True