Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties

Ars Technica heeft verschillende videokaarten van ATI en nVidia tegenover elkaar gezet en gekeken naar de prestaties bij het decoderen van hd-video. Opmerkelijk is de prestatiewinst van de Radeon HD 2400 XT met de 8.44 bta-driver.

In de test wordt gekeken naar de cpu-belasting bij het decoderen van drie verschillende coderingen: h.264, vc-1 en een mpeg2 hdtv-transportstream. Het blijkt dat nVidia en ATI aan elkaar gewaagd zijn, maar ze presteren niet met elk bestandsformaat gelijkwaardig. Bij het decoderen van vc1 en h.264-films zijn de ATI-kaarten sneller, met uitzondering van de Radeon HD 2900 XT die het moet doen zonder uvd-engine.

Radeon HD 2400Bij het decoderen van een 1080i hdtv-transportstream zet nVidia de beste resultaten neer. Opvallend is het effect van de 8.44 bta-driver op de prestaties van de Radeon HD 2400 XT: de cpu-belasting zakt van 58,6 procent naar 16,5 procent. De Radeon HD 2900 XT wordt in deze test niet gehinderd door het ontbreken van de uvd-engine en veroorzaakt een cpu-belasting van 12,5 procent.

Nvidia doet het nog beter en verbruikt niet meer dan 6,5 procent van de beschikbare cpu-cycles. Hier staat echter tegenover dat de beeldkwaliteit bij de GeForce 8500 GT en 8600 GT tegenvalt. De beeldkwaliteit van de GeForce 8800 GT is wel in orde.

Gemiddeld genomen doet ATI het hardwarematig decoderen van video beter dan nVidia, maar groot is het verschil niet. De videokaarten van beide fabrikanten weten zonder problemen het merendeel van het werk over te nemen van de processor.

Moderatie-faq Wijzig weergave

Reacties (53)

Ik vind het juist irritant als m'n films door de videokaart gedecodeerd worden. Met de 2900XT wordt dat ding behoorlijk warm, met als gevolg dat de koeler flink wat rondjes meer moet draaien. Herrie is wel het laatste wat ik wil hebben onder een filmpje. Van mij zou de processor alles mogen doen hoor, die is een stuk stiller!
Daar ben ik het mee eens, maar om een andere reden. Vroegah, kon je ook CDvideo of DVD niet afspelen zonder ondersteuning in de videokaart. Tegenwoordig kan dit rekenwerk door de CPU met twee vingers in de neus worden uitgevoerd. Dit zal met HD content niet anders zijn. Nog een paar jaar en je hoeft niet meer na te denken over dit soort features op de videokaart. Tenzij er een uber-HD video formaat ontstaat. Juist op de drempel van de invoering/ondersteuning van nieuwigheden word het meeste geld verdient. En dat hoeft voor mij niet zo. Laat ze (iedereen dus) eens iets goedkoops ontwerpen waarvan alle functionaliteit gedocumenteerd is.
Zovast voor de mensen die zich afvragen waarom het topmodel een bepaalde functie niet heeft (uvd decoder).

AMD/ATI is ervan uit gegaan dat naast een dergelijke kaart ook een top cpu staat en dat het daardoor niet zo erg is als er meer cpu cycles gebruikt worden (iets dat in mijn optiek nooit goed is, gewoon datgene gebruiken wat er speciaal voor is).
Volgens mij had het deze reden:

De R600 was al zo'n grote en complexe chip dat ze besloten hebben om hem eruit te laten om de eevoudige reden om hem zo kleiner te houden. Pas met 65nm zou hij er weer inkomen.
Klopt, grootte van de die en het energieverbruik wilden ze zo laag mogelijk houden. Aangezien de 2900xt het al niet erg nauw neemt met het broeikaseffect, heeft AMD/ATI de keuze gemaakt om UVD uit de R600 serie te halen.

De nieuwe 3870s hebben weer wel UVD, maar die zijn dan ook weer op een kleiner proces gemaakt waardoor de dies kleiner bleven en het dus makkelijker geimplementeerd kon worden.
De r600 is 80nm als ik me niet vergis ;) Die nieuwe chips zijn op een weer kleiner procede gebakken. Daarom gebruikt de R600 ook zoveel stroom de RV670 niet. Die 2400 kaartjes worden ook wel erg interessant. Ze kosten minder dan 40 euro. Dan maakt het niet uit wat voor CPU erbij zit, de kaart doet toch al het werk :)
Ik zie dat ze het bij ATi hebben over driver 8.43 en 8.44 beta.
Ik als eindgebruiker kan alleen maar 7.12 downloaden.

Waarom dan deze test met een driver die voor ons niet beschikbaar is?
Of loop ik erg achter en zijn de 8.43 drivers gewoon ergens te downloaden ?
7.12 word geleverd met de 8.43 driver

de versie 7.12 is de complete driver pack, dus niet alleen de videokaartdriver maar ook met ati catalyst enzo erbij.

In catalyst zelf kun je de individuele versies zien van elk produkt.

Bij 7.12 zit:
Driver Packaging Version 8.432-071101a-054440C-ATI

Wat dus 8.43 is.
ah, kompleet duidelijk nu.

Zover had ik nog niet gekeken.
nVidia is eigelijk een videokaart die het best kan draaien op games daar tegen over is Ati weer beter met grafisch bewerking o.a. Photoshop, flash en video bewerking!

Er zit zeker verschil er tussen, stop weg met men en videokaart maken waarbij beide fabrikanten mee werken.

Dat zou een monster kaart worden! :*)
En een doodsteek voor de concurrentie. Liever niet dus ^^
Dat heet gewoon fuseren :+
Dan is er echter geen concurentie meer, maar een monopoly! Zou niet goed zijn voor onze beurs.
Hoe kan de beeldkwaliteit nu tegenvallen bij de 8500GT en de 8600GT? Het zijn toch gewoon pixels met een bepaalde waarde die de kaart decompressed? hoe kan de ene kaart dan mooier beeld geven?
niet alle pixels worden opgeslagen bij deze coderingen, en daarom zijn ze ook te behappen wat grote betreft. hoe je ze decodeerd is dus van belang, en soms ligt het wat open voor interpretatie.
Nee, dat is niet juist: de manier van decoderen ligt volledig vast volgens de specificatie. Bij het encoderen is er veel mee vrijheid.

Het beeldverschil tussen verschillende kaarten zit hem niet in het decoderen maar in de post-processing (dat is echt heel iets anders dan decodering, al is het begrijpelijk dat een en ander door elkaar gehaald wordt.) Wanneer de video stream gedecodeerd is, gaan er allerlei algorithmes aan het werk die de-noising doen, upscaling, de-interlacing, motion compensation, color lookup etc. Het is hier waar het verschil gemaakt wordt in beeldkwaliteit. Ieder bedrijf heeft zijn eigen 'secret sauce' die het beste resultaat zou moeten opleveren...

[Reactie gewijzigd door newinca op 1 januari 2008 15:46]

Post-processing onder andere. Is vrij standaard binnen codecs (deringen, deblocking, sharpening) maar ook tv's bijvoorbeeld (denk aan Pixel Plus, Natural Motion, etc).

Vind het ook erg jammer dat ze in de review niet HQV of vergelijkbare kwaliteit-benchmark hebben gebruikt. IMHO is kwaliteit van het beeld minstens net zo belangrijker als CPU-belasting en zeker als het om HDTV gaat.
Ze hadden gelijk ook de beeldkwaliteit moeten testen/beoordelen, het geheel is een beetje incompleet zo.
Daar is toch ook naar gekeken?
De onboard chips zijn ook steeds beter in staat om HD video te decoderen. De AMD/ATi Radeon x1250 en nVidia GeForce 7150 zijn prima in staat om de CPU te ontlasten voor het afspelen van 1080p video.

De beeldkwaliteit out-of-the-box is bij ATi vaak wat beter met Component-HD, maar na wat nVidia tweaks ontlopen ze elkaar weinig.
Dat mag opzich ook wel. De voorloper van de onboard GeForce 7150, de 7050, is slechts beperkt in staat om echt HD content af te spelen en de CPU te ontlasten. Daarbij is de beeldkwaliteit ook nog erg matig door schokkende/flikkerende beelden.
Jammer genoeg heb je wel een zware proc er bij nodig.

690G heeft voor H.265 een 2.8 ghz processor nodig.
ehm, het is een AMD chipset.. wat denk je? een amd x2 ...?
Waarom zijn alle reviews nog steeds voor Windows only? Er zijn vast mensen zat die voor open source zouden kiezen als de fabrikanten zouden bevestigen dat hun hardware ook goed door open source software ondersteund word.
Zo heb ik laatst een ATI videokaart gekocht omdat ATI/AMD heeft aangekondigd de specificaties vrij te geven. En nu blijkt ineens dat dat voor 2D en 3D only is en het UVD video gedeelte daar niet onder valt. Juist het stukje dat mij zinvol lijkt om HD content af te spelen.
Een veel interessantere vraag lijkt mij; Welke videokaart is er het meest geschikt voor het opnemen/afspelen van HD content. Met als voorwaarde dat alle gebruikte software (ook de drivers) open source zijn?

[Reactie gewijzigd door joho op 31 december 2007 19:06]

Zie deze link over ondersteuning van de AMD GPU: http://www.phoronix.com/s...ge=article&item=955&num=1

Het is nog niet duidelijk of het UVD gedeelte vrij gegeven gaat worden. Deze beslissing kan nog enkele maanden op zich laten wachten zie de link.

Ik hoop dat NVidia ook gaat volgen. Dan kan binnenkort Linux draaien zonder dat je extra drivers moet installeren, hoewel dat dit ook erg gemakkelijk is.

Voor zover ik weet zijn momenteel de NVidia en AMD drivers voor Linux net zo goed als de Windows versies. Het betreft dan wel de gesloten versies.
Het is helaas heel simpel: slechts een paar drivers (waaronder nvidia, maar niet de 8x00's) ondersteunen hardware-acceleratie van mpeg2, maar geen enkele ondersteunt op dit moment acceleratie van de nieuwere encoderingen :(
Dus een review daarvan heeft weinig zin...
De meeste mensen gebruiken toch windows dus zo interessant is dat helemaal niet....
Als de ontwikkelingen nu een beetje willen doorzetten en de http://gathering.tweakers.net/forum/list_messages/1207772 Ubuntu Media Center nog een klein beetje verder ontwikkeld wordt zou dat best eens een heel leuk OS kunnen worden voor je HTPC. Daarom vind ik het punt van joho weldegelijk interessant, het hele Linux programma valt of staat met de drivers, al dan niet 'open source'...

Nu ik zelf plannen aan het maken ben voor een HTPC zijn dit toch wel zeker belangrijke zaken, KOOP ik een Windows XP MCE/Vista Huppeldepup of slurp ik de Ubuntu MCE binnen voor het mediacentertje..? Zoiets is bij het plannen weldegelijk belangrijk namelijk gebruik ik dalijk een ATI of nVidia GPU voor de HD content..?

Ik persoonlijk ben nogal van de Open Source maar helaas laten de drivers van de fabrikanten uit het nogal eens afweten, zoals in geval van m'n (toch wel ber-fijne) Canon i560 Bubblejet printertje, dat was aardig knokken om hem een beetje redelijk te laten werken.

Ik weet ook wel dat 'de meeste mensen' Windows Nogwat gebruiken voor HTPC's en computers in het algemeen. Vaak is het ook wel een beetje 'wat de boer niet kent dat vreet die niet'...
Mensen hebben ook de neiging om na de eerste drempel linux van de PC af te knikkeren. Ook niet zo raar; de fouten in linux zijn op z'n minst vriendelijk te noemen. Een BSOD, of adresverwijzing in Windows ook niet natuurlijk, maar daar word het op een dusdanige mierzoete manier gebracht, zodat deze weer snel weggeklikt kan worden, of de verwoordingen zijn wat subtieler. Een fatal error klinkt tenslotte wat minder erg in de oren van een gebruiker, dan KERNEL PANIC!; waarbij de keuze van woorden al een meltdown van de pc te doen lijken voorspellen.

Een gebruiker heeft liever een korte flits/dump en automatische reboot, dan een lijst van debug-achtige info/meldingen waardoor hij alleen maar in paniek raakt van de 'dreigende' terminology. (Aangezien linux devs bekend staan om hun soms originele meldingen). Terminology als een proces "killen" (wat voor unix puristen als normaal word beschouwd) ipv "afsluiten" helpt natuurlijk ook niet echt mee :P

Ubuntu heeft dit soort zaken grotendeels al netjes voor de gebruiker verborgen gelukkig.

[Reactie gewijzigd door Laurens-R op 1 januari 2008 14:00]

Op de desktop misschien, maar op het gebied van de mediaspelers is er veel meer diversiteit. Denk bijvoorbeeld eens aan mythTV of LinuxMCE. Nu hoeven de test niet perse 'voor open source' gelden, maar een extra test waarbij ook de prestaties onder linux vergeleken worden zou ook ik zeker niet verkeerd vinden.
En nu blijkt ineens dat dat voor 2D en 3D only is en het UVD video gedeelte daar niet onder valt. Juist het stukje dat mij zinvol lijkt om HD content af te spelen.
Duh, als HD content(of alleen de uitleesmethode) open source wordt, dan is het dus ook niet te beveiligen 8)7
Hetgene dat beveiligd was, de discs dus, dat is juist al gekraakt. Het afspelen van MPEG4/H264/etc. is helemaal niet beveiligd, je kan ook je eigen filmpjes opnemen op je (HD)videocamera/etc. Helaas hebben ze bij ATI/AMD een ontwerpfout gemaakt waardoor de logica voor het decoderen van video, verweven zit in het ontcijferen van de DRM die er omheen gebakken zit.
Dus kun je nu ook je eigen opgenomen videos niet 'versneld' afspelen.
AMD en nVidia zijn aan elkaar gewaagd dus, maar AMD heeft als grootste nadeel dat UVD niet onder Windows XP werkt omdat het niet ondersteund wordt in de drivers.
heb je een bron behalve wat vage forum posts?

want volgens mij is het onzin.
http://www.hardspell.com/...showcont.asp?news_id=1352

[Reactie gewijzigd door Countess op 1 januari 2008 12:33]

Echie wel :)

zelfs op windows 2003 server (met de XP drivers) werkt ie perfect.
Mijn huisservertjes, die in de woonkamer staat om ook muziek en video af te spelen doet dit fluitend op hardware HD encoding.
Maar de driver is wel stukken beter geworden, en lijkt nog steeds beter te worden!
(ps: ik heb maar een passive HD2400 in huis)

[Reactie gewijzigd door badnews.nl op 1 januari 2008 19:49]

Zou iemand me kunnen uitleggen waarom de 8800GT betere beeldkwaliteit geeft dan 8500GT/8600GT? De software hiervoor is identiek lijkt me.
nieuwere chip, dus een nieuwere en beter doorontwikkelde techniek
Zou iemand me kunnen uitleggen waarom de 8800GT betere beeldkwaliteit geeft dan 8500GT/8600GT? De software hiervoor is identiek lijkt me.
Betere RAMDAC? Echt digitaal signaal(ipv DVI-A)...nieuwere technologie?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True