Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 51 reacties
Bron: ATi, submitter: CJ

In een persbericht laat ATi Technologies weten dat het bedrijf een strategische alliantie met DivXNetworks is aangegaan. De Fullstream-technologie van ATi zal op deze manier gecombineerd worden met de compressiemethode die door DivXNetworks wordt toepast. Het doel is om zo de videoprestaties van op de Radeon 9500 en 9700 gebaseerde producten te verhogen en de processorbelasting tijdens het decoderen van DivX-materiaal te verlagen. Op welke manier de veranderingen geďmplementeerd zullen worden is nog niet bekend. Beide bedrijven zijn erg blij met de samenwerking en zien uit naar de komende resultaten:

DivXNetworks"DivXNetworks is a pioneer in enabling the delivery of DVD-quality digital video over the Internet, and we're excited to combine our cutting-edge video graphics card technology with their leading video compression technology," said Rick Bergman, Senior Vice President, Marketing and General Manager, Desktop, ATI Technologies Inc. "The synergy in harnessing the power of hardware and software will create higher visual quality, significantly faster playback time and a truly amazing digital video experience for consumers."

"As a recognized leader in the video graphics industry, ATI represents a valuable strategic development partner for DivXNetworks," said Jordan Greenhall, co-founder and CEO of DivXNetworks (www.divxnetworks.com). "By uniting the power of DivX with ATI's innovative advanced graphics technology, we can take the PC video experience to an entirely new level, significantly improving playback performance and visual quality."
Moderatie-faq Wijzig weergave

Reacties (51)

opzich kan je processor het makkelijk aan, zeker als je z'n video kaart hebt.
als je een p233 ofzo hebt zal die het een stuk zwaarder hebben, maar dan heb je meestal een 8mb videokaart ... en tja die kan ook niet zoveel compenseren.

tip: als ze xvid er ook bij nemen hebbn ze de 2 groten codecs.
Pentium I mainboards hebben ook geen agp dus het heeft zowieso weinig zin om zo'n videokaart daarin te willen stoppen ;)
Pentium I mainboards hebben ook geen agp dus het heeft zowieso weinig zin om zo'n videokaart daarin te willen stoppen
Socket 7 bordjes hebben wel degelijk AGP. Ik heb er zelf nog eentje in gebruik voor mijn server (met AMD K6-2 500Mhz welleswaar, maar toch). Verder heb ik er wel meerdere gehad. Het is maar AGP 1x vaak, maar toch ;)
Hier staat er bijvoorbeeld eentje: http://tw.giga-byte.com/products/ga5ax4.htm
Dan heeft het juist zin om zo'n kaartje erin te stoppen. De gecomprimeerde video data is een stuk kleiner dan de ongecomprimeerde. Zo'n kaartje geeft dus een flinke vermindering van de hoeveelheid data die over de bus gestuurt moet worden.
En misschien brengen ze wel een PCI versie uit, doet Matrox ook nog steeds...
Dan kan je toch net zo goed van het geld dat je zo'n dure Radeon koopt, een nieuwe computer kopen, heb je 'm ook ontlast ;)
Volgens mij is het idee hiervan ook niet zozeer dat je met je radeon 9700 een trage PC kunt ontlasten met decoderen, maar meer dat het kijken van film op je PC zo weinig CPU belasting geeft dat deze vrij is voor andere taken (zoals het zonder stotteren functioneren als opnamesysteem voor de film die je binnenkrijgt, zie het artikeltje over WindowsXP Media Edition van gister. Hierin had een P4 2.5 Ghz af en toe nog problemen, zelfs met een hardware MPG2 encoder).

Het kijken, coderen en misschien zelfs rippen van een hoog kwaliteit DivX film met zeer lage CPU belasting is een mooie stap in deze richting
voor het decoden maakt het niets uit maar het encoden zou wel stukken sneller kunnen als ze divx goed zouden kunnen laten samen werken met je videokaart.
Maar waarom die processor ontlasting dan is? want als je encode zou het juist sneller gaan als je CPU en GPU laat samen werken.
Wel erg jammer dat dit alleen geďmplementeerd gaat worden in de high-end laag van ATI's kaarten.
Zo'n hardwarematige oplossing voor het decoderen van DivX is nou juist zo aantrekkelijk om een wat minder snel systeem toch vloeiend DivX te kunnen laten decoderen.
Ik verwacht echter wel dat, net als bij hardwarematig MPEG2 decoderen, een flinke beeldkwaliteitswinst op zal treden.
Ben ook benieuwd wanneer NVidia hierop zal reageren.
Volgens mij heeft de winst in beeldkwaliteit bij harware decompressie maar 2 mogenlijke oorzaken:
-de processor kan het niet bijbenen (en dan moet je pc wel heel oud zijn)
-er zit een aparte tv uitgang gekoppeld aan die decompressie, want de tv-out van een videokaart blijft bagger vergeleken bij andere videooutput (en ik heb een ati 7500)
Het kan ook een zaak zijn van afrond-fouten
Ik heb onder Linux met Xine eerst de filmpjes afgespeeld met de standaard XFree drivers. Die boden alleen een RGB-interface naar de kaart toe.
Later heb ik dat gedaan met de NVidia-drivers en die biedt ook een YUV-interface aan.
In MPEG wordt beeld opgeslagen in YUV componenten. Wanneer je dat eerst naar RGB moet omzetten met 8-bit precisie per kleur, krijg je afrond fouten.
Als je 't in native-formaat naar de kaart kunt sturen, krijg je te maken met de interne precisie van de GPU, die het dan omzet naar RGB, wat naar de RAMDAC gaat.
Waarschijnlijk is die precisie groter dan 8 bits.
Je zag in elk geval een stuk gladdere overgangen bij die NVidia driver.
Op zich maakt het voor de kwaliteit niet uit of de CPU de YUV blokjes naar RGB omzet, of dat de GPU dat doet.

edit:

Bovendien is YUV->RGB de laatste stap in het decoding-proces, dus het is niet 'eerst' omzetten en dan nog accumulation-of-errors daaroverheen


Het probleem is alleen dat de meeste software decoders geen goede filtering gebruiken (de blokjes worden in 4:1:1 formaat opgeslagen, U en V moeten opgeschaald worden, liefst met een bilinear filter), en daarbij komt dan misschien ook nog het probleem van te weinig precisie (wat een ontwerpkeuze danwel -fout in het algoritme is, en niet inherent aan de CPU zelf)

Hardware is in het algemeen wel goed ontworpen met genoeg precisie en goede filters (de eerste CDi spelers van Philips halen meer kwaliteit uit een VideoCDtje dan de gemiddelde codec op een PC).

Ik moet zeggen dat ik erg te spreken ben over de kwaliteit van de nieuwe Windows Media Player trouwens.
Ik vind de Ati 9500 geen high end kaart.
Deze heb je al voor 160 euro. tuurlijk heb je veel goedkopere kaarten, maar als jij thuis een nog een P2 hebt en je stopt er een 9500 in, kan je toch nog lekker genieten van je divx collectie :)

Tizzz maar waar je je geld aan uit wil geven. :)
Los van vinden, is het ook geen high-end kaart. Deze topregio wordt namelijk bezet door de 9700 PRO. De 9500 PRO wordt ook door ATI zelf gepositioneerd als een kaart voor gamers met een (enigszins) beperkt budget. Daar kun je natuurlijk een andere mening over hebben (omdat je weinig geld hebt bijvoorbeeld), maar feit is dat die positionering zo wordt ingezet.
DivXNetworks is a pioneer in enabling the delivery of DVD-quality digital video over the Internet
prachtige marketing zin.
Het is waarschijnlijk de enige zin die behalve marketing ook nog een feit is dus ik snap niet wat je bedoelt?

Ik vind het een rare manier van ondersteuning, welke divx versie ondersteunen ze nou?

Er zijn veel verschillende divx versies, vooral de wat oudere films gebruiken divx 3.11, wordt die ook ondersteund?
Nee uiteraard niet aangezien dat een illegale codec is en ik denk niet dat ati zich daarmee wil identificeren.
Voor zover ik weet zijn 4 en 5 legaal.
Je kan het ook voor streaming gebruiken!
Divxnetwork heeft het concept van de illegale codec, de 3.11 versie, gejat. Ze hebben er gewoon legale business van gemaakt.
DivXNetworks is a pioneer
In legale zin ja...
Maar klinkt als een vloek in de oren van de film-maatschappijen!
Het doel is om zo de videoprestaties van op de Radeon 9500 en 9700 gebaseerde producten te verhogen en de processorbelasting tijdens het decoderen van DivX-materiaal te verlagen.
Net alsof je zo'n videokaart in een < 500MHz systeempje prikt :+
Nee nu kan je je volgende DVD op topsnelheid blijven rippen zonder tijdverlies terwijl je een filmpje kijkt ;)
't is alleen een decoder die ze willen incorporaten in de VPU's. Maar dan nog, op me P4 2.5/9700P combo:1st pass 30fps en second:48fps (divx5).
Precies,

Je kijkt een filmpje zodat je 100% processor belasting overhebt om te kunnen rippen :)
pci-versie op een via epia...
En ik denk dat er een kleine kans in zit dat de 9000-serie dit ook (gedeeltelijk) zal kunnen, aangezien die ook het Fullstream-gedeelte van de R300-core in zich heeft zitten. Dus video deblocking en noise cancellation zou hier ook op mogelijk moeten zijn. En videodeblocking is toch wel een van de meest interessante features (geen blokkerige artifacts meer en daardoor dus scherper beeld).

De huidige hardware van de 9500 en 9700-serie is prima in staat om de optimalisaties uit te voeren aangezien die Videoshaders (video via de pixelpipeline) en Fullstream ondersteunt.

De manier van implementeren wordt trouwens waarschijnlijk een van deze twee:
- integratie in de Catalyst-drivers
- integratie in een update van de DivX-codec
Wat WC-Eend hier boven al aangeeft, het optimaliseren moet in de drivers gebeuren. Hetzij via de drivers van ATI(catalyst heten die dingen?) of inderdaad via een DivX codec 'upgrade'.

Ze kunnen nu niet ineens hardware matige DivX (de)compressie invoeren om de dood eenvoudige reden dat de R300 chip dit niet kan. Wie weet komt er in de volgende generatie wel een hardware matige DivX (de)compressie. Dit houd dan uiteraard wel een nieuwe videokaart in.

Opzich is het dus wel veel belovend alleen denk ik in een volgende videokaart. Door alleen driver optimalisatie verwacht ik niet zo'n hele grote snelheids winst. Dit ruikt naar mijn inziens naar 'slimme' marketing. Ati ziet ook wel dat DivX steeds populairder word en veel mensen krijgen dan het idee dat Ati dan de beste drivers heeft voor DivX.

De tijd zal het leren.

My ¤ 0,02

Edit: Toetsenbord heeft moeite met hoofdletters :)
Heeft nou niemand (behalve WC-Eend) opgelet bij al die Radeon 9xxx reviews?

Fullstream is niet bedoeld om je CPU te ontlasten bij het decoden, maar om een videostream met een veel te hoge compressie op te kalefateren. Dus videodeblocking en noice cancellation.

En aangezien dat via die pixelshaders gaat is dat dus iets wat ze wel degelijk later in de drivers kunnen inbouwen. Dat is dus niet iets wat in de hardware van de R300 core ingebouwd moet worden.

Het is dus niet alleen maar marketing.
Hardware-decoding is helemaal niet zo specifiek over het algemeen.
In het geval van ATi heeft de kaart hardwarematige iDCT en YUV->RGB ondersteuning (GF4MX(!) heeft dit ook, als ik het goed heb).

Dit zijn redelijke standaard-operaties in lossy-compressie-land.
JPG gebruikt het, MPG gebruikt het, DivX gebruikt het, en waarschijnlijk zijn er ook wel varianten van WMV, QuickTime en RealVideo die het gebruiken.

Waar het op neerkomt is gewoon dat bepaalde stukken van de DivX codec vervangen worden door calls naar de ATi driver, om bepaalde operaties te doen.
Het is dus niet zo dat je gewoon een kant-en-klaar DivX-filmpje in je kaart gaat pompen.
Ok, dus in zo'n geval kun je spreken van gedeeltelijke DivX ondersteuning? Maar als jij zegt dat mpeg, quicktime en nog een paar dit hebben, zijn daar geen vaste calls voor dan?

Het zou makkelijker zijn als software en hardware land zich wat meer aan standaards gaan houden :)

The world would be a better place :P
YUV->RGB is standaard ja. Dat kun je doen dmv een overlay met DirectDraw. Werkt op bijna alle kaarten tegenwoordig.
iDCT is nog nieuw, volgens mij is daar geen mooie standaard-manier voor. Maar ik neem aan dat ATi al wel een call voor heeft in de driver, aangezien hun kaart het ondersteunt (beetje nutteloos om functies in hardware te bouwen, en die niet aan de programmeurs bloot te stellen).

En ja, DivX zijn een beetje amateurs he... Die moeten aan het handje van ATi geleid worden.
Ik weet bijna zeker dat er al genoeg professionele codecs zijn met support.

edit:

'gedeeltelijke' support voor DivX zou ik het niet willen noemen. Het is meer "support voor standaard-technieken die oa. door DivX gebruikt worden".
Ik zie zoiets wel zitten hoor.
Dat ze een hardwarematig filteralgoritme erover heen gooien die alles naar 64bits kleuren omrekend zodat de kleuren vloeiender overlopen en je minder gauw die blokjes ziet. Als er iets wel geschikt voor zo'n klus is, is het wel een GPU. :)
Dan zit je al heel snel te denken aan het reencoden van het filmpje. Denk niet dat dat de bedoeling is.

Het omzetten van 32 bits kleuren naar 64 bits is volgens mij onzin. Hoe weet een computer nou dat een tint rood eigenlijk iets roder moet zijn? Wat er niet inzit kun je er ook niet uithalen.

Blokjes worden over het algemeen veroorzaakt door een te lage bitrate. Hoe lager de bitrate hoe meer blokjes. Als je daarna een lage bitrate video naar een hogere bitrate gaat encoden blijf je de blokjes zien(die zaten in het origineel met lage bitrate). Het enige wat er verandert is de file grote en dat is nu net niet wat je wilt.
Ik denk dat Wouter bedoelt dat als er bijvoorbeeld blokjes zijn, met 32 bits kleur, daarvan 4 blokjes 64 bits gemaakt kunnen worden.
Een blok wit naast een blok zwart wordt zo dus
Wit, lichtgrijs, donkergrijs, zwart
Geen idee of dat is hoe het werkt, maar zo interpreteer ik wouter.
Voor zo'n maatregel hoeft er helemaal niet opnieuw gecodeerd worden, dit kan in de GPU gebeuren aan de hand van een aantal instructies.
Volgens mij werkt het zo.

Men nemen vier pixels.. Eigenlijk is dit een gradient, een overloop in kleur. Deze loopt van wit naar zwart. Als de compressie hoog is kan het zijn dat deze overgang 'hard' word. Dus ipv wit, grijs, donkergrijs, zwart word het wit donkergrijs zwart of harder. Als dit er eenmal inzit kun je dat niet meer terug halen omdat de computer niet weet dat het een gradient is. Daarom denk ik dat het omzetten naar 64 bits nutteloos is. Idee is mooi maar omdat je te maken hebt met niet-loseless(weet niet hoe het wel heet) compressie zijn die gegevens weg.
64 bit heb je niets aan, RAMDAC kan maximaal 2:10:10:10 bits aan.
Maar dat is al goed genoeg voor het menselijk oog.
Verder hebben de meeste kaarten al jaren een bilinear filter (3d kaarten gebruiken het ook voor texturemapping). En dat filter laat dus de blokjes mooier overlopen.
Bij YUV moet alleen dat bilinear filteren al in de YUV-blokjes gedaan worden, en dit doen de meeste codecs om de een of andere reden nog niet.
Daarom zie je dat rood en blauw gauw blokkerig wordt, ook al schaal je het hele (RG B-)beeld op met een bilinear filter.
Hardware doet dit al wel, al jaren.
Als ze nou ook iets verzinnen om te coderen, zou het wel helemaal tof zijn.
Realtime encoding van een Divx film, :)
idd, dan heb je er nog eens wat aan. realtime op volle kwaliteit encoden heb je een vette processor voor nodig.
decoden kan al prima met een p3 500+ dus daar heb je niks aan.
Er zijn hardware-encoders te koop (Matrox bijvoorbeeld). Niet goedkoop, wel snel.
En ik dacht dat de GF4MX(!) ook forward DCT acceleratie had. Dat kun je gebruiken om videocompressie hardwarematig te versnellen.
Misschien dat dit in de toekomst standaard wordt op videokaarten. YUV->RGB is nu ook al standaard, en iDCT zie je ook steeds vaker.
Wow, dat gaat echt ontzettend cool worden als ATI een soort-van Hardware decoder gaat ontwikkelen of een programma die bestaande hardwarecalls gaat gebruiken voor het decoderen...zie hier mooie toekomst in...Als ze dan ook iets gaan verzinnen voor het coderen dan zou het helemaal mooi worden. ATI heeft weer een extra troef in handen t.o.v. Nvidia...Dit word echt een spannend jaar!!!
Ik heb zelf een 9700 (Pro), maar voordat ik 'm kocht heb ik me uiteraard blind gestaard aan de features.
Alleen de Fullstream-technologie was mij nooit duidelijk.

Het zou de kwaliteit van videoplayback verbeteren, maar bij welke formaten e.d. dat mogelijk is, is mij nooit duidelijk geweest.
Om eerlijk te zijn heb ik nog niet vergeleken, maar het leek me meer een marketing stunt, een zoveelste feature op de lijst.
Maar met dit nieuwsbericht is daar zéker verandering in gekomen.
ik heb net de 9500 Pro gekocht, en een maat van mij de hercules 9700 pro, en het stond best duidelijk op beide dozen. Wat het doet, dit moment alleen met real networks stuff (video) is van blokjes mooie smootherer filmpjes maken. Nu gaan ze dat dus ook met divx doen en meer.
ik dacht dat real networks ergens een extra plugin had om dit te enablen maar meer weet ik ook niet meer
Ik heb nog een pII 300 (256Mb mem) met een van de eerste ATI-All-In-1-Wonder kaartjes. Deze speelt moeiteloos alle divx' en xvids !
Een vriend van me heeft een Celeron 400 met evenveel geheugen en een Riva TNT, en hij kan geen zware divx of xvid afspelen zonder schokken !

Kan dat mijn ATI kaartje zijn ? Misschien ondersteund ie hardware-matig enkele basis mpeg algorithmes :?
Het zou best kunnen dat die TNT nog geen YUV->RGB ondersteunde.
Matrox was daar het eerste mee (zat al op de Mystique, naja, YUY2 dan, goed genoeg). ATi zal er ook wel snel bij geweest zijn.
NVidia is altijd heel laat met het implementeren van technieken.
En dat scheelt een hoop. Dankzij m'n Matrox Mystique kon ik jaren geleden al fullscreen 1024x768 VideoCDs kijken met een goede framerate. Zag er nog mooi uit ook, want hij had een bilinear filter voor het uitvergroten. En door de YUY2-acceleratie kostte het een stuk minder CPU-kract.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True