Consortium brengt HEVC-opvolger H.266 uit en in herfst komen software-encoders

Een consortium van meerdere bedrijven, organisaties en een aantal grote namen uit de techsector heeft H.266 of Versatile Video Coding officieel uitgebracht. Deze videocodec is de opvolger van H.265 of HEVC. Fraunhofer HHI komt in de herfst met de eerste software-encoders.

Het in Berlijn gevestigde Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, kortweg Fraunhofer HHI, zegt dat het samen met partners officieel de nieuwe standaard H.266 of VVC heeft uitgebracht en dat het gezien moet worden als opvolger van H.265, ook wel bekend onder de naam High Efficiency Video Coding. Het instituut zegt dat de nieuwe codec in vergelijking met HEVC een stuk efficiënter is op het vlak van het compressiealgoritme.

Fraunhofer HHI geeft daar een voorbeeld van. Zonder veel nadere details te geven, beschrijft het instituut dat een 90 minuten durende uhd-video in het geval van H.265 10GB aan data zou opleveren, maar dat dat bij H.266 en dezelfde kwaliteit uitkomt op 5GB. De codec zou vooral erg effectief zijn bij videomateriaal met een hoge resolutie, waarbij het instituut specifiek het streamen van 4k- en 8k-video's noemt. Ook high dynamic range en 360-graden-video's worden ondersteund.

VVC h.266

Het Berlijnse instituut was ook al betrokken bij de ontwikkeling van de voorgangers, H.264 en H.265. Net als bij die codecs zal ook het nieuwe H.266 gepaard gaan met licentiekosten, bijvoorbeeld op het moment dat bedrijven ondersteuning voor de codec in hun hardware willen inbouwen. Fraunhofer HHI spreekt van een uniform en transparant licentiemodel, waarbij het Frand-principe zal worden geëerbiedigd. Dat staat voor fair, reasonable and non-discriminatory. Het betekent dat een octrooihouder aangeeft dat hij bereid is de octrooien waarvan de technologie in een standaard terechtkomt, beschikbaar te stellen aan geïnteresseerden, door onder redelijke voorwaarden een licentie voor het gebruik van de octrooien te verstrekken.

Nieuwe chips die video's aan de hand van H.266 kunnen coderen, worden volgens Fraunhofer HHI momenteel al ontworpen en de eerste software-encoders, die waarschijnlijk zullen worden aangeduid met X.266, volgen in de herfst. Hoe dominant of populair deze hardware- en softwarematige implementaties gaan worden, zal onder meer afhangen van de licentiekosten die ermee gepaard gaan en de transparantie die daarbij betracht wordt. Dat was en is een belangrijke kritiek op HEVC; het is aan de dure kant en het was lang niet altijd duidelijk aan wie je nou precies moest betalen, mede door de verschillende IP-eigenaren en de verschillende licentiegroepen die er zijn. Om dat licentieproces te vereenvoudigen, is het Media Coding Industry Forum in het leven geroepen, waar meer dan dertig organisaties en bedrijven in zitten.

Het succes van H.266 zal ook deels afhangen van de prestaties en populariteit van de alternatieven. Google heeft de compressiestandaard vp9 ontwikkeld en past deze toe bij YouTube, al maakt Netflix er ook gebruik van voor het streamen naar mobiele gebruikers. Deze codec van Google is in feite de tegenhanger van H.265, maar er staat ook een nieuwe, efficiëntere codec voor de deur: av1. Deze standaard is ontwikkeld door de Alliance for Open Media. Zowel Google als Apple maakt daarvan deel uit, naast veel andere grote namen, zoals Netflix, LG, Microsoft en Samsung. Waarschijnlijk zal H.266 wat beter presteren dan av1, maar laatstgenoemde heeft onder meer het voordeel dat de techniek onder een opensourcelicentie is vrijgegeven en daarmee gebruikt kan worden zonder dat royalty's betaald hoeven worden.

Het consortium achter H.266 bestaat uit Fraunhofer HHI, de Video Coding Experts Group, de ISO/IEC Moving Picture Experts Group (MPEG) en verschillende grote namen uit te technologiesector. Daarbij gaat het bijvoorbeeld om Apple, Ericsson, Intel, Huawei, Microsoft, Qualcomm en Sony.

Door Joris Jansen

Redacteur

06-07-2020 • 17:29

126

Submitter: Dubbeldrank

Reacties (126)

126
119
82
12
2
21
Wijzig sortering
90% van alle video's zijn toch nog steeds 'gewoon' h264? Op het web is er vrijwel geen ondersteuning voor h265 streaming.

Edit: ik bedoel, super fijn dat er nu weer een efficiëntere opvolger is, maar de mogelijkheid om h265 breed in te zetten in live streaming is er nog niet eens: https://caniuse.com/#feat=hevc. Terwijl je daar juist die extra efficiëntie wilt gebruiken. Nu is er alweer een nieuwe.

[Reactie gewijzigd door Tralapo op 23 juli 2024 07:20]

Als je YouTube kijkt met een moderne browser en GPU, is grote kans dat je Google's VP9 of AV1 codec gebruikt. Beide codecs zijn stuk moderner dan h264 en zouden vergelijkbare compressie verhoudingen als h265 moeten hebben. Bovenal ze zijn open en/of gratis.

h265 adoptie wordt in dat opzicht tegengehouden door het licentie model. Ik geloof enkel dat Apple nog ingebouwde support heeft voor h265 content. Microsoft is gestopt. De rest heeft het officieel nooit gehad, hoewel je het in andere browsers kan krijgen als je zelf even de browser compiled geloof ik..

Ik ben benieuwd hoeveel anders dat gaat zijn bij h266.

[Reactie gewijzigd door Hans1990 op 23 juli 2024 07:20]

De huidige licentie van H.265/HEVC is niet ideaal. Zeker als je wist hoe de oude H.264 model was. Ik weet niet of H.266 nou een verbetering is met licenties, omdat open source implementaties lastig worden.

H.264:
In countries where patents on software algorithms are upheld, vendors and commercial users of products that use H.264/AVC are expected to pay patent licensing royalties for the patented technology that their products use.[70] This applies to the Baseline Profile as well.[71]

A private organization known as MPEG LA, which is not affiliated in any way with the MPEG standardization organization, administers the licenses for patents applying to this standard, as well as other patent pools, such as for MPEG-4 Part 2 Video, HEVC and MPEG-DASH. The patent holders include Fujitsu, Panasonic, Sony, Mitsubishi, Apple, Columbia University, KAIST, Dolby, Google, JVC Kenwood, LG Electronics, Microsoft, NTT Docomo, Philips, Samsung, Sharp, Toshiba and ZTE,[72] although the majority of patents in the pool are held by Panasonic (1,197 patents), Godo Kaisha IP Bridge (1,130 patents) and LG Electronics (990 patents).[73]

On August 26, 2010, MPEG LA announced that royalties won't be charged for H.264 encoded Internet video that is free to end users.[74] All other royalties remain in place, such as royalties for products that decode and encode H.264 video as well as to operators of free television and subscription channels.[75] The license terms are updated in 5-year blocks.[76]

Since the first version of the standard was completed in May 2003 (17 years ago) and the most commonly used profile (the High profile) was completed in June 2004 (16 years ago), a substantial number of the patents that originally applied to the standard have been expiring,[77] although one of the US patents in the MPEG LA H.264 pool lasts at least until 2027.[78]

In 2005, Qualcomm sued Broadcom in US District Court, alleging that Broadcom infringed on two of its patents by making products that were compliant with the H.264 video compression standard.[79] In 2007, the District Court found that the patents were unenforceable because Qualcomm had failed to disclose them to the JVT prior to the release of the H.264 standard in May 2003.[79] In December 2008, the US Court of Appeals for the Federal Circuit affirmed the District Court's order that the patents be unenforceable but remanded to the District Court with instructions to limit the scope of unenforceability to H.264 compliant products.[79]

https://en.m.wikipedia.org/wiki/Advanced_Video_Coding

H.265/HEVC:
As with its predecessor AVC, software distributors that implement HEVC in products must pay a price per distributed copy.† While this licensing model is unproblematic for paid software, it is an obstacle to most free and open-source software, which is meant to be freely distributable. In the opinion of MulticoreWare, the developer of x265, enabling royalty-free software encoders and decoders is in the interest of accelerating HEVC adoption.[179][183][184] HEVC Advance made an exception that specifically waives the royalties on software-only implementations (both decoders and encoders) when not bundled with hardware.[185] However, the exempted software is not free from the licensing obligations of other patent holders (e.g. members of the MPEG LA pool).

While the obstacle to free software is no concern in for example TV broadcast networks, this problem, combined with the prospect of future collective lock-in to the format, makes several organizations like Mozilla (see OpenH264) and the Free Software Foundation Europe[186] wary of royalty-bearing formats for internet use. Competing formats intended for internet use (VP9 and the upcoming AV1) are intended to steer clear of these concerns by being royalty free (provided there are no third-party claims of patent rights).

^† : Regardless of how the software is licensed from the software authors (see software licensing), if what it does is patented, its use remains bound by the patent holders' rights unless the use of the patents has been authorized by a license.

https://en.m.wikipedia.org/wiki/High_Efficiency_Video_Coding

H.266/VCC:
Reasonable and non-discriminatory (RAND) terms, also known as fair, reasonable, and non-discriminatory (FRAND) terms, denote a voluntary licensing commitment that standards organizations often request from the owner of an intellectual property right (usually a patent) that is, or may become, essential to practice a technical standard.[1] Put differently, a F/RAND commitment is a voluntary agreement between the standard-setting organization and the holder of standard-essential patents. U.S. courts, as well as courts in other jurisdictions, have found that, in appropriate circumstances, the implementer of a standard—that is, a firm or entity that uses a standard to render a service or manufacture a product—is an intended third-party beneficiary of the FRAND agreement, and, as such, is entitled to certain rights conferred by that agreement.[2]

https://en.m.wikipedia.or...-discriminatory_licensing

[Reactie gewijzigd door Xieoxer op 23 juli 2024 07:20]

Maar Microsoft staat je wel toe om h265 / hevc codecs uit de store te downloaden gelukkig.
Voor de mensen die dit willen, in de link hieronder staat hoe je ze gratis kan krijgen uit de MS store (kost normaal geld) :

https://mspoweruser.com/h...microsoft-store-for-free/
Ik had toevallig net vorige week HEVC van Microsoft geïnstalleerd vanuit de MS Store. Dit brak bij mij de volledige video functionaliteit in Edge Chromium. HEVC weer verwijderd, herstart van de browser en gelukkig deed alles het weer direct.

Jij zegt 'gelukkig', jij hebt het aan de praat gekregen? Zo ja, kun je me vertellen hoe?
Ik gebruik zelf geen Edge, had em voor de tv en movies app gedownload en daar werkte het prima mee.
Op de nieuwste Chromecast (niet de Ultra, maar de normale) werkt YouTube nog altijd met AVC (H.264)
Dat is logisch, die heeft geen hardwarematige decoder voor VP9. De Ultra wel. De CPU van de chromecast is bij lange na niet snel genoeg om dat te compenseren.
Blijft wachten op een update van de productlijn hiervoor.
Ah dat wist ik niet, best stom voor een apparaat uit 2018. Maar goed, de Chromecast is ook maar 40 euro, dus het zal kostentechnisch wel niet uit gekund hebben.
Behalve dat de Chromecast Ultra niet in staat is om .mkv's met hevc af te spelen. Door deze beperking heb ik 'm linea recta teruggestuurd.
Als ik me niet vergis heeft Fraunhofer HHI in hun artikel aangegeven dat ze bij h.266 een ander licensiemodel zullen gebruiken dan bij h.265. Hopelijk gaat dit in de praktijk ook echt wat opleveren. Bij h.265 was het namelijk echt een drama
"Hopelijk gaat dit in de praktijk ook echt wat opleveren." Dat denkt Fraunhofer ook, maar waarschijnlijk met een andere insteek. Dat ze nu de licenties aanpassen houdt waarschijnlijk in dat de met de vorige methode niet genoeg binnen geharkt hebben, of dat het verkeerd verdeelt is of zo iets.

Het grootste probleem met dit soort licenties is dat ze in de regel te duur zijn. Maar aan de andere kant leveren ze te weinig op.
Het grootste probleem met dit soort licenties is dat ze in de regel te duur zijn.
Zo simpel kan je dat niet stellen. Die van MPEG-LA (mp4) waren altijd discriminerend.. HEVC avance (waar Fraunhofer in zit) heeft hetzelfde idiote schema; maar andere 'grenzen'.

Hoeveel kost het?( bron) --> Voor MPEG LA, voor HEVC Avance komt erbovenop
  • Licenties kosten $0,20 / stuk.
  • De eerste 100 000 licenties die je verstrekt aan je gebruiker zijn gratis.
  • Er is een maximum prijs van laat zeggen $ 25 miljoen.
Waar leidde dit in de praktijk toe?
  • Voor een startup / beginnend of klein bedrijfje betaalde men niets.
  • Een groot bedrijf betaalde het maximum; dat wil zeggen dat Microsoft 25 miljoen betaalde voor bijv. 500 miljoen licenties voor Windows: 5 cent per stuk.
  • Een middelgroot bedrijf, bijv Mozilla (voor Firefox) betaalde de hoofdprijs ($0,20 / stuk): Ze namen te weinig licenties af om de maximum prijs te kunnen betalen.
De middelgrote bedrijven werden dus extreem genaaid, de grote bedrijven hadden er profijt van en de kleine bedrijven werden 'verslaafd' en daarna afhankelijk gemaakt aan dit goedkope spul. Maar groter groeien om de grote bedrijven te bedreigen konden ze dan vervolgens niet.

Is dat "Fair"? Nee.
Is dat Reasonable? Alleen als je een groot bedrijf bent en geen concurrentie wil.
Is dat "Niet discriminerend"? Nee; middelgrote bedrijven worden gediscrimineerd.
Is dat dan FRAND?

Nee natuurlijk niet. Maar ja, hoe konden we anders verwachten van een industrie-conglomeraat waar veroordeeld monopolisten Microsoft, Qualcomm, Intel, Philips en Apple in samenwerken; die bedrijven leven van hun klanten te naaien.

Zijn er dan middelgrote bedrijven geneigd, ooit nog iets van MPEG-LA / Fraunhofer met een tak van 800km lang aan te raken; als er AV1 is?

Nee natuuriljk niet!

[Reactie gewijzigd door kidde op 23 juli 2024 07:20]

In deze licenties heb ik mij niet zo verdiept. Wat ik mij uit de mpeg (1 en 2) tijd herinner, is dat er op een aantal punten een licentie nodig was: voor encoderen en voor het decoderen en dan zowel voor de hardware als voor de software of zo iets. Uiteindelijk zou de gemiddelde West-Europeaan 3 à 4 keer zoveel licenties hebben betaald dan dat ze hoeven te hebben. Veel licenties zitten bij de prijs van de hardware of software in. Ondertussen is veel apparatuur vervangen en voor de nieuwe hardware opnieuw een licentie betaald. De heel grote leveranciers krijgen de nodige korting.

Als ik mpeg hardware decoding wil hebben op de RaspberryPi betaal ik daar ruim €2,- voor. (http://codecs.raspberrypi.org/license-keys/)
Het licentiemodel bracht juist ontzettend veel geld in het laatje. De stap van H263 naar H264 was enorm. H264 was, en is daarom nog steeds een veelgebruikte standaard. Maar ondertussen is er concurrentie dat zich op z'n minst kan beter is dan H264 en in veel gevallen ook van H265.
Als je dan ook nog kwa licentie model niet meer kan meedoen heb je jezelf uit de markt geprezen. Zelfs met een nieuw licentiemodel en goede prestaties denk ik dat ze de boot hebben gemist.
Ondertussen dendert AV1 door. Volgende maand support voor AVIF in Chrome.
Netflix streamt anders gewoon in HEVC waar mogelijk.

Google pusht hun eigen codec, dus hun diensten zoals YouTube boycotten HEVC actief.

Apple zit in dit consortium en gaat zelfs met Macs over naar hun eigen chips. VCC zal ongetwijfeld gauw native hardware support krijgen met de A14 of A15, dat kan het oppakken van deze codec al versnellen t.o.v. HEVC.

[Reactie gewijzigd door Blizz op 23 juli 2024 07:20]

Netflix is juist een van de grote drijvende krachten achter AV1. En gebruikt veel vp9. Hoe kom je er bij dat ze nog veel hevc gebruiken?

Voorbeeldje van Tweakers zelf:
nieuws: Netflix gebruikt av1-codec voor streamen aantal titels in mobiele And...
In dat artikel staat dat AV1 begin dit jaar voor 'een aantal titels' werd ingezet in alleen de Android-app. Drijvende kracht absoluut, maar blijkbaar nog niet meer dan dat.

Na het lezen van deze bron had ik het mis. Ik dacht dat ze HEVC veel gebruiken, maar ik denk dat ik te veel van gebruikers heb gelezen dat eigenlijk alleen over tv's klopt. HEVC wordt bij Netflix alleen gebruikt voor 4k (HDR) op tv, dus smart tv's met hardware support voor HEVC-decoding. AVC/VP9 worden gebruikt voor de computer en VP9/nu dus bij beperkte tests AV1 voor low data mobiele verbindingen.
Netflix gebruikt HEVC alleen in oude EDGE (vanwege Playready DRM) en niet in Edge Chromium voor zover ik weet. Daarom is in Edge Chromium ook geen 1080P en hoger (tot 4K) mogelijk.
Vandaar dat een hoop mensen of de Netflix UWP app gebruiken op Windows 10, of hun Chrome modden zodat hij toch 1080P weergeeft, maar geen 4K en/of HDR.
Interessant! Ik heb dit ook net bij een andere reactie gepost:

Na het lezen van deze bron had ik het mis. Ik dacht dat ze HEVC veel gebruiken, maar ik denk dat ik te veel van gebruikers heb gelezen dat eigenlijk alleen over tv's klopt. HEVC wordt bij Netflix alleen gebruikt voor 4k (HDR) op tv, dus smart tv's met hardware support voor HEVC-decoding. AVC/VP9 worden gebruikt voor de computer en VP9/nu dus bij beperkte tests AV1 voor low data mobiele verbindingen.
VP9 werd tot tvOS 14 (iOS 14) niet eens gesupport en daarom werkte Apple nog met HEVC.

https://www.onemorething....google&utm_medium=organic

Dat gaat over Youtube. Hoe het zit met Apple TV+ en Netflix op Apple producten durf ik niet te zeggen.
Ik vraag me af of Apple snel op de H.266-trein springt. H.264 was een revolutie in de tijd dat het kwam. Er waren veel verschillende codecs in die tijd die het allemaal net niet waren: MPEG-2 op de DVD, MPEG-4/H.263, RealVideo, AVI (deels gebaseerd op H.263), Windows Video en nog vele andere. H.264 was op veel fronten beter dan alle andere codecs en veel partijen waren er enthousiast over. Een industrie-standaard was daarmee snel geboren. Door de standaard te updaten is het tot op de dag van vandaag goed bruikbaar voor de meeste video’s.

Omdat ook de techniek wel wat vooruit ging en we toch wel betere support willen voor HDR en 4K/60fps op een lagere bitrate zag H.265 het levenslicht. Door de eerder al genoemde lastige licentie-kwesties rondom MPEG-standaarden en doordat H.265 voor 90% van de toepassingen nog voldoet is de noodzaak voor H.265 er nog steeds niet echt. Daarnaast zijn er nu betere alternatieven dan in de tijd van H.265.

H.266 is nog geen gigantische stap vooruit. Minder bandbreedte is leuk, maar een codec moet wel hanteerbaar blijven. Een software-encoder kan H.264/1080p makkelijk real-time encoden op de meeste hardware. Zelfs met H.265 lukt dat ook wel tegenwoordig, maar met H.266 lukt dat voorlopig nog niet. Ook specifieke hardware zal flink krachtiger moeten zijn. Decoden gaat nog wel, maar het is het coderen van de video dat met zulke enorme compressie wel heel erg lastig wordt. Dit probleem doet zich ook voor bij AV1 en dat is één van de redenen dat de adoptie nog altijd vrij laag ligt. Daarnaast zijn deze codecs ook alleen echt van meerwaarde op 4K+-resolutie. Op lagere resoluties is de winst in kB/s procentueel gezien veel kleiner, maar zit je wel met een veelvoud van de coderingstijd. En tijd = geld.

Edit: spelling

[Reactie gewijzigd door Gustaaf437 op 23 juli 2024 07:20]

Het lijkt me wel aannemelijk, zeker aangezien ze in dat consortium zitten en dus patenten bezitten op de technologieën van dat consortium. A14 is misschien nog te vroeg, maar minimaal software support voor decodering zal niet bijzonder lang op zich laten wachten denk ik. Met HEVC liepen ze ook al voor op de rest.

Ik denk verder dat je helemaal gelijk hebt over het coderen, maar zeker voor streamleveranciers is dat een eenmalige investering per beeldmateriaal die zich daarna gauw terug kan verdienen over bespaarde bandbreedte naar ondersteunde apparaten. In de praktijk blijkt een Netflix zich dus blijkbaar alleen op smart tv's met 4k/4k HDR te richten met HEVC, ook omdat ze niet licentiekosten willen betalen voor lagere resoluties en er inderdaad meerdere alternatieven zijn.
Apple bezit een paar patenten, waarschijnlijk niet meer dan enkele tientallen als ze dat al halen. De hele patentpool bestaat uit duizenden patenten, dus voor die paar patenten die Apple inbrengt mogen ze de hele pool waarschijnlijk niet gratis gebruiken. Daarnaast betaald Apple al voor H.264 en H.265. Het lijkt me niet dat ze nu ook nog voor een derde codec willen gaan betalen, terwijl ze de vorige versie pas net als hoofdcodec hebben ingezet. Apple gebruikt H.265 al inderdaad een jaar of 5 voor FaceTime, maar het wordt nu pas grootschaliger ingezet. H.264 had meer dan 10 jaar het alleenrecht op Apple’s platform. Het lijkt me niet dat ze nu alweer overstappen.
In de recente OS beta's van ios, Ipados en MAcos zit de support voor AV1 en vp9
heb de beta op mijn ipad staan en nu kan ik youtube eindelijk in 4k kijken.

Dus het kan zijn dat apple de AV1 en vp9 route gaat.
maar daar ben ik niet zeker van.
ben gewoon blij dat de youtube app en safari eindelijk de nieuwe codecs supporten
Support voor VP9 is voor zover ik weet alleen aanwezig in tvOS. Voor de rest wordt VP9 nog nergens ondersteunt binnen Apple’s ecosysteem. Van av1 zijn nog helemaal geen sporen gevonden.
Er is meer dan video op websites he
Op websites? Ja. In dataverkeer? Nauwelijks :+ (82% van internetverkeer zal video zijn?)
Ja. Dat zeg ik. Er zijn meer plekken om video te consumeren dan via webbrowsers
ah, dan hoorde ik de klemtoon verkeerd :)
De meeste populaire films en series kom ik zowel in x264 als in x265 tegen op bepaalde sites. :p

Gek genoeg duurt het vaak een paar uur tot een paar dagen langer voordat een x265 versie te vinden is.
Je bedoelt H.264 en H.265. x264 en x265 zijn encoders.

[Reactie gewijzigd door Bergen op 23 juli 2024 07:20]

Waarschijnlijk omdat het encoden langer duurt?
De grote jongens in de computerwereld, Google, Microsoft, Apple en ook partijen als Mozilla zijn gepatenteerde codecs zat en proberen het web open houden. Tegelijkertijd is een codec die de MPEG uitbrengt keer op keer véél beter dan het al het andere wat op dat moment beschikbaar is. De filmindustrie, televise-wereld, elektronica-industrie hebben niet zoveel moeite met codecs waar voor betaald moeten worden, die Frand-voorwaarden vinden ze prima. Als jij een televisiezender bent die op een satelliet capaciteit moet huren, dan maken de lagere satellietkosten (betaal je continue) dat je per direct de lage kosten van de codec (betaal je eenmalig) hebt terugverdiend.

H.265 maakt onderdeel uit van de DVB-standaard: Als jij in UltraHD op satelliet, kabel of ether wilt uitzenden, dan is gebruik van H.265 verplicht. Ook Digitenne maakt van H.265 gebruik, en ook al is het geen 4K, die H.265 maakt wel zenders in de op Tweakers.net vaak gevraagde 1080p50 mogelijk in de beperkte capaciteit die er in de ether beschikbaar is.
[quote] De grote jongens in de computerwereld, Google, Microsoft, Apple en ook partijen als Mozilla zijn gepatenteerde codecs zat[quote]

In het geval van Apple:

Apple is juist degene die geld gaat vangen van h.266 licenties! Als ze het zat zijn, zouden ze er niet meer aan mee doen lijkt me.
Ik kom juist vrij veel x265 films en series tegen ipv x264.
Wat is nou het verschil tussen de x en H versies?
Wat is nou het verschil tussen de x en H versies?
Als ze het goed genaamd hebben en niet alleen voor de vorm dan is normaal gesproken 'h' met de officiële codec en 'x' met een free/open source variant ervan.
Heu, en die free version is dan een compatible alternatief of is het opensource beschikbaar gesteld door het consortium?
Zit het net ook nog ff na te lezen (misschien nog met divx vs xvid in het achterhoofd eerst). Zo te lezen is h264/avc enkel de standaard die is neergezet en heeft VLC x264 ontwikkeld als encoder op basis van die standaard (regels) https://en.wikipedia.org/...format%22_and_%22codec%22
Maar het is inmiddels als zo oud dat je in het begin bijv. dit van Apple had in Quicktime https://www.apple.com/new...for-Next-Generation-DVDs/ versus dus die x264 dat ik zelf onthouden had dat 'h.264' de officiële codec was en x264 de opensource freeware versie ervan. Maar dat blijkt dus ook niet helemaal te kloppen :+ (al vond ik het wel een makkelijke manier om te onderscheiden: h264 gelicenseerd vs x264 freeware maar dat klopt dus niet 100% zie ook https://en.wikipedia.org/..._Coding#Software_encoders in de basis dus allemaal 'h.264' ook x264. Voor de download scene zou alleen x264 en x265 gebruikt 'mogen' worden en zou je dus ook alleen x264 en x265 versies moeten tegenkomen)

[Reactie gewijzigd door apis29 op 23 juli 2024 07:20]

Mooi om te zien hoe codecs door de jaren heen kunnen zorgen voor kleinere bestanden met behoud van videokwaliteit. Als gebruiker valt het mij wel op dat 265 ook krachtigere hardware eist dan 264. Hoe zit dit met 266?
Behoud van kwaliteit? AFAK is dit nog steeds een lossy compression.. Weg is weg. Je kan het daarna proberen reconstrueren maar het zal nooit zoals het origineel zijn.

Kwaliteit is nu vaak al triest, het zal dus nog slechter worden..
in dit geval: evenveel kwaliteit als H265 met de helft van de bitrate.

dus "even lossy", zelfde verlies maar de helft van diskspace/netwerkbandbreedte nodig.

Lossless codecs is helemaal iets anders.
Je begrijpt toch zelf, hoop ik, dat je nooit dezelfde kwaliteit en details kan houden met plots de helft basis data?
Dat kan prima.
Stel je voor een filmpje van 100 bij 100 pixels, 10 seconde lang, 25 frames per seconde, alleen rood beeld. Dan kun je iedere pixel beschrijven. Pixel 1: rood, Pixel 2: rood, enz, tot pixel 10.000. En dat dan voor ieder frame.
Je kan ook zeggen: Pixel 1 tot Pixel 10.000 zijn rood voor de eerste en de volgende 249 frames.
Zelfde kwaliteit, maar veel minder data.
Je verhaal klopt en neem je bovenstaande uitleg daar komt dan een hoeveelheid data uit. Nu is er een nieuwe compressie die dan ineens 50% minder data geeft maar nog hetzelfde uitspuwt.
De vraag is kan dat ? Of wordt het menselijk oog een beetje voor de gek gehouden maar geeft de h266 uiteindelijk toch mindere kwaliteit bij 50% minder data ?
Of wordt het menselijk oog een beetje voor de gek gehouden maar geeft de h266 uiteindelijk toch mindere kwaliteit bij 50% minder data ?
Exact. Je kan niet rond de beginselen van informatietheorie. Minder data = minder potentiële informatie. Maar de truc is de data die je hebt zo kiezen dat het voor de mens er goed uit ziet. Een heel groot deel van de ontwikkeling van deze algoritmes is gebaseerd in onderzoek rond hoe we bewegende beelden ervaren. Wat valt ons op, wat zien we helemaal niet. Welke data smijten we weg, en welke moeten we zeker intact houden...

Daarbij komt ook nog eens kijken dat er een grote vuistregel is bij compressie: je ruilt bandbreedte voor CPU performance. Hoe beter je wil compressen, hoe meer CPU performance je typisch nodig hebt. Vandaar dat we nu zo ongelooflijk veel beter kunnen met een bepaalde bitrate dan in het DVD tijdperk. een DVD kan 4.7GB bevatten, moet je eens zien hoe slecht dat beeld is. Vergelijk dat met een 1080p HEVC download van rond de 4-5GB. Dat is gewoon een wereld van verschil. Maar we hadden 20 jaar geleden gewoon de performance niet om een formaat als HEVC te decoden, toch niet voor een redelijke prijs. Dus een deel van de vooruitgang in compressie algoritmes kan je ook zien als een uiting van de wet van Moore (in de mate dat die natuurlijk nog relevant is de dag van vandaag).

[Reactie gewijzigd door Niosus op 23 juli 2024 07:20]

Dus als ik een word file inpak in een zip file. Daarna weer uit pak mis ik delen van mijn tekst?
Nee, want zip is lossless compressie. De meeste video- en audiocodecs die gebruikt worden om materiaal aan consumenten te leveren zijn lossy.
Dat klopt, maar hierboven werd gesteld dat het niet mogelijk was om dezelfde kwaliteit en details te hebben met de helft van de opslag.
Dat is ook gewoon onmogelijk.

Het is ook exact om die reden dat NASA alleen gebruik maakt van lossless compressie voor hun images. Elk detail is voor hen uiterst belangrijk en met gelijk welk lossy algoritme raken ze details kwijt.

In dit geval gaat het over 'spelen' met het feit dat het menselijk oog en brein bepaalde dingen 'niet ziet'. Neemt niet weg dat men een massa datails uit het beeld uithaalt en er dus een pak kwaliteit uithaalt.
Lol je moet de NASA niet vergelijken met een flimpje. Een film kan je in zijn geheel bekijken. Als een beeld 5 seconden niet beweegt kan je 1 seconden 5 keer opnieuw gebruiken. Gelukkig is je computer slimmer en die bekijkt het per frame. 20 frames per seconden levert betekent in feite dat je maar 1 frame nodig hebt ipv 100 frames.

Voor de NASA is het iets compleet anders, die zijn juist op zoek naar die ene paar pixels die je niet ziet maar wel veranderen. Ook kunnen ze de beelden vaak niet ter plekke analyseren en comprimeren. Daarnaast zijn ze ook nog eens op zoek naar het type data waar ze nu nog niets mee kunnen.
NASA gebruikt het niet omdat je alle detail eruit werkt.

Details die jullie blijkbaar allemaal onbelangrijk vinden.
Andere usecases en we blijven uitleggen dat er geen data hoeft te verdwijnen.
1000 x hallo opschrijven kan je letterlijk 1000 keer opschrijven of samenvatten tot 1000 x hallo.
Dit is niet helemaal waar, er worden ingewikkeldere wiskundige berekeningen gebruikt (meer cpu kracht) om toch dezelfde kwaliteit te bereiken als wat H.265 met 40% meer bandbreedte deed. Nu denk je misschien ja maar dat betekend toch dat er nog meer details uit het beeld worden weg gelaten maar dat is niet het geval. Het wordt alleen intelligenter gecodeerd en ik vermoed dat H.266 niet de laatste codec zal zijn. Ooit gaat er een punt komen waarbij men zegt, dit is nog het minimale aantal bitjes waaruit we nuttige informatie kunnen halen, maar dat punt is nog niet bereikt.

H.266 performed volgens de tekst vooral goed bij hogere resoluties en framerates en dat gaat de TV industrie dus juist die boost geven die ze nodig hebben om (meer) 4K en 8K content en zenders in de markt te zetten. Maar ook bij H.266 en elke codec geldt nog steeds hoe meer bitrate hoe hoger de beeldkwaliteit, helaas is men vaak meer gefocust op de financiën en kiest men wel voor een nieuwe codec maar vaak toch liever voor een lager bitrate om de transport kosten te drukken, en dus haalt men niet het maximale uit de kwaliteit die mogelijk is.

[Reactie gewijzigd door Terrestrial op 23 juli 2024 07:20]

Tuurlijk kan dat. Laat 7z maar eens los op een gigabyte aan logfiles. Een paar % blijft er maar over, en dat is zelfs losless.
M.a.w. als je compressie maar slim genoeg is kan je potentieel zeker met de helft van de filegrootte dezelfde kwaliteit behouden. Denk nog een terug aan AVI, MPEG1 of FLIC en kijk waar we nu staan.
Want 100% van álle pixels in een video zijn in élke frame anders... Blijf lekker stug volhouden zou ik zeggen :w

Vroeger nog met 1200 baud ingebeld, sneller was niet te krijgen en telefoonlijn was daarmee volledig benut volgens de heren. Nu met adsl of vdsl tig Mbps over dezelfde koperlijn. Maar als je het bij hetzelfde analoge signaal houdt, 56.600 bps. In de regel compleet random data (want veel is encrypted tegenwoordig). Maar volledig lossless. Compressie, hogere frequenties, andere modulaties... Als iedereen binnen de regeltjes blijft denken is er geen innovatie. Maar als je accepteert dat er meer mogelijk is door slimme technieken die je nu nog niet kent, kunnen er mooie dingen gebeuren.

Begrijp me niet verkeerd, ik heb een hekel aan lossy compressie, met name in kleur overgangen in bv luchten. Maar stellen dat een 50% kleiner bestand met dezelfde uitkomst niet mogelijk is, nee, dat gaat er bij mij als techneut niet in.
het is hun gelukt bij de overstap van H264 naar H265. En dat zit in de doelen voor H266 vs. H265.
Net zoals VP9 tegenover VP8...

Je kan dus door anders te coderen, hetzelfde bereiken subjectief. Kwaliteit is dan gemeten volgens een bepaalde metriek.

Wel heb je typisch veel meer rekenkracht nodig. Er wordt ook typisch gesnoeid in informatie dat je ogen toch niet ziet (zoals vroeger in de kleuren en zo). Daarom hebben ze complexe psyschovisuele modellen.

Believe me or not: ze doen ook subjectieve testen. Hun claims zijn waar in dit geval, zelfde ervaren kwaliteit voor helft van bestandsgroten (in dit geval vooral op grote resoluties).
Het gaat het dus om: Kwaliteit is dan gemeten volgens een bepaalde metriek.

Je kan het technisch meten maar ziet de mens misschien toch verschil of toch niet.
Dat lukte toch ook met DVD rips? Nog wel een stuk minder dan de helft vaak. Je gaat het niet eeuwig kunnen halveren, maar ik vind het ook weer niet dermate onrealistisch dat je het 'nooit' zou noemen voor wat betreft h266.
Tis maar wat je onder kwaliteit verstaat he? Waar jij doelt is informatie, en ja, er gaat informatie verloren bij comprimeren. Maar de kwaliteit, dus hoe een mens de video zou beoordelen, blijft hetzelfde.

En het gaat niet om de basisdata die halveert, het gaat juist om de 'einddata'. Juist met meer basisdata kunnen ze beter comprimeren staat in het artikel:
De codec zou vooral erg effectief zijn bij videomateriaal met een hoge resolutie, waarbij het instituut specifiek het streamen van 4k- en 8k-video's noemt.
Dat ligt dan toch aan de desbetreffende streamingdiensten? Bij zowel H.264 als H.265 als VP9 kan je zelf de kwaliteit/bitrate kiezen bij het encoderen. Blu-Ray films zijn ook H.264 maar die hebben een hogere bitrate dan YouTube of Netflix.
Waar reageer je nou eigenlijk op?
Er zijn zat voorbeelden waarbij dat prima kan, dus "nooit" zou ik niet gebruiken. Maar ik vraag me ook wel af of ze dit waar kunnen maken.
Of je ziet het andersom. Een video van dezelfde kwaliteit is 5GB in plaats van 10GB.
Wanneer je met instellingen encodeert die ook een 10GB bestand opleveren, zal de kwaliteit dus beter zijn.
Een lossy compressie met genoeg bandbreedte, wordt op een gegeven moment ook transparant, je ziet het verschil niet meer met het blote oog.
Zo lang je Bitrate van je 1080P film op 10Mb/s of hoger zit met Matroska is dat bij 40 of 49" zeker goed genoeg, ieder geval voor mij, ik zie dan geen blokjes of andere dingen op mijn beeld komen, ik heb een Samsung UE40B6000 TV nog.
Heb jij wel eens een MXF file met lossless CinemaDNG video er in gezien? Dan begrijp je waarom slechts een enkeling (een editor in een edit suite) ongecromprimeerde video te zien krijgt. De bestanden zijn onmogelijk groot, denk aan honderden gigabytes per minuut. Zo uit mijn hoofd gaat het al gauw om ruim 100 megabyte/seconde. Ter vergelijking, de bioscoop krijgt het meestal gecomprimeerd aangeleverd tot iets van 200 megabit/seconde. Zelfs veel pros gebruiken gewoon lossy gecomprimeerde bestanden in ProRes, Blackmagic RAW, REDCODE of iets dergelijks om mee te werken.

Kortom, alle video die jij ziet, zelfs vrijwel alles in de edit suite, is al lossy gecomprimeerd. En afhankelijk van de codec en de instellingen bij het comprimeren hoeft dat geen probleem te zijn.

[Reactie gewijzigd door Maurits van Baerle op 23 juli 2024 07:20]

CinemaDNG is heftig maar de kwaliteit is ook puur. En er is een alternatief wat men 'perfect' vindt maar het gaat ten koste van de kwaliteit.. Door compressie..

BRAW definitely wins this time. Appears that BRAW is superior to CDNG, not in term of image quality, but in term of post processes facilitation and memory consumption (bitrate wise).

Compressie is leuk en handig maar ik noem het geen technische vooruitgang..

[Reactie gewijzigd door 680x0 op 23 juli 2024 07:20]

En niemands ogen zijn perfect, dus de vraag is of het uitmaakt bij normaal gebruik.

Zelfde als geneuzel om geluidsinstallaties. Je kan €20.000 in audio steken en vacuumgetrokken kabels met zoveel windingen gebruiken en geanodiseerde dubbelgevoerde voetjes onder je speakers hebben zitten maar het laatste stukje - van de luidspreker naar je oor - is en blijft analoog en oncontroleerbaar.

Dus tenzij je een digitale interface in je hersenstam hebt waarmee je rechtstreeks beeld kan injecteren is lossless compressie goed zat voor 99,999% van de mensheid.
Normaal gebruik staat tegenwoordig voor zielige kwaliteit.. Dat is mijn punt.

Maar uiteraard zullen alle experts hier het daar weer niet eens mee zijn.
Normaal gebruik is een doorsnee tv of monitor, geen drive-in bioscoop. Als je denkt dat 4,5 meter en een beamer gemeengoed zijn sta je nogal los van de werkelijkheid.
Dat komt vooral omdat er voor 264 heel veel hardware ondersteuning is. Voor 265 is het tot nu toe nog erg veel software geweest die de decoding doet, en software matige decoding is gewoon veel intensiever dan dat je er speciale hardware voor hebt.
Dat is niet per se waar. Zeg twee/drie jaar geleden kon je dat nog wel stellen. Tegenwoordig zit er in elk modern apparaat met een scherm wel een hardwarematige h265 decoder. Zelfs telefoons van ruim 3 jaar terug kregen dit al en NAS apparaten van nu komen met hardwarematige h265 encoders.

De h265 codec is softwarematig vergeleken met h264 ook een stuk zwaarder. Het is dus zeker de vraag wat de hardwarespecificaties zijn om softwarematig de nieuwe h266 codec af te kunnen spelen op bepaalde resoluties.
Hevc decoding vinden we inderdaad stiekem al in een hoop apparaten, het begint langzaam "ingeburgerd" te geraken. Bijv. de bekende amlogic soc's (al bij inmiddels oude s805 soc aanwezig), intel gpu's, nvidia (al vanaf de gtx745 uit 2014, purevideo set E) , software encoders als x265 worden veel gebruikt, het is vrijwel de default codec bij UHD Bluray. Ook is hevc de codec die nu gebruikt wordt bij DVB-T2 (digitenne), om zo bij een bitrate van rond de 5mbit bij 1080p toch een heel aardig plaatje neer te zetten.
En met compatibiliteit van huidige hardware... :/
Daar zal vermoedelijk hetzelfde gebeuren weer. Ik vermoed dat het complexere compressie algoritmes zijn en dus meer rekenkracht vereist.

Omdat H.265 nu vaak hardwarematig decoded kan worden en H.266 voorlopig nog software matig gedecode zal worden (tot hardware decoders gemeengoed zijn in de meeste apparaten). H.265 werd in 2013 vrijgegeven als standaard, eerder waren er al draft versies en prototype decoders (begin 2012). Eind 2014 begonnen de eerste apparaten het decoden een beetje te ondersteunen, werd thuis encoden mogelijk via een GPU (Nvidia 9xx serie), gingen grote fabrikanten het gebruiken (van Apple's Facetime op de iphone 6 en hoger, tot 4K@60Hz bluray via H.265).

Mogelijk gaat het nu iets sneller omdat streamen zo groot is geworden. Als een platform als Netflix overgaat wanneer het detecteert dat je apparaat h.266 hardwarematig kan decoden scheelt dat aardig in bandbreedte bijv.

Toch denk ik dat de piraterij wereld het eerste overgaat, daar zitten toch meer de mensen die moeite doen om de juiste mediaplayers/codecs etc. te vinden en die minder geld hebben voor goed internet.
Ga er maar grofweg maar vanuit van H.266 twee keer zoveel rekenkracht kost als H.265. Maar dat is erg afhankelijk van welke features de encoder allemaal gebruikt. Eind vorig jaar was ik een bijeenkomst over VVC en op dat moment ondersteunde de reference implementation nog niet eens alle features, maar duidelijk was wel dat alle nieuwe uitvindingen veel energie kosten om te berekenen. In H.265 bijvoorbeeld kon de decoder de beelden opknippen in vierkanten van verschillende afmetingen, voor efficiëntere encoding. In H.266 kunnen beelden ook in rechthoeken worden gepartitioneerd. Maar dat kost natuurlijk weer meer rekenkracht.

Aan de decoder-kant wordt de benodigde rekencapaciteit ook flexibel. De video kan op verschillende detailniveaus worden gedecodeerd. Als er bijvoorbeeld niet genoeg rekenkracht is kan de decoder ervoor kiezen om op een lagere outputresolutie te decoderen en/of met minder detail. De 360 graden ondersteuning is trouwens niet zomaar een video die in zijn geheel hoeft te worden gedecodeerd. De decoder hoeft alleen het stukje te decoderen waar jij naar kijkt, hij kan dus een uitsnede uit de video decoderen en de rest negeren.
Waar gaat dit eindigen.... volgens mij ergens in 2001 :+

https://tweakers.net/nieu...ndst-mee-in-het-graf.html
Excellente vondst met toegevoegde waarde voor dit artikel. Made me smile :+
Mooi om te zien hoe codecs door de jaren heen kunnen zorgen voor kleinere bestanden met behoud van videokwaliteit. Als gebruiker valt het mij wel op dat 265 ook krachtigere hardware eist dan 264. Hoe zit dit met 266?
Heeft waarschijnlijk mee te maken dat het nog beter ingepakt woord de video gedeelte, wat er voor zorgt dat de CPU/GPU meer kracht nodig heeft om het als ware uit te pakken en tegelijk af te spelen.

En ja dat er voor 265 grotendeels software matige decodering gebruikt woord, omdat veel hardware nog niet de 265 ondersteund.

Nee de meeste nieuwere GPU's van NVIDIA ondresteunen gewoon hardwarematig decodering voor H.265 (HEVC) 4K YUV 4:2:0, H.265 (HEVC) 4K YUV 4:4:4, H.265 (HEVC) 4K Lossless, H.265 (HEVC) 8k, vanaf GeForce GTX 1050 tot en met Titan RTX (Turing TU102).

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 07:20]

Wat ze ook al terecht aanroepen is dat een algoritme natuurlijk beter kan comprimeren naarmate de resolutie hoger is.

Normaal gesproken als de resolutie omhoog gaat betekent dat dat je mínder diversiteit per pixel gaat krijgen.
Neem als (erg makkelijk) voorbeeld een cartoon/anime. Ja de lijnen zien er scherper uit maar álle uniforme kleurvulling blijft natuurlijk gewoon hetzelfde en dat is érg goed te comprimeren en die maken de meerderheid van de pixels uit.
Dit is in mindere mate aanwezig met 'real life' opnames maar het is ook daar wel degelijk aanwezig.
Ik las eens dat de korrel van sommige films ook niet efficiënt te comprimeren is door h265. Dat is opgelost om de korrel te scheiden van de film. Dan beide te comprimeren en aan het eind weer samen te voegen.

Ook is er in lossless comprimeren wel vooruitgang te vinden. Vergelijk een jaren 90 pkzip algoritme met wat 7zip nu kan.
En ook dat maakt veel verschil wat je inpakt, tekst gaat als een dolle, maar plaatjes weer niet zo.
Jammer alleen dat de x265 naar mijn idee toch echt slechter beeld geeft.
Voor op mijn 65" 4K tv download ik x264 wat de tv zelf upscaled naar iets wat 4K zou zijn.
x265 heeft nog veel " foutjes" in vloeiend beeld merk ik.
ik wou het net zeggen. Ik heb wel eens een serie in x265 gedownload maar ik vond het niet om aan te zien. Leuk dat het klein was, maar de reden waarom het zo klein was zag je duidelijk. En om te controleren of het toevallig alleen die aflevering was die misschien slecht was heb ik er nog paar afleveringen geprobeerd van andere series, maar overal was toch duidelijk het kwaliteitsverschil met x264 te zien. En dan niet op de positieve manier.

misschien dat je het op een klein telefoonscherm minder goed ziet, maar op een tv was het erg duidelijk.
Het hangt er natuurlijk wel van af of je de bestandsgrootte niet minder maakt dan de helft van x264. Ook kan het zijn dat met bijvoorbeeld plex de x265 wordt getranscodeerd naar x264 wat ook artefacten kan opleveren. Ik heb genoeg x265 media die er prima uitziet, meestal wordt het ook gebruikt voor 4k, maar heb ook zelf media omgezet om ruimte te besparen.
H265 ziet er bij mij altijd beter uit dan h264. Gek dat dat blijkbaar niet voor iedereen geldt. Ik heb er geen verklaring voor.
Ik wel, de mensen hierboven vergelijken slechte x265 rips met goede x264 rips.
Het ligt er toch ook aan hoe de encoder te werk is gegaan? Die kan de mate van compressie bepalen, bitrate. Mp3 stereo geluid erin ipv 5.1 DTS track etc.
Vergeet niet dat in jouw filmpje dat je download ook audio zit. Een DD5.1 stream neemt ook al best veel in. Om dan een bestandsgrootte van 50% (ten opzichte van x264) te krijgen zal je meer compressie moeten toepassen en dan dus meer kwaliteit verliest. Misschien hebben ze zelfs de x264 naar x265 geencodeerd, wat nog meer ten koste van de kwaliteit gaat.
Nou in mijn ervaring geeft h265 zelfs bij een kwart van de bitrate een mooier beeld dan h264. Om één of andere reden zit er bij h264 altijd nogal wat ruis in beeld, zelfs bij hoge bitrates, terwijl ik dat bij h265 nooit zie.
Dat is waarschijnlijk filmgrain, en dat hoort (al kan het inderdaad wat storen). De reden dat je dat bij h265 niet ziet is dat of de bitrate te laag staat of dat er een denoisefilter overheen zit.
De wens voor kleine bestanden en daardoor het uitsmeren/dofmaken bij h265 lijkt toch wel een dingetje te zijn. Al dan niet terecht krijgt het door die wazigheid en traagheid toch een beetje een slechte naam. Volgens mij zijn donkere scenes wel een echte verbetering, al helpt 10 bit bij h264 ook een hoop.
Verhip, dat zou inderdaad film grain kunnen zijn. Net een animatiefilm gecheckt en daar valt het me inderdaad niet op bij H264.. Ik ga dat eens in de gaten houden.
Is dat x265 of de hardware van jouw TV die geen 4K x265 niet aankan omdat de CPU/GPU niet krachtig genoeg is en daarom het nog veel " foutjes" in vloeiend beeld heeft?
Ik denk zo dat met een i5 4690, 16GB ram en een r9 290 er genoeg power in moet zitten om fatsoenlijk beeld te kunnen weergeven.
Helemaal op een 24" 1080p scherm.

Ik heb het meerdere keren geprobeerd via verschillende media (PS3, PS4, Sony xg9505 Tv...) en ik blijf x265 niks vinden. Mogelijk moet ik iets aanpassen ergens, maar ik blijf lekker bij x264
Evenals dat er een groot aantal settings bij h.264 zijn waar je aan kan draaien om de kwaliteit etc bij te stellen is dat bij h.265 ook zo. Dus als jij een super hoge kwaliteit h.264 tegen een crappy h265 zet krijg je inderdaad slechter beeld. De moderne standaard is echter op gelijke kwaliteit een stuk kleiner in bestandsformaat. Kan ook nog zijn dat jouw TV eigenlijk de processorkracht niet heeft hoge kwaliteit 4k h.265 codecs real-time uit te pakken en af te spelen. Dan krijg je ook artifacts.
X264 en x264 zijn encoders, dat zegt geheel niets over de settings en hoe het verder encoded is. Ik ben een tijdje geleden dat konijnenhol ingedoken en moet zeggen dat het niet makkelijk 1 op 1 te vergelijken is, tenzij je heel zelf heel erg met settings en encodig gaat spelen. Daarnaast las ik ook dat je h265 sneller kon encoden via je videokaart, maar dat de kwaliteit daarvan momenteel slechter is dan encoding puur via je CPU.

En zoals anderen ook al aangaven, h265 is effectief sterker ingepakt, maar kost dan ook extra rekenkracht om uit te pakken en zou dan issues kunnen geven met goed upscalen omdat dit ook weer rekenkracht kost.
Daarnaast las ik ook dat je h265 sneller kon encoden via je videokaart, maar dat de kwaliteit daarvan momenteel slechter is dan encoding puur via je CPU.
Dat is weer sterk afhankelijk van de GPU, Nvidia Turing gpu's zitten min of meer op hetzelfde nivo als software CPU encoding in beeldkwaliteit.

Leesvoer
Hoe werkt die compressie eigenlijk? Wat kan er in een algoritme veranderen waardoor er meer compressie mogelijk is?
Er is veel mogelijk op het gebied van compressie, maar sommige zaken vereisen onderzoek om tot de juiste inzichten te komen. Ook is de benodigde rekenkracht een beperkende factor. Met de tijd levert onderzoek z'n vruchten af en wordt er meer praktisch toepasbaar vanwege de toenemende rekenkracht. Als het je echt interesseert, zou ik gewoon eens een boek over compressie in het algemeen of videocompressie in het bijzonder lezen :)
Hier staat een afbeelding met een lijstje van nieuwe features, met daarnaast een plaatje wat de nieuwe partitionering-mogelijkheden laat zien. De encoder probeert frames op een zo efficient mogelijke manier in stukjes te knippen, die op hun beurt weer met zo weinig mogelijk bits kunnen worden geëncodeerd. H.266 kan frames opknippen in grotere vlakken dan H.265, en tussen frames kunnen nu ook rechthoekige uitsnedes worden gedeeld. Deze uitsnedes kunnen ook nauwkeuriger worden gedraaid en herkend.

Die opsplitsing in delen (de 'partitionering') wordt in H.266 trouwens apart uitgevoerd voor luma (helderheden) en chroma (kleuren), waardoor bijvoorbeeld (bewegende) schaduwen efficiënter kunnen worden opgeslagen.

[Reactie gewijzigd door Bergen op 23 juli 2024 07:20]

Kort gezegd probeert een codec vanuit de beweging in het beeld, het volgende beeld te voorspellen. Bijvoorbeeld, als een logo van links naar rechts beweegt, dan is de kans heel groot dat het in het volgende beeld nog iets verder naar rechts beweegt. Het verschil tussen de voorspelling en wat er daadwerkelijk getoond moet worden, zijn de gegevens die in het bestand opgeslagen moeten worden (of uitgezonden worden).

Je kunt een betere compressie verkrijgen door betere/geavanceerdere algoritmen voor die voorspelling te maken, zodat minder gegevens nodig zijn om het verschil met het werkelijk weer te geven beeld te kunnen maken.
Een mooie ontwikkeling in terms of storage efficiency, maar voor mij persoonlijk eentje die veel te vroeg komt. De helft van mijn apparatuur kan h.265 al niet eens afspelen.
Komt door het licentie model :) daar is FireWire ook aan gestorven, koste teveel
Eens uit te proberen op hun Gitlab pagina.
Volgens mij is de tijd van betalen voor codecs wel een beetje passé. Nu er ook goede kwaliteit open codecs zijn die gepushed worden vanuit de bedrijven die de platformen maken waar het gros van de video’s op bekeken wordt, hoeveel bestaansrecht heeft een betaalde codec dan nog? Vooral eentje die op alle bestaande apparaten niet ondersteund wordt. Een gratis codec toevoegen kost hooguit wat ontwikkelkosten en kan dus redelijk goedkoop, maar het niet ondersteund worden op de apparaten van je gebruikers zorgt in een tijd van concurrentie gewoon voor een kip-ei probleem.
Als die Av1 codec open source is, waarom zie je in het illegale circuit nooit films encoded in vp9 of av1 maar altijd H265 en H264?
Dat vind ik eigenlijk een verdomd goede vraag...
Omdat die toch geen licentiekosten betalen.
Good point, en blijkbaar is het dus zodanig beter dan de andere 2 dat ze die prefereren?
Of...er zijn meer devices die H264/5 hardwarematig kunnen encoden/decoden?
Even kijken bij de specs van GPU's. Daar zal het waarschijnlijk wel worden vermeld.
Doet me steeds denken aan De Broncode van Jan Sloot. 1995 In het kort video super comprimeren...

https://nl.m.wikipedia.org/wiki/Jan_Sloot

Steeds weer een klein stukje verkopen, kun je er lekker lang aan verdienen.

Voor wie het interessante materie vindt, bekijk beide delen eens.

https://youtu.be/_x6qZXsNH7E
Dat verhaal is de grootste onzin die ooit in de IT wereld gecirculeerd heeft. Een hoax waar een aantal mensen zonder verstand van de materie met open ogen in getuind zijn. Ik gok dat Sloot op een cruciaal moment aan een hartaanval is overleden omdat het hem te heet onder de voeten werd.
Lol, die gast heeft gewoon een zooi films geycrypteerd op een hardware speler gezet en dan de steutels op zijn 1 kb stickje.
Je weet dat dit wiskundig onmogelijk is? Zoals in de wiki staat, er zijn meer films dan dat er waardes in 1 kbyte zitten.
Ik weet dat het internet vol staat met films, maar het lijkt mij erg onwaarschijnlijk er meer films zijn dan waardes in 1kB.

Aantal cijfers in 1kB
1kB = 1024B = 8192b

Aantal waardes in 1kB
2^8192 ≈ 10^2466

Als je voor het gemak even uitgaat van een universum van precies 14 miljard jaar, is dat ongeveer 4,4*10^17 seconden. Dus dan zou er sinds het begin van het universum elke seconde iets van 2*10^2448 films uitgebracht moeten zijn.
Bijzonder ben benieuwd of de apple tv 4k dan dit ook ondersteunt, of alleen de opvolger.

Zo oud is 265 toch niet helemaal niet btw?

Op dit item kan niet meer gereageerd worden.