Fraunhofer-instituut gaat met Duitse omroep WDR h266-codec testen

Het Fraunhofer-instituut en de Duitse publieke omroep WDR gaan in de komende maanden samen de h266- ofwel vvc-codec testen. Dat is de opvolger van h265, ofwel hevc. De nieuwe codec moet een databesparing van 50 procent opleveren.

Het Fraunhofer-instituut stelt dat een 4k-video van 90 minuten die in h265-codering 10GB groot is, met diezelfde kwaliteit kan worden opgeslagen in h266-formaat met een bestandsgrootte van 5GB. Het instituut gaat op de IFA-beurs in Berlijn deze week de nieuwe codec demonstreren in samenwerking met de Duitse publieke omroep. De twee partijen gaan de komende maanden meer tests uitvoeren, maar details daarover zijn niet bekendgemaakt.

Er wordt al langer gewerkt aan de h266-standaard. Het Fraunhofer-instituut is één van de partijen die bijdraagt aan de ontwikkeling daarvan. Naar verwachting wordt de standaard in de zomer van 2020 definitief uitgebracht. In de loop van 2021 zouden de eerste consumentenapparaten op de markt moeten komen die de nieuwe codec ondersteunen. Fraunhofer en WDR hebben naar eigen zeggen al werkende prototypes.

Vvc staat voor Versatile Video Coding en wordt ontwikkeld door het Joint Video Experts Team van het MPEG-consortium en de ITU. Vvc wordt de opvolger van hevc, wat een afkorting is van High Efficiency Video Coding. De hevc-standaard bestaat sinds 2013.

De vvc- ofwel h266-codec gaat het opnemen tegen de av1-codec waar al veel bedrijven bij betrokken zijn. Av1 is bedacht door de in 2015 opgerichte Alliance for Open Media. Onder andere Netflix, Apple, Amazon, Google, Microsoft, Mozilla en Samsung zijn onderdeel van die alliantie.

Door Julian Huijbregts

Nieuwsredacteur

03-09-2019 • 18:15

83

Submitter: satsurfer

Reacties (83)

83
82
37
6
0
38
Wijzig sortering
Is er iemand hier die gelooft dat ze hun 50% bewering waar kunnen maken?

In het verleden is altijd gebleken dat dat soort claims alleen van toepassing waren op extreme lage bitrate streams die niemand in de praktijk gebruikt.

Maar nu beweren ze dat het van toepassing zou zijn op een 90min 10GB video. Dat is geen extreem lage bitrate.
Maar uiteraard nergens een link naar enige onderbouwing te vinden, of wat er zo bijzonder is aan hun methode waardoor ze dit kunnen bereiken.

Ik geloof er helemaal niets van dat ze 50% halen zonder merkbare verminder in kwaliteit op een 10GB 90min UHD video.

"if it sounds too good to be true......."
Moet op een 1 of andere manier denken aan dat verhaal van die man die een compressie methode had gemaakt waarmee hij een videocd op een floppydisk kwijt kon. Die zou overleden zijn voordat hij het uit kon brengen. Dacht altijd dat het een verzonnen verhaal was maar begin met dit soort berichten te twijfelen. 200% verbetering is wel heel veel. En 265 was al heel goed.
Jan Sloot. En de kans is enorm dat 't lulkoek was. Nou ja, laat die "kans" maar zitten, het was zeker lulkoek. Áls 'ie het al kon waarmaken dan liet 'ie belangrijke informatie (zoals hulptabellen o.i.d) achterwege.

[Reactie gewijzigd door RobIII op 23 juli 2024 12:26]

Zolang het niet werkelijk onderzocht is kun je niet met 100% zekerheid stellen dat het lulkoek was. Je DENKT dat het lulkoek is omdat het met de kennis die jij bezit onmogelijk is... Maargoed, Tesla had ook dingen ontwikkelt waar we publiekelijk nu nog steeds niet weten hoe hij het had bedacht omdat hij het geheim mee in zijn graf heeft genomen (of overheden/corporaties het in een kluis gepropt hebben)..
Het is al eens onderzocht en objectief lulkoek gebleken. Ik kan zo snel even geen link meer vinden, maar het kwam er op neer dat je wiskundig kan bewijzen dat de beperking in entropie die je jezelf zou moeten opleggen om dit mogelijk te maken zou beteken dat er voor een film van 1 uur minder dan 1 pixel per frame mocht veranderen (of iets van dien aard).
Wat hij had bedacht weten we niet, in sommige dingen zal het zeker wel wat overdreven zijn, maar voor die tijd was het waarschijnlijk revolutionair. Er kan niet objectief naar gekeken worden zonder de werkelijke werking te hebben gezien (en dat zullen we waarschijnlijk ook nooit meer kunnen zien).
Er is nog zoveel wat nog steeds een raadsel is voor de hedendaagse wetenschap.
Er is nog zoveel wat nog steeds een raadsel is voor de hedendaagse wetenschap.
Net zoals er wetten van thermo-dynamica zijn die ervoor zorgen dat perpetuum-mobilae (en nulpunts-energie) pure kwakzalverij zijn, zijn er wiskundige wetten voor "informatie-dichtheid" die je niet kan omzeilen.

Voor geinteresseerden: De voorwaarde voor maximale informatie-dichtheid is gelijk aan die voor "random": Als ik een reeks van enen en nullen in stukjes van willekeurige lengte knip, komen alle sub-reeksen even vaak voor. Dus 0 even vaak als 1, 00 even vaak als 01, 10 en 11 enz. Als je dat bereikt hebt bijv. dmv. "zippen", kan je simpelweg niet verder comprimeren..

Op IMDB hebben de meeste films in de URL een nummer met 6 cijfers.

Ik kan die 6 cijfers opslaan op een floppy, en een scriptje dat bij IMDB de naam erbij zoekt en de film via torrents download. Daarna kan ik claimen dat ik "de hele film" op floppy heb opgeslagen, maar de "echte" informatie komt in dat geval ergens anders vandaan.

Dat is een beetje als een zip-algorithme waarbij het "woordenboek" groter is dan het gezipte bestand. Natuurlijk zijn sommige permetuum-mobilae een raadsel voor de huidige wetenschap. Maar voor wie in natuurkunde, wiskunde en wetenschappelijke methoden vertrouwt en zelf kan redeneren, zijn die 'raadsels' kwakzalverij van mensen die zelf niet van de wereld om hun heen naar de wetten van thermodynamica / informatiedichtheid kunnen induceren.

[Reactie gewijzigd door kidde op 23 juli 2024 12:26]

Hey SuperDre, niet van die logische dingen zeggen met al die super technische mensen hier die heel goed zijn in spelfouten verbeteren. Beetje lopen verkondigen dat mensen die zichzelf wetenschapper noemen niet alles weten. https://www.youtube.com/watch?v=ssDTkQ5rcsc
Die mythologische geniale ontdekkingen die Tesla in zijn graf heeft meegenomen of die door shady overheden zijn verduisterd zijn trouwens *ook* lulkoek. Of eigenlijk meer mythologisering van de figuur Tesla achteraf + een scheutje complotdenken.
kun jij bewijzen dat het lulkoek is? NEE. Er zijn nog zoveel zaken waar de wetenschap voor een raadsel staat, en vaak zijn het juist de kleine, anders denkende wetenschappers die met de oplossing komen waar de rest van de wetenschap bij denkt WTF? hoe hebben we dat over het hoofd kunnen zien... bedenk je ook maar dat men vroeger dacht dat de wereld plat was en als jij zei van niet, dan was je gestoord en praatte je lulkoek... nu weten we inmiddels wel beter.... (ok er is nog steeds een groep die denkt dat de wereld plat is, maar denk zelf dat ze dondersgoed weten dat die rond is, maar puur om ophef te creeeren)..
Je draait de bewijslast om. Als je een hypothese neerlegt, moet je dat kunnen bewijzen. Lukraak iets roepen en dan van de rest van de wereld verwachten dat ze bewijs moeten leveren dat die hypothese niet klopt is wel heel makkelijk gedacht. Ik mag hopen dat je niet in de rechtspraak werkt...
maarja zeggen dat het lulkoek is zonder zelf het tegendeel te bewijzen is toch exact hetzelfde? Iets wat je nooit hebt gezien, en dus ook niet van kunt oordelen dat niet kan, kun je niet zomaar zeggen dat het lulkoek is.
> Er zijn nog zoveel zaken waar de wetenschap voor een raadsel staat, en vaak zijn het juist de kleine, anders denkende wetenschappers die met de oplossing komen waar de rest van de wetenschap bij denkt WTF? hoe hebben we dat over het hoofd kunnen zien...

In jongensboeken ja... :)

Trouwens, dat verhaaltje dat de mensen dachten dat de wereld plat was? Ook dat is (enigszins) lulkoek. Al sinds de klassieke oudheid wist men dat de wereld rond was en werd je niet voor gek versleten als je het daar mee eens was. Men dacht wel dat de zon en de sterren om de aarde heen draaiden ipv andersom en er waren theologische/politieke redenen om het tegendeel te ontkennen, maar dat had met wetenschap niks te maken.

[Reactie gewijzigd door aldieaccounts op 23 juli 2024 12:26]

Ook met 5000 terabyte aan hulptabellen had het niet gekund.

Alleen de indices die nodig zijn om een film voldoende nauwkeurig te reproduceren met behulp van tabellen (van welke grootte dan ook), zijn op zich al veel groter dan hij destijds claimde.
Ook met 5000 terabyte aan hulptabellen had het niet gekund.
Wel als hij maar X films ondersteunde (en dus geen generiek algoritme had). Zoals ik hier ook uitlegde.

Maar onder de streep zijn we 't natuurlijk eens; heel zijn verhaal klopte van geen kant; en als 'ie nog had geleefd was de aap al lang uit de mouw gekomen.

[Reactie gewijzigd door RobIII op 23 juli 2024 12:26]

Lulkoek of niet, vond de broncode best een vermakelijk boek.

Hier nog een oud nieuwsbericht op tweakers:
nieuws: Rapport bestrijdt datacompressieclaim Jan Sloot

[Reactie gewijzigd door dr86 op 23 juli 2024 12:26]

Het is best mogelijk om 650 MB aan data te comprimeren naar 1,44 MB. Echter als het om videodata gaat, is dit een heel ander verhaal. Deze bevat veel meer info die essentieel is voor de weergave van beeld, waardoor compressie veel lastiger te realiseren is.
Een platte SQL database daarentegen kan al heel gemakkelijk een factor 10 gecomprimeerd worden, laat staan nog inefficiënter opgeslagen data.
"Het is best mogelijk om 650 MB aan data te comprimeren naar 1,44 MB".

Dat is hoogst onwaarschijnlijk, tenminste, als we onder "comprimeren" niet verstaan het weglaten van data (zoals bij niet-lossless codeermethodes); dat is immers niet comprimeren maar filteren.

Het theoretisch maximum van compressie wordt bepaald door de formule I=-log(P), waarbij P de kans op de gebeurtenis is die medegedeeld wordt.

Dus als ik je vertel dat morgen om 12:00 de zon op is, dan is de kans op die gebeurtenis 1 (als je geen alu-hoedje draagt), en dan is de informatiedichtheid I 0; je kunt dan mijn boodschap oneindig comprimeren want je kunt 'm weglaten.
Als ik je daarentegen vertel dat morgen om 12:00 de zon nog niet op is, de kans daarop is 0, dus de informatie-dichtheid van die boodschap is oneindig.
Die boodschap is dus niet te comprimeren.

Dus als je 650Mb aan data naar 1,44Mb weet te comprimeren, dan heb je een voor de huidige stand der techniek extreem domme codering van je data gekozen.....
Hier heb je een .zip file van slechts 42 KB, die uitpakt naar 5,5GB:
https://www.bamsoftware.com/hacks/zipbomb/zbsm.zip

Hier heb je een .zip file van slechts 10 MB die uitpakt naar 281 TB:
https://www.bamsoftware.com/hacks/zipbomb/zblg.zip

Hier heb je een .zip file van slechts 46 MB die uitpakt naar 4.5 PB:
https://www.bamsoftware.com/hacks/zipbomb/zbxl.zip

Natuurlijk zijn dit specifieke/extreme gevallen van 'custom files', (uitleg hier) maar het laat wel zien wat er (bij de juiste data) mogelijk is.
Zoals @dingo35 al vermelde is de hoeveelheid informatie in deze zip files dus minimaal, ofwel deze 'juiste data' bevat (by design, ook een kunst appart) zeer veel herhalende structuren zodat dit mogelijk is. In tegenstelling tot videomateriaal dat (by design) best wel veranderlijk is, kennelijk vinden mensen dat toch het meest interessante beeldmateriaal om één of andere reden.
Anderzijds, ook weer niet zo veranderlijk dat het ons gaat storen. De kunst van het maken van een goede videocodec is enerzijds ervoor zorgen dat het in staat is om dingen waarvan wij het gemiddeld gezien prettig vinden om naar te kijken de herhalende structuren te kunnen vinden en te voorspellen (denk aan bijvoorbeeld bewegende camera's en objecten of lopende mensen) en de dingen compleet weg te laten die ons niet of nauwelijks opvallen.
Nu denk ik dat Jan Sloot mogelijk een leuk idee had voor die tijd, echter vraag ik me nog af hoe goed dat stand zou houden wanneer je zijn idee met het hedendaagse datageweld op het internet met bijvoorbeeld 4K resolutie zou confronteren. Als je voor elk YouTube filmpje dat je zou bekijken eerst een flinke hulptabel zou moeten downloaden, dan heeft het ook geen zin meer.
Uiteraard; ik weerleg enkel de reactie van @dingo35 op @kevlar01 dat het 'zeer onwaarschijnlijk is'.

@kevlar01 zegt letterlijk: "Het is best mogelijk om 650 MB aan data te comprimeren naar 1,44 MB. Echter als het om videodata gaat, is dit een heel ander verhaal."

Niemand hier die beweerd dat dat lossless mogelijk is met videomateriaal ;)
Volgens mn virusscanner is dit een zip arch bomb ....
Hier heb je een .zip file van slechts 42 KB, die uitpakt naar 5,5GB:
https://www.bamsoftware.com/hacks/zipbomb/zbsm.zip

Hier heb je een .zip file van slechts 10 MB die uitpakt naar 281 TB:
https://www.bamsoftware.com/hacks/zipbomb/zblg.zip

Hier heb je een .zip file van slechts 46 MB die uitpakt naar 4.5 PB:
https://www.bamsoftware.com/hacks/zipbomb/zbxl.zip
Ik kan je een file geven van een paar bytes die 'uitpakt' tot een oneindig groot bestand.

while (true)
    println('\0');

Boeie. Heel je argument is irrelevant; het gaat erom dat je data met hoge entropie (zoals audio, video) niet oneindig kunt compressen (en al helemaal niet lossless).

En voordat je komt met:

while (true)
    println(rand());

...of een algoritme voor, bijvoorbeeld, een fractal (waarbij de output een hoge entropie heeft); ook dit is natuurlijk irrelevant. Het gaat om een ("generiek") compressie algoritme dat elke willekeurige data (althans; binnen een bepaald domein zoals audio of video) moet kunnen comprimeren tot X. En daar zit gewoon een ondergrens aan. En ga je voor lossy, dan kun je inderdaad gaan voor "oneindige" compressie maar moet je je afvragen waar de grens ligt van het toelaatbare voordat je zegt dat het gecomprimeerde bestand niets meer met het origineel te maken heeft.

[Reactie gewijzigd door RobIII op 23 juli 2024 12:26]

Again...

Uiteraard; ik weerleg enkel de reactie van @dingo35 op @kevlar01 dat het 'zeer onwaarschijnlijk is'.

@kevlar01 zegt letterlijk: "Het is best mogelijk om 650 MB aan data te comprimeren naar 1,44 MB. Echter als het om videodata gaat, is dit een heel ander verhaal."

Niemand hier die beweerd dat dat lossless mogelijk is met videomateriaal ;)
Bij het verhaal van jan sloot ging het om een telefoonkaart chip van 64kb.
Het is best mogelijk om 650 MB aan data te comprimeren naar 1,44 MB
Nog wel naar een paar bytes. Als de entropie echter hoog is (en dat is zo bij video/audio) dan kun je maar tot "zo ver" gaan voordat je van lossless in 't land van lossy terecht komt. En dan kun je "door-compressen" tot je een ons weegt, maar érgens zal iemand zeggen: dat lijkt in de verste verte niet meer op het bron beeld/geluid. Je kunt in 1 bit heel de Star Wars franchise opslaan; maar die wordt wel vrij saai met zoveel compressie :P
Misschien krijg je wel hele leuke patronen uit de creatieve interpretatie van (bijna) niets door het algoritme! :P
En dat was dus vrijwel zeker ook wat Jan Sloot gedaan had; die had "ergens" een geheim "hulptabelletje" met daarin (bij wijze van) complete (flarden van) frames beeld/audio en hoefde dan op zijn "floppydisk" alleen maar wat referenties naar (delen van) die frames aan te wijzen. Dan kun je inderdaad een complete film in leuke kwaliteit (hell, in 8K als je wil met Dolby Atmos weet-ik-veel-wat-shizzle in holografisch 3D) kwijt op een floppy. Maar dat is natuurlijk valsspelen; je zult het 'hulptabelletje' dat 'ie in de speler had verstopt ook mee moeten tellen ;) En veel meer dan de voorgedefinieerde film(s) kan zo'n speler dan natuurlijk ook niet aan :+

[Reactie gewijzigd door RobIII op 23 juli 2024 12:26]

Vergeet niet dat in de periode dat het JSDCS speelde het zelfs al er wonderlijk zou zijn geweest als een film überhaupt in zo'n klein doosje zou kunnen worden opgeslagen, los van de daarvoor gebruikte techniek.
Genereer geregeld Oracle database dumps en deze comprimeer ik dan voor deze naar externe backup worden verstuurd. Deze files zijn ingesteld datdeze nooit groter mogen worden van 4 GByte. 7zip (in ultra modus, command-line)) comprimeert deze dan in sommige gevallen tot 90MByte. De meeste archieven hebben een omvang van zo rond de 250 MByte, maar extreme uitschieters zitten er zeker bij.

Kan je verhaal dusalleen maar beamen. Zitten we al op n=2 ;)
Ik kan me voorstellen dat ze met "dezelfde kwaliteit" meer bedoelen dat het niet merkbaar lelijker is, dan dat ze ineens een magische methode hebben gevonden om nog extremer te kunnen comprimeren zonder verlies van informatie. Waar je op doelt is trouwens Jan Sloot met zijn broncode.

[Reactie gewijzigd door MsG op 23 juli 2024 12:26]

.oisyn Moderator Devschuur® @MsG3 september 2019 18:30
"Broncode" was het boek dat erover geschreven is door iemand anders. :)
Jan Sloot zijn verhaal inderdaad, erg interessant.
Dacht altijd dat het een verzonnen verhaal was maar begin met dit soort berichten te twijfelen. 200% verbetering is wel heel veel.
100% verbetering, 200% keer zo veel.
En het was eigenlijk gewoon 50% van de grootte waar ik op doelde ;) Haha
Even natte vingerwerk :9
4K 3840 * 2160 = 8294400 pixels op het scherm
480 640 * 480 = 307200 pixels op het scherm

Dan heeft 480 maar 3,7 procent aan pixels vergeleken met 4K.

5000MB * 3,7% = 185MB

Echter zou het 480i interlaced kunnen zijn... Dus mogelijk de bestandsgrootte gedeeld door 2 = 92.5MB

Ik weet niet of de 10GB/5GB met HDR is, zo ja gaat het dan om 10 bit ipv 8 bit... Ofwel mogelijk kan die 92.5MB nog kleiner...

Zou in het verhaal de resolutie 320 * 480 zijn, dan is dat 0,9% en kom je uit op 46,2MB, interlaced 23,1MB.

Het komt in de buurt... Echter kon op die chip van Jan Sloot maar 64kb... ja helaas gaat niet lukken. Maar op een N64 cartridge van 256Mbit zou een 90 minuten speelfilm op 320 * 480 wel passen. :Y)
Het NL tv-aanbod bevat zoveel herhalingen dat je sowieso makkelijk een maand video in een paar uur kan stoppen.
Met foto's van een paar BN'ers plus intelligente software (plus flink wat rekentijd) lijkt me dat nog wel een factor 100 te comprimeren. Voetbal en praatprogramma's hebben uren achtereen hetzelfde beeld met minimale detail veranderingen. Spreker/voetballer x,y verplaatsen zich slechts...
Gezichtsherkenningscamera's en Googles plaatjeszoeker hebben aan een paar kenmerken al genoeg om bv personen feilloos op te sporen.
En omgekeerd kan software ieder bekend persoon alles laten zeggen of doen bewegen. Het is dan fake, maar niemand merkt het.

Die meneer Jan Sloot gaat nog gelijk krijgen!

[Reactie gewijzigd door Bruin Poeper op 23 juli 2024 12:26]

JA zo zie ik het dus in de toekomst ook gaan
.oisyn Moderator Devschuur® 3 september 2019 18:28
Jan Sloot bedoel je. Daar is niets aan verzonnen, of bedoel je dat wat hij beweerde verzonnen was? Zijn verhaal is door iemand met een beetje verstand van wiskunde vrij makkelijk te weerleggen.

.edit: was een reactie op @willempipi.

[Reactie gewijzigd door .oisyn op 23 juli 2024 12:26]

Natuurlijk doelde ik op dat hij het kon.

Maar ingaande op wat je zegt, hoeveel kleiner is maximaal nog mogelijk volgens jou wiskunde dan? Een 4k film op 1 gig? 100mb?

Denk dat h266 in 1999 haast net zo bijzonder was als de claim van Jan Sloot.
Maar ingaande op wat je zegt, hoeveel kleiner is maximaal nog mogelijk volgens jou wiskunde dan?
Je zult eerst moeten definiëren over welke compressie we überhaupt spreken. Lossy vs. Lossless. Laten we aannemen lossy, dat werkt in ons voordeel en geeft de meeste vrijheid; in dat geval zul je weer moeten definiëren waar de grens ligt van wat nog acceptabel is. Als ik je 4K film 'lossy' comprimeer naar 100x100 pixels in 16 kleuren en dat bij decomprimeren weer upscale naar 4k, en de kleuren interpoleer tussen die pixels naar meer dan 16 kleuren, hebben we 't dan nog over (wenselijke) compressie? Of zijn we dan onszelf voor de gek aan 't houden?

Vwb. lossy compressie is er dus geen 'wiskundige' regel om te bepalen wat maximaal haalbaar is; dat is wat je zelf acceptabel vindt. Voor lossless compressie is er, afhankelijk van de (soort van) data wel een ondergrens te berekenen of in ieder geval een aardige schatting te maken. Zie het Pigeon Hole Principle of dit stukje bijvoorbeeld en de Kolmogorov Complexity die ik eerder aanhaalde.

[Reactie gewijzigd door RobIII op 23 juli 2024 12:26]

In lossy is dat inderdaad voor een groot deel waar de incrementele verbeteringen vandaan komen. Maar ook deels dat een codec gemaakt wordt op de kwaliteitsstandaarden van vandaag. In lossless is met Shannon's entropy vrij duidelijk gedefinieerd hoeveel informatie het minimaal kost om iets op te slaan (bvb met Huffman coding). Daarintegen als je elke heuristic toelaat om een lossy encoder te maken, is het gebonden aan de "acceptabele" creativiteit van de encoder (en mede de mogelijke decoding stappen die beschreven kunnen worden, plus tuning daarvan).

Zo werkte h264 ik geloof in macroblocks tot 16x16 pixels, terwijl in h265 deze opgeschaald kunnen worden (met variabele composities). Dit zou met name vruchten afwerpen op hogere resoluties, aangezien er dan een grotere kans is dat grotere vlakken bestaan die met 1 (ipv 4 losse) beschrijving kan worden gecodeerd.

Je ziet dus dat h265 vaak enkel echt efficienter wordt op deze hoge resoluties: op bvb 360p zal h264 en h265 vergelijkbaar, of de laatste zelfs slechter, presteren. De juiste encoding profiles (in x264/x265 zitten ontzettend veel knoppen om aan te draaien...) definieren dan ook voor een groot deel deze kwaliteit. In begin van x265 adoptie was er, naast licenses, veel getreuzel geweest omdat bij hoge kwaliteitsstandaarden (BluRay) x265 helemaal niet zoveel voordeel of zelfs kwaliteitsverlies opleverde. Een commerciele encoder zal daar ongetwijfeld beter aan doen, aangezien ik regelmatig zie dat er h264 bestanden met een aggressieve HEVC (gebruikt x265) handbrake encode haast geen opslagwinst opleveren.

[Reactie gewijzigd door Hans1990 op 23 juli 2024 12:26]

Een exacte berekening zal inderdaad erg moeilijk worden, maar je kunt wel een benadering maken van wat er maximaal haalbaar is. Je moet alleen wat meer parameters invullen die de minimale benodigde kwaliteit definiëren. De hoeveelheid detail die je per keyframe wilt weergeven, de hoeveelheid keyframes en de hoeveelheid verandering die je daartussen nog wilt kunnen weergeven vormen samen al een opstapje naar zo'n berekening.

[Reactie gewijzigd door mae-t.net op 23 juli 2024 12:26]

Hangt van de film af. Sommige 4K films (zeg, van een uur, op 25 fps) passen in 1 MB, andere nog niet in 1 TB.
Ik wil je een 4K film van een uur wel eens op 1MB zien passen en nog een interessante film overhouden.
Tis niet gezegd dat het een *interessante* film was he? Een film van 13 uitvoeringavn van 4'33" van John Cage gaat vast wel in 1 MB. Mits het theater niet al te sterk verlicht is...
Interessant is ook subjectief. Maar wellicht dat voor een astronoom, een close up opname van Sagittarius A* van een uur lang nog wel interessant is.
Nog een interessant feitje: zeer waarschijnlijk is een 4K film van een uur die niet in 1 TB past, óók totaal niet interessant. :Y)
Denk dat h266 in 1999 haast net zo bijzonder was als de claim van Jan Sloot.
Any sufficiently advanced technology is indistinguishable from magic. Als het voor jou allebei magie is, is het onderscheid lastig te maken. Nou zit er wel een punt in dat je toekomstige technologie niet goed in kunt schatten, maar het is wel hard te maken dat h266 lang niet de compressie haalt die Jan Sloot claimde. Als je een paar ordegrootten verschil definieert als "haast net zo" dan zou je uitspraak wel kloppen. Ik vind het verschil toch even te groot, ook vanuit dat perspectief. Vergeet niet dat mpeg-achtige codecs al bestonden in 1999. H266 borduurt daar nog steeds op voort.

[Reactie gewijzigd door mae-t.net op 23 juli 2024 12:26]

Jammer. Ik had graag AV1 gezien buiten 480p Youtube. Aan de andere kan kan ik het begrijpen, aangezien AV1 nog niet energiezuinig draait op het moment.
ik verwacht dat in de toekomst we meer AV1 gaan zien, nader het meer ontwikkelt. het is niet voor niets ontwikkeld ;-)
Het is ontwikkel omdat het een open standaard is hvec is een licentie standaard waar gewoon geld voor betaald moet worden.
Nu de hele "back-catalog" van RockPalast digitaal beschikbaar? :P
Het blijft allemaal een beetje vaag dat AV1 gedoe. Ik ben grote fan maar de partners zitten ook gewoon op MPEG en doen daar ook gewoon contributies aan bvb VVC. Ik kan niet in hun interne keuken kijken maar ik vermoed dat als MPEG zijn licenties eindelijk op orde krijgt (wat echt niet zo eenvoudig is als het lijkt en waar AV1 ondanks al hun goede bedoelingen ook tegenaanloopt) AV1 ineens niet meer zo belangrijk zal zijn voor de partners.
Binnen MPEG is men bovendien ook bezig aan een licentieloze codec met technologie die 20 jaar oud is. Levert verbazingwekkend goede resultaten op. En wie zit hier achter? Wel er staan er een paar op de AV1 lijst

(ik weet niet of ik namen mag noemen vandaar de vage termen)
Youtube heeft nu ook al best wel wat 720p filmpjes in AV1. Dus het gaat de goede kant op. Twitch en Vimeo zijn er ook al mee bezig.
Youtube 720p filmpjes? Nou ze gaan gewoon tot 8K hoor in AV1 formaat zonder HDR dan wel. Alleen online kun je maar tot 480p of 720p kijken.
Huh youtube is ook offline beschikbaar?
Ik bedoel dat je ze in volle resolutie kan downloaden in AV1 formaat........!
Je hebt gelijk, zolang de ingebakken hardware decoders nog niet mainstream zijn wordt de stream in resolutie zwaar beperkt al is de stream wel in volle resolutie aanwezig voor video's met heel veel views. De eerste chips zijn al wel leverbaar voor fabrikanten heb ik begrepen o.a. Realtek.
Softwarematig zijn er al alternatieven waarvan VLC player de beste op dit moment is. Kan nu een 4K60 video net aan met een 5e gen. i7 cpu met een load van 95% en 50% GPU op UHD tv. Dat vind ik niet verkeerd en de compressie is zo goed dat je het verschil met bronmateriaal nauwelijks meer ziet.
Er valt hieraan niets te begrijpen; het is gewoon een gevolg van concurrentie. AV1 bestaat omdat veel bedrijven genoeg hebben van monopolistische trekjes van MPEG LA (de reden waarom HEVC zo laat op de markt kwam zo laat HEVC capable hardware op de markt kwam, was omdat de licentiekosten aanzienlijk werden verhoogd t.o.v. AVC). Vervolgens dat AOMedia AV1 in het leven heeft geroepen, betekent echt niet dat MPEG LA en aangesloten bedrijven dan maar zich uit de markt van AV codecs gaan trekken. Dat AV1 nog niet wordt gebruikt, is puur omdat er nog geen hardware decoding of zelfs hybrid decoding beschikbaar is in consumenten apparatuur, dat is aanstaand jaar (en energie zuinigheid van soft decoding zal bijna iedereen een biet wezen, maar eerder dat de benodigde CPUs voor soft decoding gewoonweg niet betaalbaar zijn en dergelijke systemen al helemaal niet portable zijn).

MPEG LA had simpelweg een gebrek aan concurrentie. En nu er twee strijdende cutting edge video codecs op de markt zijn, is een win voor bijna iedereen.

[Reactie gewijzigd door Z100 op 23 juli 2024 12:26]

Als Amazon, Apple, Google, Microsoft, Netflix en Samsung een andere codec aan het ontwikkelen zijn, dan verwacht ik niet zoveel kansen voor h266, tenzij er allemaal heel vervelende licentiestructuren aan AV1 zitten. Elke televisie zal al AV1 moeten gaan ondersteunen in de toekomst, vanwege Netflix en YouTube. Zowel Windows, macOS, iOS en Android zullen AV1 gaan ondersteunen, want dat is van eerder genoemde bedrijven. Wat blijft er dan nog over?
De reden dat av1 ontwikkeld is, is dat het een open standaard is. Hvec is een licentiemodel waar voor betaald moeten worden. Wat ik las is dat vooral aan wie men hoeveel en wat moet betalen heel onduidelijk is.

De nieuwe 266 versie zal ook een licentiemodel zijn en dank niet dat content aanbieders zitten te wachten om licenties te moeten betalen.
AV1 is toch in het leven geroepen, omdat er zoveel licentie ellende achter H.264 en H.265 zit en content makers/distribiteurs dit heel erg zat beginnen te worden?
Een AV1 decoder in Javascript en een SoC in je TV die snel genoeg is?
Wanneer compressie een stap maakt lever je dat dubbel en dwars in op decode. Deze specs gaan altijd uit van hardware decoders. Ik zie het zo nog niet gebeuren dat veel mensen de nieuwe video specs in software decoden.
Ligt er helemaal aan wat de compressierate is van die AV1 codec.. Als die identiek is aan h265 dan kan het voor veel mediabedrijven wel heeeel erg interessant zijn om de licentiekosten te betalen voor de h266 als die werkelijk ongeveer 50% compressierate heeft in vergelijking met h265 en toch dezelfde kwaliteit.. bandbreedte is nog steeds niet gratis. Voor een Netflix of Amazon PrimeVideo is het cruciaal.. Dan zijn die licentiekosten echt een peuleschilletje hoor.
Ik ga er vanuit dat de bedrijven achter AV1 ook wel een goede compressiemethode kunnen verzinnen. Het enige dat ik me voor kan stellen is dat er veel (bestaande) patenten in de weg zitten. Als h266 een licentiemodel gebruikt en zodoende wel gebruik kan maken van dergelijke patenten, dan zal die wellicht wel een betere compressie kunnen halen.

Maar het probleem zit vooral dat de de h266 licentie betaalt moet worden door de maker van het toestel (mobiel, televisie, ...). Netflix bepaalt niet wat er in het toestel komt, maar een TV die geen Netflix kan afspelen lijkt me ook slechter te verkopen. Apple kennende duwen ze graag een ieder hun standaard door de strot (soms maar goed ook, want we zijn eindelijk van Flash af).

Zo'n licentie gaat al gauw naar de $1 per toestel en dat lijkt weinig, maar op de BOM is dat best geld.

Ik ben het wel met je eens dat bandbreedte (vooral uitgaand) bij de grote cloud-providers niet goedkoop is. Als je daar een 10GB/maand/toestel kunt besparen door een andere codec, dan betaalt die licentie zich binnen een aantal maanden wel terug (denk dat Netflix iets minder betaalt bij AWS dan ik).
Wel jammer dat er met dit soort ontwikkelingen altijd geredeneerd wordt vanuit het kleiner maken van de omvang. En niet: Met dezelfde omvang, nu veel meer kwaliteit. Dat zou ikzelf een betere ontwikkeling vinden. Al die artefacten die je in de meeste digitale videostreams ziet, zijn toch maar jammer. Ik zou het wel wat vinden als dat met dit soort ontwikkelingen juist verbeterd ging worden.

Of dan op z'n minst een compromis: Beetje minder data en beetje meer kwaliteit. Dan is iedereen happy :)
Je kan normaal de compressie factor instellen. Dus wat jij wil kan gewoon. Met nieuwe codec zou men dan minder compressie moeten toepassen, omdat de codec beter werkt zou je bij gelijke grote een betere kwaliteit krijgen of dezelfde kwaliteit bij 50% minder grote.
Dat is wanneer je zelf comprimeert, toch?
Maar als je consumeert, zoals bij Netflix, Youtube, digitale tv kijkt, dan ben je overgeleverd aan de nukken van de aanbieder. En zoals ik het hier lees, is het uitgangspunt "zelfde kwaliteit bij minder data". Wat in de praktijk (ik ben cynisch, ik weet het :) ) volgens mij neer gaat komen op "beetje minder kwaliteit, bij heel veel minder data". Terwijl het imho juist een kans is om de kwaliteit juist te verbeteren, zonder extra dataverbruik .
Wat jij zegt ligt idd puur aan wat providers doen. Maar netflix heeft als ik me niet vergis ook een compressie die zich aanpast aan jou verbinding. Een slechtere verbinding zal lagere compressie krijgen, een hogere de maximale. De vraag blijft natuurlijk wat ze als maximum instellen.
... Een slechtere verbinding zal lagere compressie krijgen, een hogere de maximale. ...
Andersom hoop ik ;)
idd je hebt gelijk. slechtere verbinding slechtere kwaliteit hogere compressie.
Helaas zijn de managers aan het roer
Dat zijn 2 kanten van dezelfde medaille. Het is in een persverklaring alleen logischer om te spreken over "zelfde kwaliteit bij de halve grootte" dan "dubbele kwaliteit bij dezelfde grootte". Bij het eerste kan iedereen zich een voorstelling maken, ziet er hetzelfde uit en is maar half zo groot. Bij het tweede vraagt iedereen zich af hoe "dubbele kwaliteit" er dan uitziet en wat je er eigenlijk mee opschiet.
Nou dat gebeurd nu toch al. Bekijk maar een 4K stream op youtube in de Edge browser die de H264 codec pakt en dezelfde stream in de Chrome browser die de vp9 (H265 variant) codec pakt. Het resultaat is duidelijk zichtbaar op 4K tv.
Wel jammer dat er met dit soort ontwikkelingen altijd geredeneerd wordt vanuit het kleiner maken van de omvang. En niet: Met dezelfde omvang, nu veel meer kwaliteit.
uhh, dat is het dus wel.... Ze beweren dat het nu dus 50% kleiner is met dezelfde kwaliteit, dat betekent dus dat je in de 'originele' grootte nu dus meer kwaliteit kwijt kunt.
Maar dat komt eigenlijk op hetzelfde neer. Als je bij gelijke kwaliteit een kleinere omvang krijgt, dan krijg je bij een gelijke omvang een betere kwaliteit.
Ik wilde in eerste instantie zeggen dat "zelfde omgang, meer kwaliteit" ook een beweegreden is, maar het lijkt er voornamelijk op dat ook in de ontwikkeling dan wel wetenschappelijke vergelijking voornamelijk vergeleken wordt op "bit-rate savings" voor gelijke PSNR (piek signaal-ruisverhouding). Dat is tenminste zo ver ik zo snel even kan zien in de paar papers die ik doorgebladerd heb over dit onderwerp.

Nu is het ook best lastig om een zinnig statement over "dubbele kwaliteit" te maken. Je zou kunnen zeggen 3 dB in PSNR erbij is een verdubbeling, in dat geval levert HEVC dubbele kwaliteit vergelijken met H.263. Echter, slechts grofweg 1 dB beter dan H.264, wat in principe nog steeds 25% verbetering zou zijn. Mensen zijn iets subjectiever dan dat, vanaf een bepaald punt zien we het verschil nauwelijks. Maar kennelijk geven mensen voor dezelfde bitrate ongeveer het dubbele cijfer aan HEVC dan aan H.264, maar dat is alleen voor de lagere bitrates. Ik kan me voorstellen dat voor hogere bitrates je het verschil minder (snel) ziet.

Bron, voor de vergelijking in ieder geval, http://iphome.hhi.de/wieg...IEEE-HEVC-Performance.pdf daar staan vanaf pagina 11 een aantal figuren die het wel aardig weergeven. De rest is niet publiek beschikbaar of nogal technisch.
mpeg - da's dus in tegenstelling tot av1 non-free?
h265 speelt bij mij thuis niet lekker af op mijn mediaplayers vandaar dat ik bijna alles nog in h264 heb. Was wel van plan dat eens te upgraden en alles om te zetten naar h265 maar hoe zit dat met h266? is daar ook weer nieuw hardware voor nodig straks om dat netjes af te kunnen spelen?
Jazeker om af te spelen, maar zeker ook omzetten. Met snelle pc zul je het afspelen nog wel redden met software decoders. Het kan, maar encoderen op huis, tuin, keuken CPU is niet meer te doen voor de consument. Dan heb je echt nieuwe (GPU) hardware encoder nodig.

Op dit item kan niet meer gereageerd worden.