'AV1-videocodec verovert flink marktaandeel ten koste van hevc'

De AV1-videocodec van de Alliance for Open Media wint steeds meer terrein ten opzichte van high efficiency video coding ofwel hevc, ook wel aangeduid met h265. Dat meldt een video-onderzoeker tijdens een discussie op de International Broadcasting Convention.

Krishna Rapaka, een video-onderzoeker bij Twitch en Amazon, zegt dat 'AV1 terrein wint ten opzichte van hevc en het veel marktaandeel afpakt van h265', schrijft FlatpanelsHD. Hij meldt op basis van anekdotisch bewijs dat er wat de AV1-adoptie betreft sprake is van een groei van 30 tot 40 procent per jaar. Deze groei gaat volgens hem 'behoorlijk snel'.

De onderzoeker meldt daar wel bij dat de groei momenteel nog met name gestuwd wordt door softwarematige implementaties. Hij zegt dat voor diensten als Twitch een hardwarematige ondersteuning erg belangrijk is. AV1 wordt al gebruikt door Netflix en YouTube en wat de hardware betreft hebben behoorlijk wat nieuwe smart-tv's ingebouwde ondersteuning. Dat geldt bijvoorbeeld ook voor smartphones met onder meer de Snapdragon 8 Gen 2-soc; dit is de eerste Snapdragon-soc van Qualcomm die de AV1-codec ondersteunt. Daarnaast hebben Intel, AMD en Nvidia ook ondersteuning toegezegd.

Zodra de hardwarematige ondersteuning meer gemeengoed wordt, zal de adoptie van de codec waarschijnlijk nog sneller gaan. Een potentiële kink in de kabel is het EU-onderzoek naar het licentiebeleid en vooralsnog heeft Apple geen concrete plannen doorgevoerd voor de ondersteuning van AV1, ook al is het bedrijf uit Cupertino lid van de organisatie achter AV1.

AV1, ofwel AOMedia Video 1, is een codec voor videocompressie en is ontwikkeld door de Alliance for Open Media. Onder andere Google, Apple, Netflix, Facebook, LG, Microsoft en Samsung zijn daar onderdeel van. De codec wordt gezien als opvolger van Googles VP9. AV1 betreft een codec die in feite in het leven is geroepen als een reactie op de licentiechaos waar hevc mee te maken heeft. AV1 moet ook een stuk beter presteren dan VP9 of hevc, wat concreet betekent dat bijvoorbeeld dezelfde videokwaliteit mogelijk is bij lagere bitrates.

Door Joris Jansen

Redacteur

13-02-2023 • 20:47

96

Reacties (96)

96
94
36
5
0
47
Wijzig sortering
Ondertussen blijft Qualcomm nog steeds steevast van mening dat AV1 niets is, noch zal worden: https://www.androidauthor...omm-av1-encoding-3271556/

Elke nieuwe codec die significant bijdraagt aan verkleining van video bestanden is het waard om te integreren. En we hebben concurrentie nodig om de hebzucht van MPEG-LA te beperken. Zo niet, dan zal opnieuw het scenario herhalen waarbij het jaren duurt na introductie van een nieuwe codec totdat SoC makers en apparaat OEMs over gaan om hardwarematige versnelling te ondersteunen voor de gezegde codec. De reden was: de licentiekosten waren op niveau afpersing. Dat is de reden waarom brede ondersteuning voor HEVC (H.265) veeel langer duurde dan voor AVC (H.264).

Ik kijk uit naar VVC (H.266), maar ik heb er niet het vertrouwen in dat brede ondersteuning zal plaatsvinden binnen 4 jaar. Tot die tijd is AV1 toch echt de beste optie.

M.i. moet je in de audiovisuele markt voor dit soort standaarden altijd minstens twee standaarden hebben voor een gezonde markt.
- AV1; HEVC
- Dolby Vision; HDR10
- Dolby Atmos; DTS-X
Je GPU en/of CPU moet harder werken omdat het nogsteeds niet overal hardwarematig afgehandeld kan worden. Als ik hier helemaal fout ga hoor ik het graag!

Add but don't replace recompressed stuff. Shit in shit out. Na 25 jaar verzamelen durf ik te stellen: Ik geloof heilig dat er voor sommige een moment komt dat je terug kijkt op iets wat je vroeger onwetend recompressed had met de technieken van toen om ruimte te besparen maar je niet had moeten doen. Van uncompressed video met de juiste settings naar AV1 of HEVC. Vooral doen, maar add, dont replace! Vervang vooral geen AVC of oudere compressed content met een recentere codec (zeker niet als de bron interlaced is) zonder besef van hoe een nieuwe compressie techniek werkt om ruimte te besparen.

Ookal lijkt het of het er goed uitziet, over 10 jaar is het anders maar dan is de bron waarschijnlijk verdwenen. RAW is the best.

AV1 doc:
https://arxiv.org/pdf/200...inations%20of%20the%20two.

AV1 video:
https://www.youtube.com/watch?v=qubPzBcYCTw

[Reactie gewijzigd door TweakerCarlo op 22 juli 2024 17:48]

Leuk, maar een film van 2 uur uncompressed: (4K, 10 bit per pixel, 60fps), dat is 10TB!
Dat is 1.4GB/s. Enkel nvme schijven kunnen dat wegschrijven, en zie maar eens een schijf van 10TB te vinden. En dan hebben we het over 2 uur, een live productie duurt veel langer dan dat.
Dat doe je dan ook niet met 1 schijf maar met een disk array.
Je zal vast net als .wav > .flac ook een gecomprimeerd lossless formaat hebben voor video.
Goed punt! Ik heb even gegoogled, Black Magic Design heeft bijvoorbeeld een video codec genaamd: Lossless compressed raw. Dit is ongeveer 30% kleiner dan het origineel. Behoorlijk vergelijkbaar met .flac.
mensen compresseren om ruimte te besparen. Door het origineel te houden is het een zinloze actie :p
*Mensen compressen ook om ruimte te besparen.

Ik snap dat zeker maar dat zou geen reden moeten zijn om je archief (mogelijk nietsvermoedend) te vernietigen.

Ik compress bijvoorbeeld omdat ik iets zosnel mogelijk van a naar b wil krijgen om het te gebruiken.
Liever compress ik niet maar de weg is niet altijd capabel, dus het moet vaak wel.

[Reactie gewijzigd door TweakerCarlo op 22 juli 2024 17:48]

Zelf ben ik even gaan kijken wat de opties zijn en kwam tot de conclusie dat ffv1 de beste codec was voor mijn archiefmateriaal.
Link geopend, nu is niet het moment maar ik ga me er zeker in verdiepen. Super dank hiervoor.
Mag ik vragen waarom je uiteindelijk gekozen hebt voor deze techniek?

@Indy81:
Schrijven is anders dan lezen.
Als het gaat over opslag heb ik wel eens gedacht:
Kan je daarvoor de NDI (-HX) techniek niet gebruiken?
Deze techniek ziet er imho beter uit met een max van 249Mbit op 3840*2160 60P en schijbaar 30Mbit als je het over NDI-HX doet [bron]. Bron waardes kloppen trouwens niet echt??

Het volgende heb ik persoonlijk getest:
Als ik die zelfde uncompressed bron converteer naar AV1 dan lijkt het dat er meer artifacts op treden dan dat ik die zelfde orginele bron bekijk via NDI studio monitor op een ander systeem. En dat dan live met gemiddeld 1 frame latency. Confettie artifacts zijn daarmee namelijk minimaal.

Het volgende waar ik nu achterkom:
Ik heb meer dan 500Mbit per NDI stream gemeten. Die NDI cijfers kloppen dus niet, laat staan die van de HX codec. Thanks Newtek.

Ik weet dat ik bij statements afbeeldingen moet plaatsen echter kon ik zo op de tv geen prntscr genereren en dacht ik hier te laat aan.

[1] https://ndi.tv/tools/educ...networking-best-practice/

[Reactie gewijzigd door TweakerCarlo op 22 juli 2024 17:48]

Interessante post! Ik heb me ook even verdiept.

NDI is echter wel compressed. Ik kom dat steeds vaker tegen. Men zegt: "visually lossless" en adverteren dat als "lossless". En dus marketing praat. Dus zeker niet RAW, waarop mijn reactie op gebaseerd was. Heel veel info over het codec SpeedHQ dat ze gebruiken is niet te vinden. Wel dat er chroma subsampling op zit, wat ook al een vorm van compressie is. (4:2:2 i.p.v. 4:4:4). Daarna zit er nog wel wat extra compressie op (intra frame compressie bijvoorbeeld), maar ik kan daar niet veel extra over vinden, behalve dat het door de CPU wordt gedaan, en dat het heel snel is.
Doet me een beetje denken aan DV compressie van digitale Firewire video camera's van vroeger, of ATRAC van minidisc: Wèl compressie, maar ook erg hoge bitrate, zodat je nog steeds erg hoge kwaliteit hebt. Maar het is niet meer RAW.

NDI-HX is trouwens gewoon een implementatie van h264 compressie en daarom veel kleiner.

Waarom je 500mbit meet, ondanks dat ze zeggen dat 249 de max is? Goede vraag, en interessante meting!
Mijn gok:
Ik kan me indenken dat NDI gewoon de beschikbare bandbreedte gebruikt, en dat deze terug schakelt tot 249 als er meerdere streams op het netwerk zitten. En wanneer er geen 249mbit beschikbaar is, dat hij naar beneden zal schakelen maar dat je dan zichtbaar kwaliteitsverlies krijgt.
Zodoende kun je 4 camera's op dezelfde kabel zetten, en dat is meestal wel genoeg voor een standaard productie. Maar met minder camera's, kan dan de bandbreedte omhoog waardoor je technisch hogere kwaliteit hebt, maar deze niet echt kunt waarnemen.
Bij meer beweging/data gaat de bandbreedte natuurlijk omhoog en dat is best goed geimplementeerd. Adaptive gebeurt er meer (of juist minder/anders) bij die conversie. Er word best geheimzinnig gedaan over deze codec vind ik.

Tijd om uit te zoeken hoe het nu gaat met NDI5. Jammer dat de TC-1 achterloopt.
Volgensmij draait die met de laatste update nog op NDI4.5. Testen met NDI screencapture is geen optie, dat komt namelijk niet in de buurt van de palakis OBS ndi plugin, dat is zoveel scherper, met veel hogere framerates. Daarom doe ik daar op dit moment de game captures mee.


Ik heb ooit getest met 5 Panasonic AW-UE150 cameras (NDI-HX licentie actief) die alleen op de input zichtbaar zijn -> komt de netwerkadapter waar de camera's over binnen komen niet boven de 50mbit uit (NDI 4.5). Pas als je een camera program zet dan schiet het naar 150mbit en minder als het stilstaand beeld is. Je kan daarmee met gemak 10 cameras hebben op een Gbit NIC, er is er altijd maar 1 camera PGM mits je er meerdere in een M/E plaatst. (dat heb ik nooit getest: todo)

Note: De eerste keer een NDI camera in program zetten duurt trouwens een paar seconden, maar als je ze allemaal even voorgeschakelt hebt, dan lijkt het net zo snel te werken als dat je een nieuwe SDI input voorschakelt.

Als een NDI camera niet program staat dacht ik dat er jpegjes verstuurd worden. In de webinterface van de camera's kan je dit ook instellen. Als ik op de tricaster een camera in preview zet dan is dat op een lagere framerate iig. Mocht je de camera met ptz bewegen zie je ook stuttering, maar niet als die camera program staat. Het is een soort van substream maar dan met jpegs wat geen bandbreedte kost.

[Reactie gewijzigd door TweakerCarlo op 22 juli 2024 17:48]

Omdat ffmpeg zo breed gedragen wordt, ik durf te beweren dat mensen dagelijks meer dan 5x in aanraking komen met ffmpeg zonder het te weten. Veel video-apps gebruiken het op de achtergrond en ook bijvoorbeeld dash-cams en smart-deurbellen gebruiken ffmpeg.
Dat is idd een feit. Voor heel veel taken is ffmpeg wat mij betreft een koning. Moest bijvoorbeeld een tijdje terug een video behoorlijk vertragen, de interpolatie filter is echt cool. Het duurt wel lang vind ik maar het resultaat is awesome. Thanks voor deze tool te benoemen.
En we hebben concurrentie nodig om de hebzucht van MPEG-LA te beperken.
Ik was in de veronderstelling dat het een samenwerkingsplatform was van fabrikanten en onderzoekers. Lijkt mij juist erg democratisch ingericht en het moet natuurlijk terugbetaald worden. Op de wikipediapagina zie ik allemaal namen van professoren en doktoren van universiteiten.

Ondertussen zie ik bij de Alliance for Open Media alleen maar grote Amerikaanse clubs als Cisco, Netflix, Facebook, etc.

Oja en: H.264 en MPEG2 hebben mij in het verleden nooit teleurgesteld.
Patentpools: https://accessadvance.com...ram-07-20-22-1200x900.jpg

Ik heb geen idee welk punt je probeert te maken. We hebben het over de moderne tijd. MPEG-LA vertegenwoordigd zeker niet de academische wereld. AOMedia (AV1) ook niet, maar zij bieden hun codec royalty free aan. Dit doen ze omdat de besparingen in streaming en opslag kosten het al de moeite waard zijn, en voor hardware fabrikanten het al de moeite waard is dat consumenten nieuwe hardware afnemen met AV1 decoding/encoding.

Als MPEG-LA eerlijke royalties bleef hanteren bij HEVC net zoals met AVC, dan was AV1 nooit van de bodem gekomen. MPEG-LA had een monopolie positie en gedroeg zich als monopolist. Of je het nou wilt erkennen of niet.
Even wat context:
H.264 is een wereldwijde standaard met 1 patentpool en 1 systeem voor licenties. Ongeveer $0.20 per handset
H.265 is een wereldwijde standaard met 3 patentpools en 3 verschillende systemen voor licenties, waarbij een aantal van de patenthouders ook nog eens van patentpools is verschoven. $1.60 per handset
Je hebt altijd een licentie op H.264 nodig vanwege compatibiliteit. H.265 kost extra.

Er zijn ook caps op hoeveel je betaald; Een licentie op h.264 kost je 1.5 miljoen per 10 miljoen units en 10 miljoen maximaal.
Een licentie op H.265 bevat H.264 en licenties van 3 patentpools en kost je 16 miljoen per 10 miljoen unites en 55 miljoen maximaal.

Komt nog bij dat er over H.265 nog allerlei rechtszaken lopen over patenten, patentpools en licensing, dus je moet bij H.265 nog wat extra advocaat kosten rekenen.

AV1 is in theorie licentievrij, maar dat betekent niet dat het patentvrij is. Ook daar zijn rechtszaken over. Ondertussen is het grootste voordeel van H.265, dat het minder bandbreedte vereist minder van belang geworden. Problematisch is echter dat bijna de hele video encoding/decoding industrie zijn leven opgehangen heeft aan allianties, licenties en patenten. Dus wil Qualcomm geen hardware implementatie doen van codecs als AV1 waar ze geen licentievergoeding voor vangen en geen of minder patentrechten hebben etc. etc.

Voor wat achtergrond en mijn bronnen zie: https://www.iam-media.com...tting-price-hevc-licences en http://www.fosspatents.com/search/label/HEVC
“Elke nieuwe codec die significant bijdraagt aan verkleining van video bestanden is het waard om te integreren.”, ligt er ook een beetje aan hoe goed iets in software kan draaien en hoe hoog de verwachte adoptatie is. Specifieke hardware decoders zijn qua design en ruimte op de chips ook niet gratis, SoC specs worden jaren voor release bepaald en als de codec software matig heel goed draait zullen de meeste mensen het nooit als een voordeel zien.
“Elke nieuwe codec die significant bijdraagt aan verkleining van video bestanden is het waard om te integreren.” Mits de kwaliteit er niet op achteruit gaat, vind ik het een uitstekende ontwikkeling.

[Reactie gewijzigd door harrytasker op 22 juli 2024 17:48]

OP bedoelt verkleining bij dezelfde kwaliteit (impliciet).
Kwaliteit dan wel vanuit menselijk perceptie overigens.
Dat lijkt me nogal vanzelfsprekend, dienen we zometeen ook rekening te moeten houden met hoe de hond de kwaliteit van een compressed video zal beoordelen?
Nou, niet zo suf doen hè. Menselijke perceptie en verwachtingen veranderen over de jaren heen, dus wat nu er fantastisch uitziet zal er over een paar jaar misschien wel verschrikkelijk uitzien omdat onze standaarden veranderen. Vroeger weet ik nog wel dat mensen Xvid/DivX fantastisch vonden, maar tegenwoordig als je die zooi op betere schermen van nu terugkijkt ziet 't er allemaal totaal niet uit. Ik zou het dus wel fijn vinden dat als we compressie toepassen, dat we er later geen spijt van krijgen omdat we kortzichtige keuzes gemaakt hebben.

En er is natuurlijk nog het stukje dat er een groot verschil is tussen wat technisch optimaal is en wat wij zien als kwaliteit. Dat wijkt over het algemeen nogal fors af van elkaar.
Je snapt dat kwaliteit ook technisch gemeten kan worden toch? Pixels die blijven staan, resolutie, dips tijdens overgangen, kleurbereik, dynamisch bereik etc etc.

Feitelijk meet je gewoon het verschil tussen de raw video en de encoded video. Alles wat anders is na het encoderen is technisch kwaliteitsverlies, ongeacht of jij dat ook als verlies ervaart of niet.

Reden dat ik hier wat van weet? Ik heb ooit bij een media kunst conservator gewerkt. We hadden toen heel veel video banden die bewaard werden in speciale klimaat ruimtes. Op dag 1 dat ik daar ging werken dacht ik van waarom gooien jullie niet gewoon alles op DVD en klaar? Maar toen liet de technicus mij zien wat encoding met video doet en toen begreep ik pas waarom er niet gewoon gedigitaliseerd werd. Het gaat niet altijd om wat jij mooi vind. Maar om wat er technisch veranderd aan een video door er een encodering over te gooien. Iets wat vooral bij behoud van kunst heel belangrijk is. Overigens als je eenmaal weet waar je op moet letten, zie je het overal. Ook bij Blu Ray films etc. Ik kan het helaas niet meer onzien.

Daarom zeg ik ook wanneer deze partijen roepen van zonder of minder kwaliteitsverlies is dat altijd uit naam van menselijke perceptie en niet technische perceptie. Ik zie bij de beste codecs nog altijd duidelijk artefacten.

[Reactie gewijzigd door ro8in op 22 juli 2024 17:48]

Ik zou niet weten wat het alternatief is
Lees mijn reactie hierboven
Dit gaat niet over het preserveren van video maar over streaming. Ik snap je punt maar de context doet er wel degelijk toe. Ik hoef geen uncompressed yt videos te zien, 99% van de content is het bewaren (zonder (zichtbare)compressie) niet waard. Minder dataverbruik maakt video toegankelijker over de wereld en goedkoper. Gezien dat in deze context het zwaarst weegt zegt men “Elke nieuwe codec die significant bijdraagt aan verkleining van video bestanden is het waard om te integreren.”.
Zonder hardware decoder is een media encoder niet levens vatbaar voor consumenten elektronica. Low power hardware krijgt dat niet getrokken, geen vloeiend beeld en batterij loopt leeg.
Professionele wil je daarom ook echt hardware ondersteuning.
Even een nuancering: Qualcomm heeft zelf de h265 en h266 standaard mee ontwikkeld. Heel veel toetsenbordhelden zien dat louter als een cynisch gegeven: Qualcomm wil hebberig zijn en zijn eigen codec gebruiken, maar dat is simpelweg veel te kort door de bocht.

Tijdens alle drafts heeft Qualcomm heel veel input kunnen geven, wat ervoor gezorgd heeft dat die standaarden, ondanks hun complexiteit, goed te implementeren zijn op erg weinig chipoppervlakte. Het zijn standaarden die echt uitzonderlijk goed te implementeren zijn dmv kleine en zuinige chips.

Als ik naar AV1 kijk zie ik de founders: allemaal softwarebedrijven die av1 willen gebruiken in hun datacentra, waar een paar extra vierkante millimeter en Watt in gebruik niet uitmaken. Daarom zie je AV1 nu toegevoegd worden aan grote dure desktop GPUs (die makkelijk 5W extra kunnen gebruiken wanneer ze video moeten encoden), maar ook bijvoorbeeld google die de eigen standaard niet eens opgenomen in de eigen tensor chips. Dit wijst er voor mij toch op dat de av1 standaard simpelweg erg complex is en best veel kost (voor mobiele platformen) om hardwarematig te implementeren in termen van die-area en energie.

Als google de eigen gratis standaard niet eens in zijn chips opneemt, waarom ben je dan boos op Qualcomm voor hetzelfde?

[Reactie gewijzigd door kiang op 22 juli 2024 17:48]

De Tensor SoC's ondersteunen wel AV1 (decode), zowel de eerste als de tweede generatie.

Misschien heb je het over de Amlogic S905D3 in de Chromecast with Google TV (4K)? Die ondersteunt AV1 niet, de HD variant, met een andere Amlogic SoC (S805X2), doet dat wel.
Qualcomm ondersteunt ook AV1 decode, enkel encode niet.
Alleen in de Snapdragon 8 Gen 2, en decode is volgens mij mobiel ook het belangrijkste al heb ik een bias want ik film haast nooit met mijn telefoon. Misschien dat het voor videocalls wel van pas kon komen maar dan zouden de front camera's ook eens moeten evolueren want

Maar je hebt gelijk hoor, ik begrijp de frustratie richting Qualcomm niet goed terwijl die het niet slechter doet dan de leden van de associatie, Apple doet zelfs geen AV1 decode, als je dan iemand moet viseren.
Alleen in de Snapdragon 8 Gen 2,
De post waarop ik reageerde deed alsof Qualcomm het niet wil en nooit gaat doen, ik nam dus aan dat het over encode ging, want het is duidelijk dat nieuwe Qualcomm chips gewoon AV1 decode hebben

[Reactie gewijzigd door kiang op 22 juli 2024 17:48]

Het is verbazingwekkend dat iedere alinea die je schrijft onwaarheden bevat.

Het gaat niet alleen om Qualcomm. Er zijn honderden bedrijven bij betrokken. hebberigheid van de hele sector is het probleem.

Het probleem is niet de standaard en de implementatie ervan in hardware in software, maar de patentpools en licentievoorwaarden waar ongelooflijke ruzie over is. Zie mijn reactie over de prijsverschillen tussen h.264 en h.265. Raindeer in ''AV1-videocodec verovert flink marktaandeel ten koste van hevc''

AV1 is niet alleen maar softwarebedrijven, maar grootschalige gebruikers die door de licentievoorwaarden van HEVC en de oorlog over de patenten iets willen wat hen niet tientallen, zo niet honderden miljoenen kost en waar ze geen grote juridische risico's lopen. Zie hier hoeveel rechtszaken er zij over HEVC http://www.fosspatents.com/search/label/HEVC

In die datacenters maakt het juist heel veel uit hoeveel energie er wordt verbruikt. Het maakt zoveel uit dat Youtube nu eigen chips ontwerpt en laat bouwen. Hier een blogpost van Youtube https://blog.youtube/insi...era-video-infrastructure/

Wat je zegt over de AV1 chip en hardwarematige implementatie door Google is onzin. Hardwarematig decoden is onderdeel van de SoC https://www.androidauthor...2-benchmark-test-3219452/
Het gaat niet alleen om Qualcomm. Er zijn honderden bedrijven bij betrokken.
...Waar zeg ik dat Qualcomm de enige is dit H265/266 gemaakt heeft?
AV1 is niet alleen maar softwarebedrijven, maar grootschalige gebruikers die door de licentievoorwaarden van HEVC en de oorlog over de patenten iets willen wat hen niet tientallen, zo niet honderden miljoenen kost en waar ze geen grote juridische risico's lopen.
Dat is de mooie PR-manier waarop AOMedia het schetst. Een andere manier om dezelfde feiten te benoemen is dat het de heersende bigtech bedrijven zijn die willen besparen door hun eigen standaard te maken. Waar overigens niets mis mee is, maar het is niet zo idealistische als de diehard Av1 fans steeds schetsen.
In die datacenters maakt het juist heel veel uit hoeveel energie er wordt verbruikt.
Zeker wel, maar op een heel andere schaal. AV1 is bedacht door bigtech bedrijven die een renderfarm hebben staan: servers die een paar duizend Watt verbruiken, daar willen ze zo veel mogelijk streams mee kunnen encoden. Dat is echter een heel andere schaal dan de efficientie die je wilt voor een telefoon, waarbij je nooit meer dan 1 (of misschien 2) streams wilt encoden, en waarbij het totale power budget ongeveer 10 Watt is. De vraag of de AV1 encoder wel zo laag kan schalen werd bij het ontwerp nooit gesteld want de bazen in AOMedia waren Netflix en Google en Facebook die allemaal enkel aan un servers dachten, niet aan camera's en telefoons, dus het is maar de vraag of en hoe goed dat gaat lukken. Ik wijs je er nogmaals op dat de Tensor chips ook geen AV1 encoder hebben.

Dit is alsof je een vrachtwagen en een Toyota Aygo vergelijkt: beiden worden ontworpen met efficiëntie hoog op de prio-lijst, maar als je een vrachtwangenmotor neemt en in een Aygo propt heb je geen efficiënte (of functionele) wagen, en het is maar de vraag of je het motorontwerp van die vrachtwagen kan afschalen naar een Aygo.
Wat je zegt over de AV1 chip en hardwarematige implementatie door Google is onzin. Hardwarematig decoden is onderdeel van de SoC
Ja, decode, dat kan de Snapdragon 8 gen 2 ook gewoon hoor. Ik nam aan dat het over encode ging, want men klaagt dat Qualcomm AV1 niet odnersteunt, maar het enige dat Qualcomm nog neit wil gaan doen is Av1 encode: decode doen ze gewooon.

Dus nogmaals mijn vraag: waarom wordt er door de Av1 fanboys steen en been geklaagd over Qualcomm, als Qualcomm het gewoon even goed doet als Google, de drijvende kracht achter AV1?

[Reactie gewijzigd door kiang op 22 juli 2024 17:48]

Het probleem hier is dat fabrikanten vaak maar 1 vd 2 ondersteunen.
Kijk maar naar Samsung met hdr10+ en de rest met DV.
Philips ondersteund beiden in zijn TV's.
Klopt, daar kwam ik laatst toevallig achter tijdens mijn jacht naar een nieuwe tv.
Maar goed, het is iets waar de gemiddelde consument niets van wil weten.
Maar goed, het is iets waar de gemiddelde consument niets van wil weten.
Klopt. de meeste mensen zijn heel erg gefocust op de inhoud en niet op de beeldkwaliteit.
Ik zag, in de tijd dat we al vol aan de HD ready en Full HD zaten, mijn dochter zitten kijken naar downloads van gossip girl afleveringen in SD van 150 to 250mb waarbij de block distortion van het kompressen niet om aan te zien was.
Video Editors als ik kijken echter ook sterk naar de beeldkwaliteit dat is een vak idiotie. ;)
Ik film ook zelf met een Sony semi professionele 4K camera voor een kwaliteit die toekomst bestendig is.
Vraagje: waar haal je deze informatie vandaan? Ik kom zelf niet verder dan dat me is opgevallen dat er vrij gestaag een shift van h264 naar h265 heeft plaatsgevonden bij torrents.
Je hebt geen idee waar je over praat. Of je bent bewust selectief aan het ageren. Hoe dan ook niets van waar.
Procentuele groei zegt niet zoveel. Bij een heel klein marktaandeel is de groei al snel een behoorlijk percentage. Bijvoorbeeld van 1 naar 1,4 procent marktaandeel.
Plus devices hebben nog maar need hardware decoders, laat staan encoders. Zelfs Apple M1 heeft ze niet, hevc encoders en decoders wel. Al moet ik zeggen dat youtube av1 alsnog soepel afspeelt met weinig inspanning van de cpu, zegt wat positiefs over de codec
Hier draait het op de PC ook prima, ik moest alleen wel hardware (alweer, blijkbaar had een update het weer aan gezet) versnelling uitschakelen omdat ik in FF steeds groen vlak te zien kreeg.
AV1 wordt nog steeds niet ondersteund in Adobe software. Ik hoop echt dat daar snel eens verandering in komt.
DaVinci Resolve ondersteund het al sinds zomer 2021. Daar zijn ze bij Adobe dan wel echt laat mee.
Adobe is altijd met alles. ACES/OCIO zit ook pas echt net in AE
Ja, klopt. Jammer genoeg ben ik door mijn werk gebonden aan Adobe.
Dit is geen verrassend nieuws. Er is afgelopen maanden een storm aan onrust ontstaan in de open source wereld omdat RedHat besloten heeft h264 en h265 ondersteuning te droppen vanwege mogelijke blootstelling aan patentrechten.

Sindsdien zijn vele open source en projecten zonder hardware versnelling, nu zie je de versnelde adoptie van een videocompressie techniek die wel vrij is. Software patenten hebben een veels te lange levensduur.
Software patenten zouden niet eens moeten bestaan. Net als er op wiskunde of natuurwetten ook geen patenten mogelijk zijn.
Software heeft copyright en dat zou alles moeten zijn. En zelfs dat zou ik flink inkorten tegenover wat het nu is.
Wat is het verschil tussen een geavanceerd software algoritme ontwikkelen of een mechanisch iets te ontwikkelen? En waarom zou de ene niet gepatenteerd kunnen worden en de andere wel?
Software is in basis wiskunde, binaire manipulatie, je zegt het zelf al: "een algoritme". Wiskunde is niet patenteerbaar omdat je natuurwetten niet kunt patenteren. Ze zijn een gevolg van de wereld om ons heen. Je kunt ook niet even een natuurwet of wiskunde tweaken om een soortgelijk maar ander ding te doen. Er is geen innovatie in mogelijk, alleen ontdekking.

Voor dat onderscheid hebben we copyright uitgevonden. Software en een boek met wiskunde kunnen copyright hebben. Dat beschermt de expressie, niet de onderliggende wetenschap, die is er voor iedereen en kan niet anders dan voor iedereen hetzelfde werken.

Iets mechanisch, iets werkelijks dat geproduceerd kan worden is een expressie, iets echts. Dat maakt patenten een copyright voor fysieke objecten. Natuurkunde en wiskunde kunnen op vele unieke manieren worden ingezet. Het voegt iets toe aan de wereld dat er niet al was. Het zijn unieke objecten (of zouden dat moeten zijn, patenten worden laks toegekend omdat ze big business zijn voor rechtszaken)

Iets mechanisch zou ik persoonlijk ook strakkere limieten op zetten dan we nu hebben. Bijvoorbeeld het hebben van een product en een werkende demo. Er zijn te veel claims die alleen uit een idee bestaan zonder product. Er zijn dus heel veel patenten in de lijn van "wat we altijd al deden, maar nu met een computer", zonder details of implementatie. Dat zou ook niet moeten bestaan.

Maar goed dit is moeilijke materie en je bent het er mee eens of niet. Het is een wereldwijde actuele discussie.
In jou lijn van gedachte kun je ook patent hebben op een boek.... Waar is copyright dan nog voor nodig?

[Reactie gewijzigd door bzuidgeest op 22 juli 2024 17:48]

AV1 wordt al gebruikt door Netflix en YouTube en wat de hardware betreft hebben behoorlijk wat nieuwe smart-tv's ingebouwde ondersteuning.
Hoe weet Youtube dan welke codec het voor moet schotelen? Vertelt de browser welke codecs hardwarematige ondersteuning hebben? Ik beschouw mijn RTX 3060 nog steeds als nieuw, maar AV1 ondersteunt ie niet.
Incorrect:

https://www.nvidia.com/en...x-30-series-av1-decoding/

Decoding wordt ondersteund. Encoding echter niet.
Met o.a. Firefox addon "Enhancer for YouTube" en youtube-dl kan je zelf de codec kiezen.
Het lijkt mij daarom dat de servers gewoon alles aanbieden wat er is, en het de clients zijn die bepalen welke daarvan te nemen.
Omdat ikzelf alleen hardware h.264 heb, stel ik het altijd daarop in.
Maar hoe de officiele site/apps dat bepalen weet ik ook niet.

[Reactie gewijzigd door N8w8 op 22 juli 2024 17:48]

Volgens mij ondersteund NVIDIA met de RTX 30xx kaarten wel AV1 decoding maar geen encoding.
In de RTX 40xx kaarten zit in NVENC ook AV1 encoding ingebouwd.
Meer een vraagje, maar waarom is het belangrijk dat hardware ondersteuning er komt als bijv de gemiddelde smart tv het ook prima softwarematig kan decoderen? Ik bedoel als mijn smart tv cpu staat te laaien op 50% of iets, ik doe toch niets anders tegelijk. Is dat dan enkel in het voordeel van bijv stroom verbruik? Op een PC snap ik het wel, daar wil je het liefst je CPU vrij houden voor andere taken, maar daar is HW ondersteuning inmiddels al niet echt een probleem meer lijkt me? Ik moet eerlijk zijn dat de laatste keer dat ik mij druk maakte over of een video via mijn gpu of cpu aan het afspelen was zo ongeveer was tijdens de eerste full HD video's toen mijn CPU dat nog niet aan kon.
Vaak is de CPU te langzaam, of kan alleen bv. 1080p met 24fps, maar geen hogere resoluties in realtime decoden.
Hij meldt op basis van anekdotisch bewijs
Anekdotisch bewijs is geen bewijs. Das net hetzelfde alsof ik zou zeggen dat 95% van de mensen die ik ken Nederlands spreken, dus 95% van de wereldbevolking spreekt Nederlands.

Het lijkt mij veel interessanter te kijken naar welke Videodiensten het wel niet ondersteunen naast Netflix, Youtube en welk marktaandeel die ondersteunen?
Vooral omdat je daar niet alleen zit met internationale spelers als AppleTV, Disney+,AmazonPrime maar ook met lokale(Videoland, Streamz) en met grotere regionale(maar niet-westerse) Arabische, Indische, Russische, Chinese videosites.
Hardware-ondersteuning zegt an sich niks over hoe vaak het gebruikt wordt(maar neemt wel een barrière voor potentieel gebruik weg).
Soms lees je de bron en blijkt dat alle onderbouwing van de cijfers mist, en dat het niet verder komt dan "ik ken iemand die van iemand heeft gehoord dat het veel is" veel is natuurlijk een enorm subjectief begrip en veel ten opzichte van wat? Volgens de bron zou deze 4 jaar oude techniek volgens iemand anders jaarlijks een groei van 30% tot 40% laten zien.. Een groei ten opzichte van wat? van 0,1% marktaandeel, van 5% van 25%

Soms zou een auteur een bron moeten lezen en bij zichzelf denken van: "weet je wat, dit is allemaal zo wazig en nietszeggend, deze slaan we gewoon even over"
Wat een compleet onleesbaar artikel. Ik snap best dat de bronteksten Engels zijn, maar kunnen we een poging doen om de tekst hier in ieder geval fatsoenlijk Nederlands te maken?
Het Nederlands kan ik wel volgen, Waar ik wel moeite mee heb is dat het uiteindelijk gewoon geruchten op basis van een subjectieve inschatting van de kennissen van iemand zijn.

Beter zou het zijn gewoon dit niet te publiceren, of als aanleiding te nemen eens op echt onderzoek te gaan en echte feiten te brengen. Zo is het niks.
Misschien is Tweakers wel een ChatGPT test aan het doen :)
behalve als je apple hebt, want nog altijd geen hw-encode of hw-decode ondersteuning op de A16 noch op de M2 of M2 Pro of M2 Max, zeer gek want apple zit in de AV1 alliantie...

[Reactie gewijzigd door DaveFlash op 22 juli 2024 17:48]

Ik denk dat die hevc en HEIC liever pusht. Enkele jaren geleden hebben ze dat geïntroduceerd en ze gebruiken dat enorm voor video en foto.

Apple being Apple. Ze krijgen ook eindelijk usb-c maar daar komt toch ook weer een mfi sausje overheen.
Dit omdat Apple voor kwaliteit gaat en de AV1 dat gewoon niet is.
Het is alleen leuk om data te besparen, maar de beeldkwaliteit is gewoon slecht.
Je ziet veel compressie fouten zoals extra ruis en blokjes, daarbij is het beeld kunstmatig veel te scherp gemaakt waarbij onderscheid tussen karakters en achtergronden zeer onrealistisch ogen.

Op dit item kan niet meer gereageerd worden.