Disney bevestigt: Dolby Vision is weer beschikbaar op Disney+ na patentzaak

Disney+ biedt weer ondersteuning voor Dolby Vision in Europa. De hdr-standaard was enige tijd niet beschikbaar vanwege een patentzaak tussen InterDigital en Disney. Het is niet duidelijk welke maatregelen Disney heeft getroffen om Dolby Vision weer beschikbaar te kunnen maken.

Disney+ Dolby Vision
Afbeelding via tweaker hardware-lover

Disney gaf vorige maand nog aan dat Dolby Vision was weggehaald vanwege een 'storing', maar bevestigt nu tegenover FlatpanelsHD dat een patentzaak in Duitsland de werkelijke reden was. Het Amerikaanse InterDigital vond dat Disney inbreuk maakte op zijn patenten met het streamen van hdr-content. De rechtbank gaf InterDigital daarin voorlopig gelijk. Hoewel de uitspraak alleen gold in Duitsland, werd Dolby Vision ook weggehaald in onder meer Nederland en België.

"We hebben zo snel mogelijk gewerkt aan oplossingen waardoor kijkers de best mogelijke ervaring krijgen op hun apparaten en abonnementen", zegt Disney nu. Het is niet duidelijk of het een overeenkomst heeft getroffen met InterDigital, of dat Disney aanpassingen heeft gedaan aan de hdr-implementatie om niet langer de patenten van dat bedrijf te schenden.

Woensdag ontdekten gebruikers al dat Disney+ weer Dolby Vision ondersteunde, al merkte Tweakers tijdens een test op een LG-oledtelevisie dat het beeld nog niet hdr leek te zijn. Het is niet duidelijk of dit een toevalstreffer was of een algemeen probleem is.

Door Kevin Krikhaar

Redacteur

13-03-2026 • 09:26

67

Submitter: CLB

Reacties (67)

Sorteer op:

Weergave:

Ik heb het hele concept van Dolby Vision nooit gesnapt. Ja volgens de cijfers zou het beter moeten zijn.
Maar zien mensen echt het verschil tussen HDR en Dolby Vision?

Ik niet in ieder geval, en ik lig toch aardig te pielen met de instellingen. De gemiddelde gebruiker zet z'n TV gewoon op 'vivid', of 'bioscoop', en relateert beeldkwaliteit aan de hoe fel de wand verlicht word.

[Reactie gewijzigd door fRiEtJeSaTe op 13 maart 2026 09:34]

Het verschil zit hem in scène optimalisatie door de dynamische metadata van HDR10+ en DV, vergeleken met hdr10.

Ik vind HDR10+ en met name DV er stukken beter uitzien dan hdr10 op mijn TCL c7k.
Dit is inderdaad waar het om draait. De helderheid, kleur en het contrast van het beeld wordt per scène of zelfs per frame (beeldje) aangepast, in plaats van voor de hele film in één keer. Dat maakt echt wel verschil.
Dit kwam voor mij laatst ter sprake toen ik Frankenstein in DV heb gekeken en kort daarna Greenland 1 in HDR10. De verschillen konden haast niet groter zijn. Greenland had echt nog wel wat mooie highlights, maar het vuur van de fakkels van Frankenstein leken haast uit het beeld te spatten. De kleuren en het contrast was gigantisch veel beter in de DV film.
Verschillende films vergelijkingen is natuurlijk een beetje raar. Je weet tenslotte niet hoe ze zijn opgenomen en wat de artistieke visie was. Er zijn ook regisseurs die helemaal niet happy zijn met hdr. Zelf vind ik van het scherm spatten niet echt de maatstaf. Persoonlijk vind ik het veel beter als het in details is te zien i.p.v. dat je beeldscherm lijkt op een Jamin snoepwinkel.
Je ziet een klein beetje meer detail in donkere scenes. En omdat Dolby het makkelijker te implementeren heeft gemaakt is er veel bredere support dan HDR10+ of HLG.

Voor de rest zijn het diminishing returns qua kleuren met 1 miljard HDR10 vs 68 miljard Dolby, of op het moment voor de thuisgebruiker irrelevant dingen zoals 4000 vs 10 000 nits. De meeste TVs halen op het moment 500-1000 nits.
10.000 nits lijkt me sowieso erg overdreven op een gemiddelde tv. De meeste mensen kijken 's avonds tv, sommigen (zoals ik) ook nog in een iets donkerder kamer. Dan is 10.000 nits funest voor je ogen.
Is niet overdreven gaat om gedeeltelijke scherm brightness hele kleine delen. Daar is echt wel overna gedacht. Los van dat de hoeveel nits niet gelijkwaardig voor ons oog stijgt.
Inderdaad, felle highlights kunnen erg indrukwekkend zijn. Maar het wordt pas in de toekomst relevant voor thuis, omdat TVs gewoon nog niet zo fel licht kunnen weergeven. 2.000-3.000 cd/m2 piekhelderheid kan je al wel kopen in de topmodellen. TCL belooft dat ze een 10.000 cd/m2 mini-led scherm verkopen, maar ik zie nog geen reviews met metingen die dat bevestigen.

En dan nog is het de vraag of je dat niet wat naar beneden bijstelt als je rustig aan het kijken bent.
Nieuwste schermen doen 4500 nits hoor in kleine windows van qd oled. Maar genoeg schermen hebben t nog niet.
Ah, ik zie het. In sommige instellingen van specifiek de 77 Inch samsung oled lijkt het mogelijk - maar niet in de filmmakers modus. De andere oleds doen dit nog niet.
Is niet overdreven gaat om gedeeltelijke scherm brightness hele kleine delen. Daar is echt wel overna gedacht. Los van dat de hoeveel nits niet gelijkwaardig voor ons oog stijgt.
Volgens wiki is het aangeboden materiaal vaak beperkt to 1000 of 4000 nits, dus op dit moment is 10 000 nits niet nodig. Ja er zal wel overnagedacht zijn over die 10 000 maximum, maar er spelen ook andere dingen mee als beeldkwaliteit. 1. Marketing; 2. Het is handig dat het formaat niet de beperking is.
"Je ziet een klein beetje meer detail in donkere scenes" <-- Dit klopt maar het is wel wat meer dan dat. Dynamische metadata met DV zorgt ervoor dat je elke scene, elk beeld anders kan worden ingesteld. Met normaal HDR is daar geen sprake van. Hoeveel je daarvan echt in de praktijk merkt hangt van de implementatie af per content.
Ik ben de tv-serie Paradise aan het volgen op Disney+. Tot eergisteren in HDR10 omwille van de patent problemen. Maar gisteren vond ik het beeld plots opmerkelijk beter. En jawel hoor, nadien even gechecked en Dolby Vision was er terug. Dus voor mij maakt het zeker een wezenlijk verschil. Ik heb wel een high-end Sony A95L tv die correct is afgesteld. Met een mindere tv en/of slechte instellingen zal het resultaat wel minder zijn.

Verder kan ik nog wel meegeven dat de Disney+ streams behoorlijk wat micro stutter geven op mijn tv (met toch wel een recente en krachtige MediaTek Pentonic 1000 SoC, en een bedrade gbit fiber connectie). Daar zou Disney echt nog aan moeten werken.
De micro stutter lijkt gerelateerd aan de frame rate matching. Als ik die uitzet is t iig met een Google tv streamer weg.
De Disney app ondersteunde QMS met de Google Streamer, maar dat was op een gegeven moment niet meer het geval. Is dat nu wel weer zo, zichtbaar actief worden met een melding in beeld (zoals eerst)?

Zoals ik begrepen heb, is dat nu nog steeds niet teruggekomen, of toch wel?
nee klopt, maar volgens mij doet de streamer zelf en framerate sync.

Die heb ik specifiek uitgezet en nu is t beter. (kodi / jellyfin doet overigens nog _wel_ expliciet de sync, ookal staat dit uit)
Nee, dat kan ie enkel indien de aangesloten TV/Panel/etc. QMS zou ondersteunen, je kan dan de seamless framerate optie gebruiken.

Non seamless framerate werkt niet met de meeste streaming apps, met Netflix wel, maar dat is een van de weinige met de Streamer. Wanneer QMS werkelijk gebruikt kan worden, dan geven vele andere streaming apps (HBO, SkyShowtime, etc.), ook een auto framerate optie (QMS/seamless support).

Maar ik verwacht dat iets in jouw gebruikte setup het QMS label niet laat zien of niet kan laten zien?

Hier onder in beeld als het actief wordt (link van Reddit geleend)
Kijk je de apps via de tv? Het beste resultaat krijg je vaak wel via een kastje, in het bijzonder is de Apple TV eigenlijk de beste mediastreamer voor streamingsdiensten op je tv. Ik heb verschillende systemen zoals de Shield, apps op de tv en zelfs op de ps pro geprobeerd maar de Apple TV gaat het beste om met frame matching en hdr.

De Shield of überhaupt Google TV vind ik echt slecht in omgang met media (behalve YouTube). Nu speelt de app zelf ook soms mee hoe het geprogrammeerd is want Skyshowtime bijv gooit gewoon 60hz aan, no matter what en met sommige content krijg je 24hz en die 24hz met film wil je gewoon.

Het micro stutter probleem kan trouwens ook gewoon aan de buffer liggen. Als hij ineens naar een andere resolutie springt omdat de buffer goed is, dan kan het beeld even verspringen in native tv apps, dat ligt zeker niet aan de soc van Sony.

Wat ook echt een onderliggend probleem is met LCD/OLED schermen en waar heel weinig over gesproken wordt is de pixel response time methode wat een digitaal scherm nodig heeft om beeld weer te geven. Dit lijkt op judder en stutter maar dat is het in werkeljkheid niet.
Ik gebruik de tv app. Maar het lijkt me toch echt aan Disney te liggen, want Netflix bv heeft hier geen last van. Dus oftewel schort er iets met hun media player, of hun backend.

Voor eigen media gebruik ik een Ugoos AM6B+ met de laatste CoreElec builds. Dit werkt echt meesterlijk goed. Dolby Vision FEL, TrueHD Atmos, DTS:X, ... allemaal geen probleem en perfect weergegeven. Het doet een mens soms wel afvragen waarom nog (veel) te betalen voor allerlei streamingdiensten ipv naar de high seas te gaan...
Ja dan klopt het wel wat ik bedoel :) Tv's hebben gewoon die capaciteit niet qua rekenkracht om alles vloeiender en geoptimaliseerder te laten lopen dan dat een Shield of Apple TV dat heeft. Heeft een TV nou een Nvidia chip zoals de Shield of een A chip zoals de Apple TV, dan zou alles echt een stuk beter lopen.

Netflix loopt idd goed maar die zijn al sinds 2010 ofzo met hun systeem bezig en ze hebben ook een patent op hun buffer systeem geloof ik of nemen daar een exclusieve licentie op af. De Netflix app en Disney app zijn wel lichtgewichten tegen zwaargewichten in dat opzicht maar eerlijk, Disney kan qua bitrate wel hoger dan Netflix, ze doen het niet maar het kan wel :*)

Dit zijn o.a wel redenen waarom je eigen Ugoos beter loopt omdat het extern is. Probeer de tv zo dom mogelijk te houden en je haalt de maximale performance met je content.
Ik ben het helemaal met je eens dat je net zoals met audio, wel op dit soort dingen echt moet letten om de verschillen te zien (en in het geval van audio natuurlijk horen). Pas als je non-DV en DV-content naast elkaar gaat houden zie je echt de verschillen. In essentie is het gewoon dynamische metadata van kleuren per scène.

[Reactie gewijzigd door Kopri op 13 maart 2026 09:43]

Er zit een "flag" in de scene ingebakken die aangeeft hoe de scene weergegeven zou moeten worden.
Op dit moment niet echt goed te zien.

Het is pas echt een voordeel als je ook hardware hebt die dit kan weergeven. O.a. is DV 12 bit en "HDR10" 10 bit. Met een piek helderheid can 10.000 vs 4.000.

HDR10+ voegt dan wel dynamisch bereik toe, wat DV ook heeft.

Vind maar een consumenten TV die dit aan kan. Dus in mijn ogen voor consumenten niet echt relevant plus dat via streaming de bitrate dusdanig laag is dat het verschil echt te verwaarlozen is. Op een schijf met deugdelijke hardware zou je wel wat verschil kunnen merken in kleurbereik misschien door de 12 bit. Maar dan moet je er wel voor zorgen dat je hardware goed gekalibreerd is.

Conclusie, geneuzel in de marge, maar ja je betaald er voor......
Met een kleine kanttekening dat op mijn TV de Dolby Vision modus wel is dekalibreerd, maar de HLG en HDR10 modi niet.
Daarnaast zijn er wat zaken die uitgezet worden door de TV zodra Dolby Vision content wordt afgespeeld.

Je kan met de andere vast ook wel in de buurt komen, maar het werkte prima zo, dus waarom zou ik?
Zeg ook niet dat je zou moeten. Als je HLG/HDR10 zou kalibreren, zal het effect/verschil laag zijn.

Ik snap dat als je DV gekalibreerd hebt en Disney zet het uit dat je opnieuw zou moeten beginnen. Maar dat was niet de vraag van @fRiEtJeSaTe .
Ook nog eens dat alleen DV Profile 7 met Full Enhancement Layer 12 Bit is, dus alleen met films op Blu-Ray. Meeste mensen streamen hun films dus bekijken DV in Profile 5 wat weer 10bit is, dus zelfs met hoge streaming bitrate is het verschil minimaal tussen DV en HDR10. Dus maakt geen bal uit als je geen Blu-Ray speler gebruikt.

[Reactie gewijzigd door Smash1231 op 13 maart 2026 12:03]

Mijn TV (Philips OLED) kan niet goed overweg met HDR. Alles is te donker, contrasten afwezig.

DV is spetterend mooi. Dus ik heb liever DV.
Ligt dat aan het OS van je tv? Mijn oudere mibox 2nd gen kan DV en HDR10+ aan.
Maar zien mensen echt het verschil tussen HDR en Dolby Vision?
Je stelt de vraag verkeerd, maar het antwoord is ja, maar nee.
Dolby Vision is een vorm van HDR, net als HDR10, HDR10+ en HLG. Volgens mij heeft Dolby Vision de meeste potentie van HDR (verbeter me, maar dat is niet mijn punt), maar welke ook de betere is: je hebt geen garantie.

Bij autobanden heb je een snelheidsindicator op de band (T = 190km/uur, H = 210km/uur en V = 240km/uur bijvoorbeeld). Maar dat garandeert niet dat je auto daadwerkelijk zo hard gaat.
En zo ook bij elke vorm van HDR: volgens mij is het een protocol en geen garantie. Stel dat HDR10 het minst uitgebreid is en Dolby Vision het meest uitgebreid, geloof ik best dat een film met HDR10 er qua HDR er beter kan uitzien dan een film met Dolby Vision.

En dat is het met veel standaarden: leuk als protocol, maar verwacht niks aan kwaliteit. Met 4K/UHD is het zelfs problematisch dat sub-4K resoluties opgeschaald (kunnen) worden naar 4K en dan zit je naar een effectief mindere kwaliteit te kijken. Een aantal Harry Potter films zien er op UHD bluray qua scherpte een stuk slechter uit dan 2001: a space Oddyssey.
Alleen al het feit dat ‘normaal’ HDR statisch is, en voor een hele film constant blijft, heeft DV een dynamisch karakter, waarbij het per scène kan bijsturen. HDR10+ heeft dat ook, maar dat is minder gesupport. DV is dus wel degelijk een welkome toevoeging op een stream!
Bij een normale implementatie valt DoVi gewoon terug op HDR als het niet ondersteund wordt. Dus je verliest er niets aan, maar als het werkt is het een mooie bonus. Zo zie ik het maar.

Dat de gemiddelde persoon zijn tv op een of andere “intense/action” preset zet met sharpness op 100 en het dan nog mooi vindt ook, ja, ik zal het ook nooit begrijpen, maar als je wel begrijpt hoe waardeloos dat is dan is de potentie van DoVi waarschijnlijk juist interessant voor je. Het is HDR maar dan met dynamische settings per scène, dus dat is toch mooi meegenomen.
Dolby Vision is mede groot geworden door Dolby Cinema: een combo van Dolby Atmos en Dolby Vision in bioscopen. Daarbij heeft DV op papier betere specs dan HDR10+ en was het er 3 jaar eerder. Dit zorgde voor momentum. Hoewel Samsung vast bleef houden aan HDR10+ was het Apple die DV omarmde voor opnames en playback wat ook een enorme boost gaf. De belangrijkste reden van adoptie waren echter streamingdiensten die DV als een gek implementeerde. Maar is het beter?

Een goede tv met HDR10+ kan er beter uitzien dan een slechte tv met Dolby Vision en dat zegt veel. Niet over de standaard, maar over de implementatie op die tv. Op een goede tv kunnen de kleine verschillen zichtbaar worden. Veel streaming Dolby Vision is rond 1000 nits gemasterd, waardoor tone-mapping van de tv vaak belangrijker is dan de metadata zelf. Op een budget LCD is het verschil vaak zo klein dat het logo soms het meest zichtbare verschil is.

Het verschil moet je zoeken in kleine details. Dolby Vision verbeteringen zitten vaak in: highlight detail (zon, reflecties), banding reductie en schaduwdetail. Nee, dit maakt een tv niet opeens veel beter, maar een freak let hier wel op. Ook verpesten tv presets DV vaak: denk aan Vivid en/of Dynamic. De HDR weergave gaat hiermee verloren.

Als een tv niet super helder is (klinkt tegenstrijdig), de content extreme contrastscènes heeft en de DV-engine op de tv goed is, dan merk je wel degelijk verschil. In dat soort situaties kan Dolby Vision echt zijn voordeel laten zien. Voor alle overige situaties valt het mee tenzij je Dolby's samples bekijkt natuurlijk zoals Escape. De rest is hype: wie wil nu niet het DV logo op zijn tv zien. Daar haken streamingdiensten op in met Dolby Vision Profile 5, maar hoe groot het verschil is hangt uiteindelijk af van de mastering.
Ik kan op mijn Apple TV kiezen voor Dolby Vision en HDR. HDR kan je dan zelf laten kalibreren met je Iphone.

Na calibratie zien de kleuren er iets beter en verzadigder uit. Die stap hoef ik bij Dolby Vision niet te doen (kan ook niet). Omdat in de meta data dit al verwerkt zit en de stap van Calibratie overgeslagen kan worden. DV is dus meer "monkey proof", maar het zijn geen verschillen die de gemiddelde consument echt gaat zien.
Een ander verschil met HDR wat zowel HDR10+ als Dolby Vision hebben is dat ze als men het nodig acht de HDR per frame aan kunnen passen. Zo kan men tijdens de edits voor het eindproduct van een film dus per scene (wat meer normaal is) beslissen of ze de scene donkerder, of feller, of verzadigder willen hebben.

Dit is ook een reden waarom dit bij games niet aanslaat. Bij games kan men tenslotte de bron al aanpassen door bv bepaalde lampen net iets feller te laten schijnen dan in andere straten om maar een voorbeeldje te noemen. Bij spellen heeft men tenslotte totale controle bij een scene of een gebied.
De gemiddelde consument streamt ook alles. Niet alleen is de bitrate lager dan Blu-Ray, Dolby Vision is alleen beschikbaar in Profile 5 via de streamings diensten. Profile 5 is 10 bit, alleen Profile 7 met Full Enhancement Layer is 12 bit en alleen films op Blu-Ray gebruiken dat. Dus zelfs als je scherm goed gekalibreerd is dan is er bijna geen verschil tussen DV en HDR10 als je films streamt en niet de Blu-Ray speler gebruikt.

[Reactie gewijzigd door Smash1231 op 13 maart 2026 12:02]

kleine correctie....P5 is 11,5bit...niet 10bit...maar P5 gebruikt ook totaal andere color space dan P7 FEL...qua beeldkwaliteit vaan hoog naar laag


P7 FEL >> P5 >> P8 >> HDR
Nee, je kan via een ingebouwde app (in IOs) je camera op het scherm richten. De Apple TV laat dan een reeks kleuren zien die de camera op pikt en vanuit dat punt wordt de calibratie gedaan.

Ik moet zeggen, dat het ervoor zorgt dat HDR dicht tegen het kleurenpalet van DV aanzit, dus het werkt op zich prima.
Wat een grap. Er zijn zoveel variabelen die hierbij komen kijken waardoor dit nooit accuraat kan zijn. Wassen neus.
Same here. Ik krijg bij de meeste Dolby technieken (audio en video) het gevoel dat ze technisch gezien vooral marketing zijn en dus een truuk om de inkomsenstroom uit patenten, licenties en octrooien zeker te stellen.
Mij valt het verschil dus wel echt duidelijk op, ik baal eigenlijk als ergens gewoon HDR bijstaat ipv dolby vision.

Een belangrijke sidenote is wel dat je tv hoge nits ondersteunt,

Doordat dolby vision 12 bit is ipv de 10 bit van HDR10 en HDR10+ is het kleurbereio veel groter. Ook word er per scène of zelfs per fragment live data meegezonden waardoor het beeld altijd zo perfect mogelijk is.


Een ander nadeel is dat streamingsdiensten vaak lage bitrate's gebruiken, alsnog is dolby vision dan mooier als gewone HDR, maar er komt wel veel digitale ruis bij.
”Disney gaf vorige maand nog aan dat Dolby Vision was weggehaald vanwege een 'storing', maar bevestigt nu tegenover FlatpanelsHD dat een patentzaak in Duitsland de werkelijke reden was.”

Zeg dat dan direct. Dat is toch helemaal niet erg.
”Disney gaf vorige maand nog aan dat Dolby Vision was weggehaald vanwege een 'storing', maar bevestigt nu tegenover FlatpanelsHD dat een patentzaak in Duitsland de werkelijke reden was.”

Zeg dat dan direct. Dat is toch helemaal niet erg.
Bedrijven zijn bang om echt eerlijk te zijn, want reputatieschade. Ik kan het juist waarderen als bedrijven eerlijk zijn, net zoals mensen. Als ze iets niet willen toegeven brengt het juist hun geloofwaardigheid en betrouwbaarheid in diskrediet.
Ik snap ook niet zo goed waarom ze het dan nu wél erkennen. Als ze bang zijn voor reputatieschade, zouden ze toch blijven ontkennen?
Ja dat denk ik dan ook - dan is de "schade" achteraf, zoals nu, alleen maar erger toch? Dan geef je ook nog toe dat je verdoezelt.
Ik denk dat ze dat doen omdat een storing wel te verhelpen is maar een patentzaak misschien betekent dat het permanent is en dat mensen dan misschien hun abonnement annuleren.
Maar dat kan dan toch alsnog gebeuren, nu dat ze bekend hebben?
Beide kan voor even zijn en beide voor altijd, ik zie het verschil niet.

Maar het feit dat ze er over liegen zou mij meer storen dan het feit dat eens wat misgaat.

Patenten kan je bijna altijd oplossen door gewoon te betalen voor een licentie, dus ook dat is vrijwel altijd tijdelijk.

[Reactie gewijzigd door watercoolertje op 13 maart 2026 10:10]

En dit is dan ook de kritische noot die we graag in het artikel van Tweakers lezen.
Helaas is die tijd wel een beetje voorbij hier. Je hebt in mijn ogen helemaal gelijk.
Het kan heel goed kloppen dat mensen het verschil tussen HDR10 en Dolby Vision niet of nauwelijks zien. Onderstaande video (met timestamp van de conclusie) van Vincent Theo legt dit wat mij betreft aardig uit.

YouTube: Dolby Vision Streaming vs HDR10 4K Blu-ray Disc Comparison

Het komt er op neer dat hoe kleiner het verschil is tussen de maximale content helderheid van de DV/HDR master en de piekhelderheid van de tv, hoe nuttelozer Dolby Vision wordt. Het signaal kan dan voor een groter gedeelte 1 op 1 worden weergegeven waardoor er minder aanpassingen per frame of scene gedaan hoeven te worden (dynamic metadata van DV).

Deze video is 5 jaar geleden gepost en van het handje vol titels dat getest werd was er al 1 waarbij de DV niks tot weinig toevoegt. De piekhelderheid van de tv oversteeg de maximale content helderheid van in dit geval de Star Wars master. De tv die gebruikt werd was de LG CX, deze heeft een piekhelderheid van rond de 800 nits. Inmiddels zit de recente C5 op 1150 nits, waar een G5 op 2300 nits zit. Wanneer je bedenkt dat er veel content op 1000 nits gemasterd wordt kun je je voorstellen dat DV steeds minder doet.

Ik denk dan ook dat het niet voor niets is dat Dolby Vision 2 eraan komt waarbij ze veel inzetten op zaken als "motion clarity" en "precision black". De basis van DV (de dynamische metadata) wordt namelijk steeds minder relevant.

Wat betreft de kleuren, in theorie zijn deze inderdaad in DV een veelvoud van de kleuren in HDR10. Maar aangezien er nog geen native 12 bit panelen zijn wordt deze extra data vooral gebruikt om overgangen beter weer te geven, met minder banding.

[Reactie gewijzigd door mhulsie op 13 maart 2026 14:51]

Deze app heb ik jaren geleden verbannen, wat een draak van een app, slechte buffering, slechte gui, willekeurige logouts en natuurlijk de druggebruiker bedrijfsstrategie (pst, streamen proberen, kost ja bijna niks!).


Dikke doei!
en natuurlijk de druggebruiker bedrijfsstrategie (pst, streamen proberen, kost ja bijna niks!).
Daar is niet echt sprake meer van. Het is nu gewoon een hoog bedrag betalen voor een abonnement zonder advertenties, en nog meer als je met hoge kwaliteit wilt kijken. De jaarlijkse verhoging laat de prijs veel sneller stijgen ten opzichte van de inflatie.

[Reactie gewijzigd door The Zep Man op 13 maart 2026 10:23]

Deze app heb ik jaren geleden verbannen, wat een draak van een app, slechte buffering, slechte gui, willekeurige logouts en natuurlijk de druggebruiker bedrijfsstrategie (pst, streamen proberen, kost ja bijna niks!).
De slechte buffering is hier ook wel eens een probleem. Maar de andere dingen herken ik niet. Sterker nog, ik kijk in bed liever via de Disney app dan die van Netflix. Netflix respecteert de instellingen van de telefoon niet wat betreft helderheid. Wanneer ik mijn telefoon extra donker zet werkt dat prima met Disney, maar weer niet met Netflix. Die blijft enorm fel en dat is vervelend wanneer je in bed ligt. Zowel Netflix als Disney mogen wat mij betreft aanpassingen doen aan de UI. Maar over het algemeen vind ik Disney daarin ook beter dan Netflix. Disney werkt voor kinderen ook fijn. Het gebeurd niet vaak gelukkig, maar af en toe mogen ze even op mijn telefoon wat kijken. Dan is het fijn dat Disney geen autoplay heeft voor kinderprofielen en een goede manier heeft om je beeldscherm te locken. Kinderen raken al snel een scherm aan en het is niet de bedoeling dat ze (per ongeluk) vanalles gaan doen.

Ik erger me misschien meer aan de gebrekkige content op Disney. Je zou zeggen dat ze genoeg films kunnen aanbieden, maar op een of andere manier komt er amper iets nieuws voorbij.
Ik heb een x aantal streamingsdiensten maar ik moet zeggen dat ze allemaal wel traag zijn met nieuwe content.
Geen idee waar je het over hebt... App werkt op meerdere platforms (LG WebOS, Nvidia Shield / Android, PC) uitstekend. Beeldkwaliteit is ook gewoon goed.
In welke set-up heb je Disney gebruikt?
3 verschillende android apparaten van 2 merken en met/zonder chromecast met een flink wifibereik(weinig netwerken in de buurt en router op minder dan 3m) maar ook via 4g.


Jaren geleden dus, zoals ik opmerkte.

[Reactie gewijzigd door Morress op 13 maart 2026 13:47]

Ja, android moet je eigenlijk vermijden met streamingdiensten. Het werkt gewoon niet goed samen.

Probeer de Apple TV eens of op de LG, Sony of Panasonic als native app van de tv.
Uh, nee bedankt.

Apple komt er niet in hier.


Bovendien als disnep aanbiedt op een platform, dient het gewoon goed te werken.


Ik betaal, dus ik bepaal. Ik heb bepaald dat ik er niks meer meer mee te maken wil hebben omdat er bagger geleverd wordt.


Als de bakker mij een aantal keer halfbakker brood levert en het verbeterd niet, dan kom ik ook niet meer, zat andere bakkers.

[Reactie gewijzigd door Morress op 15 maart 2026 14:12]

Ik begrijp je, dat heb ik andersom met Android. Het enige apparaat hier wat Android heeft is de Shield.

Ik snap je punt maar het ligt ook aan de combinatie met het OS en Android TV werkt gewoon niet goed. Jammer maar helaas wel waar.

Het ligt wel wat complexer dan enkel een app afschrijven. Zo vind ik Showtime bijv via de LG en Panasonic apart dat daar wel surround te horen is maar met dezelfde content alleen stereo op de Apple TV.
Hoewel Dolby Vision vaak wordt gepresenteerd als een grote verbetering in beeldkwaliteit, kleven er ook nadelen aan. Veel apparaten ondersteunen deze technologie namelijk niet eens. Daardoor kan het zijn dat je een functie hebt waar je uiteindelijk niets aan hebt. Daarnaast vereist Dolby Vision een sterke en stabiele internetverbinding, omdat er meer data gestreamd moet worden om de hogere beeldkwaliteit te leveren.

Uiteraard zitten hier extra kosten aan verbonden, bijvoorbeeld door licenties of abonnementen of duurdere hardware. Alles bij elkaar is het voor mij daarom geen doorslaggevende technologie (voor nu). Door de beperkte ondersteuning, de hogere eisen aan internet en mogelijke kosten lijkt het mij geen apparaat of functie die ik in de nabije toekomst zou aanschaffen.
Als je apparaat het niet ondersteunt valt het gewoon terug op HDR. En internetverbinding is geen probleem. Wie heeft er nu internet dat niet snel genoeg is om dit soort content te streamen? Aan een 30Mbit verbinding zou je in theorie al genoeg hebben voor 4K DoVi HDR met Atmos.
Wel met genoeg compressie inderdaad - en zoals de netwerken het ook versturen. Lokale mediabestanden zijn al snel 60 Mbit/sec met die eigenschappen (film van 60GB van 2 uur). Dus daar heb je wel een 10Gbit lokaal netwerk voor nodig :+
Klok, klepel.
Dolby Vision is een beeldformaat. Waarom zou daar internet voor nodig zijn?
Deze streamingdiensten hebben verder de bandbreedte die met een 50MBit lijntje ook binnen te halen is. Dat is anno 2026 de facto de baseline om überhaupt als breedband internet te kunnen zien.

Het grote nadeel van Dolby Vision is reeds in de naam: Het is een Dolby standaard, dus een gesloten standaard in handen van een enkel bedrijf. Een open standaard zou beter zijn, dan zouden zaken als in dit artikel ook voorkomen kunnen worden. Maar zo werkt de wereld helaas niet.
Is het tijdelijk niet leveren conform contract reden voor een compensatie?

Op dit item kan niet meer gereageerd worden.