Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 60 reacties

Microsoft integreert eind dit jaar hdr-ondersteuning in previewversies van Windows 10 en in 2017 komt de weergavemogelijkheid naar eindgebruikers. Het bedrijf spoort gameontwikkelaars aan hdr-weergave in hun games te integreren.

Microsoft kondigde de komst van hdr-weergave voor games in Windows 10 aan tijdens de GDC in San Francisco, een presentatie over DirectX 12 waar DualShockers bij aanwezig was. De hdr-adoptie zal sneller gaan dan bij 4k, verwacht Microsoft, mede omdat het effect indrukwekkend is en gebruikers direct het voordeel zouden zien. Omdat gameontwikkelaars straks onderscheid kunnen maken in helderheid bij objecten, zouden gamers beter kunnen onderscheiden of het bijvoorbeeld om de zon, een reflectie of een gloed gaat. Hierdoor zou de mate van de waargenomen realisme toenemen.

Oled en laptop-schermen blijven nog wel even achterlopen wat betreft de maximale helderheid, denkt Microsoft. Zo is die helderheid bij die schermtypes dit jaar maximaal 450cd/m2, waar dat bij ultra-hd premium-tv's met hdr-ondersteuning al 1000cd/m2 is. Tegen 2020 zouden die waardes op respectievelijk 725 en 3000cd/m2 moeten liggen.

De maximale helderheid wordt dan door schermfabrikanten beperkt en niet door Windows, benadrukte het bedrijf bij de presentatie. De standaard die Windows 10 gaat ondersteunen zet het maximum op theoretisch 10.000cd/m2. Tegen 2025 zou vervolgens een formaat met maximum van 5 miljoen cd/m2 geïmplementeerd kunnen worden.

Nog dit jaar kunnen ontwikkelaars met hdr-ondersteuning aan de slag: Microsoft raadt hen aan deel te nemen aan het Windows Insider Programma voor previewtoegang en een tv met hdr-ondersteuning aan te schaffen.

Microsoft DX12 Windows GDC HDRMicrosoft DX12 Windows GDC HDRMicrosoft DX12 Windows GDC HDRMicrosoft DX12 Windows GDC HDRMicrosoft DX12 Windows GDC HDRMicrosoft DX12 Windows GDC HDRMicrosoft DX12 Windows GDC HDRMicrosoft DX12 Windows GDC HDRMicrosoft DX12 Windows GDC HDRMicrosoft DX12 Windows GDC HDRMicrosoft DX12 Windows GDC HDRMicrosoft DX12 Windows GDC HDRMicrosoft DX12 Windows GDC HDR

Moderatie-faq Wijzig weergave

Reacties (60)

Denk inet dat dit een goede toevoeging gaat zijn komende 5 jaar.

Hardware heeft al een BEHOORLIJKE inhaal slag te maken om games weer op een single gpu te kunnen spelen in 4k @60fps en voor zover ik weet gebruikt HDR nog meer rekenkracht.

Tenzij de games pre rendered HDR textures eenz hebben dan kost het niks extra maar dan hebben we ook geen windows ondersteuning nodig omdat de game gewoon de juiste kleuren wegstuurt naar je scherm.
Nee, je hebt geen extra rekenkracht nodig: bijna elke graphics engine rendert intern al "HDR" met floating point en lineair licht. Helemaal aan het einde wordt er een 'tone mapping' post-processing pass gemaakt om van deze floating point kleuren/helderheid naar discrete monitor waardes te gaan. Het dure is dus eigenlijk om *niet* HDR te outputten.

In feite zit je nu aan het einde van een render pass met een floating point buffer en moet je daar een "foto" van maken: het is aan de graphics engine te bepalen wat de beste exposure settings zijn om een zo mooi mogelijk beeld te projecteren op die 3x 8 bits van je monitor. Gamma correctie speelt hier ook nog een rol.

[Reactie gewijzigd door Zoijar op 18 maart 2016 08:51]

Ik weet het niet... Kijk eens naar een blueray film als avatar. En zie hoe onwijs het detail is van deze film zelfs op een 1080p scherm. Iedereen zweert bij een 4 k scherm tegenwoordig. Feit is dat een hogere resolutie niet leidt tot een realistischer beeld. Sterker nog door de hogere resolutie ben je genoodzaakt om de kwaliteit van het beeld juist te verlagen.

Het is momenteel net als met smartphones. men gooit met hogere resoluties in 2 en 4 k waarbij de waarneembaarheid gewoon niet meer aan de orde is. Nu wordt alweer over 8 k gesproken...

Ik denk dat je op een 24 inch 1080p monitor geweldig realistische beelden kunt weergeven. Daar heb je geen 4k voor nodig. Immers een film opgenomen (geen animatie) ziet er ook gewoon als echt uit. Terwijl je in games nog steeds ziet dat het blokkerig is en textures nog niet levensecht zijn. Maar dit heeft niets te maken met de resolutie van het beeld.

Natuurlijk wordt het mooier op een 4k scherm. Maar ze kunnen een game niet eens op 60FPS laten draaien op een 1080p scherm die foto realistisch is. Wat heb je dan precies aan een 4k scherm vraag ik me af. Mijn 980ti kaart van ruim 700 euro kan nog niet eens tombraider op meer dan 40FPS draaien. Het ziet er dan mooi uit. maar nog niet realistisch. Stel je voor dat ik die game met mijn kaartje op 4k zou gaan spelen. Dan boer je alleen maar achteruit.

De hardware op pc gebied is nog helemaal niet klaar voor 4k. En als je dat wel voor elkaar krijgt door 4 titan x kaarten in quad sli te zetten. dan is er nog gewoon geen markt voor en ligen de prijzen gewoon veel te hoog. 4000 euro neer tellen om in 4k te kunnen gamen... het aantal mensen die dat ervoor over heeft is op 2 handen te tellen denk ik

[Reactie gewijzigd door sygys op 18 maart 2016 21:37]

Met je eigen ogen kijk je ook liever niet tegen de zon in. Ook al is een felle zon realistisch het is niet altijd wenselijk.
Wat wel een voordeel zou zijn is dat je met HDR meer kleur/helderheids gradaties kan maken waardoor je mooiere overgangen hebt. Meeste schermen zijn 8 bit en dat is niet meer van deze tijd.
Nou ja, 8 bit * 3 kleuren wat ruim 16 miljoen combinaties is.
Persoonlijk zie ik het verschil niet tussen twee naastliggende waarden...

Het is ook niet om meer kleuren te krijgen, maar om, zoals de naam suggereert, een hoger dynamisch bereik te krijgen.
Extra kleuren gaat je niet daarbij helpen.
Toch zijn dat slechts 256 helderheden per kanaal. 12 bit is al 4096 gradaties. (=2^12)
kleurgradaties zijn subtiel, geen enorm verschil. Maar met meer bits voorkom je Banding

Naast het voorkomen van banding hebben meer bits een postive inloed op de dynamic range. je kan een groter lichtbereik afdekken, ik zal het proberen te verklaren

In de fotografie is elke verdubbeling van de hoeveelheid light 1 stop. met 8 bit kun je slechts 8 verdubbelingen hebben. en dat is weinig voor fotografie. Als je de sterren en de maan samen op de foto wil ga je dat niet redden met 8 bit. De maan is velen malen feller dan de sterren. (10000x?, ik noem maar wat) dan redt je dat niet met 8 bit, en zul je naar 14 bit moeten. Daar heb je 16384 stapjes die je kan maken.

Uiteraard verschilt fotografie met games en beeldschermen. Bij games kan je makkelijk de sterren even helder maken als de maan, waardoor je dit probleem oplost.Zo kan je ook goed donkere en lichte gebieden duidelijk laten zien.Maar de helderheden komen dan niet overeen met de werkelijkheid.Dit heet HDR.Je creeërd dan eigenlijk geen hoge dynamic range, maar perst een hoge dynamic range op een spectrum dat geen hoge dynamic range kan vertonen zoals een monitor. En doordat je donkere gebieden lichter maakt en heldere gebieden juist donkerder, heb je een lager contrast ;)

Wat microsoft nu doet is de ontwikkelaars de mogelijkheid te geven om echte HDR te maken

[Reactie gewijzigd door mrc4nl op 18 maart 2016 00:02]

Wat microsoft nu doet is de ontwikkelaars de mogelijkheid te geven om echte HDR te maken
En daar heb ik dan gelijk kritiek op.
Want als je afspeelapparaat de dynamische ruimte niet aankan dan zal of het zwart veel te laag liggen, of het licht overbelicht zijn, of allebij tegelijk.
HDR is alleen leuk als je een HDR scherm hebt. En op alle andere scheren zal het minder zijn.
En hoe zit het uberhaupt met masteren van materiaal? Voor welk kleurbereik/dynamisch bereik zal worden gemastered? Dat je gamuts kunt omrekenen is leuk, maar wat blijft er vervolgens over?

Overigens is HDR gewoon HDR, dwz High Dynamc Range. In de data zit wel degelijk een hoog dynamisch bereik. Dat samenpersen doe je alleen als je de werkelijke strekking van de data niet kunt weergeven. Maar dat resultaat is dan geen HDR meer. Je noemt het mischien "HDR" omdat de bron een hoger dynamisch bereik had. Dit is dus het hele probleem op niet-HDR schermen/media. Je kunt niks met dat materiaal zonder het te vervormen.
Ik vind het op dit moment eigenlijk dus een slechte ontwikkeling. Laat eerst maar eens een aanzienelijk deel van de markt HDR monitoren kopen, dan zien we wel verder.
En dan is het nog zo dat ik me afvraag of mensen wel met zo'n enorm dynamisch bereik geconfronteerd willen worden. Volgens mij is het namelijk best wel vermoeiend om naar zoveel contrast te kijken.
8 bit * 3 kleuren wat ruim 16 miljoen combinaties is.
8-bit per kleur is echt 3 keer niks, dat zijn maar 255 kleur-gradaties en dit probleem word steeds beter zichtbaar met hogere resoluties.

Maak je een linear gradient van middeldonker blauw (128) naar 100% felblauw (255), heb je (v.l.n.r.) op een 1440p scherm al banding van 20 pixels breed, wat alleen maar erger word zodra je kleinere kleurgradaties wil doen :X .

In films en foto's heb je nog dithering om banding te voorkomen, maar met games is het huilen met de pet op, zeker zodra er nog een laag destructieve post-processing aan te pas komt.
Beter zou natuurlijk wel mooi zijn, maar voor de meeste mensen is 8 bit genoeg.
Geen idee, bestaan er al 8 bit+ monitoren?
Ik vraag me eigenlijk wel af hoeveel dat scheelt in gewone situaties.
voor de meeste mensen is 8 bit genoeg
Tja, dat is een beetje een dooddoener, voor de meeste mensen zijn Pentium 4's, CRT monitoren, en 160GB HDD's ook genoeg, maar daar zitten we niet voor op tweakers.

10-bit en 8-bit+FRC monitoren zijn er al minstens een half decennium (Dell U3011 b.v.), echter zijn deze tot dusver gericht op professionals, met bijhorende prijskaartjes.
Ik denk dat hij meer bedoelt. wat voegt het daadwerkelijk echt toe als je in een intense online shooter bezig bent je vijand af te knallen. Ik denk niet dat ik dan bezig ben met kijken naar banding en dithering.

Voor professionals is het inderdaad een mooi iets. Maar als ik aan het gamen ben dan is het laatste waar ik op let of mijn monitor 8 bit kleuren of meer weergeeft.

Ik denk wel dat je Pentium 4 vergelijking een beetje mank is. een Pentium 4 met een crt monitor of een high end pc met een net scherm is wel even een ander verschil dan wel of niet 8 bit kunnen weergeven.
Tja, net als bilinear / anisotropisch filteren, en fatsoenlijke anti-aliasing, zijn sommige mensen gewoon blind ervoor. Zelf zie ik vaak zat duidelijke gradaties en banding in games; bij tonemapped fullscreen effecten, skyboxes en vooral alphamapped textures zoals rook.
Ik denk dat hij meer bedoelt. wat voegt het daadwerkelijk echt toe als je in een intense online shooter bezig bent je vijand af te knallen.
Ook zo'n dooddoener, grafische opties die "er niet echt toe doen" kan je doortrekken totdat we op Quake 3 niveau zitten, want tja, wie let daar nou op tijdens het gamen. }:O :z

[Reactie gewijzigd door SirNobax op 18 maart 2016 22:14]

Nou je moet eens kijken naar de ESL league spelers. Deze gasten zetten soms extreem lage resoluties in om zo extra voordeel te krijgen op hun tegenstanders. Ik snap dat het super gaaf is als je aan het gamen bent in een single player. maar ook ik heb mijn games op zijn laagst staan als ik online speel tegen andere. Gewoon omdat de 200 FPS in BF4 gewoon rete smooth en direct reageert.

Verblind worden door je scherm omdat je tegen de zon in kijkt lijkt me niet echt een voordeel.

Al kan het voor een mooie single player game zeker wel realisme toevoegen
In films en foto's heb je nog dithering om banding te voorkomen, maar met games is het huilen met de pet op, zeker zodra er nog een laag destructieve post-processing aan te pas komt.
Dithering is ook gewoon post processing. De enige vereiste is dat je oorspronkelijk in een hogere kleurdiepte rendert. Games passen meestal gewoon niet de juiste techniek toe maar het moet prima kunnen.
De meeste mensen zien het verschil wel, en ik denk jij ook. Normaliter zie je het nauwelijks, maar bij langzame kleurovergangen moet je het zeker zien.
Je hebt maar 256 grijstinten. En ook maar 256 tinten van zwart naar vol blauw of van vol blauw naar wit (zelfse voor rood en groen) dat is niet veel. Ja, combinaties zijn er dan heel veel. Maar dat zegt niet alles.
In de grafische industrie word bijvoorbeeld 10 bit gebruikt. Dat geeft al 1024 tinten per kleur, 1 miljard kleurcombinaties.

Maar hier gaat het ook vooral om meer contrast. Zodat je in schaduw gebieden nog dingen kunt onderscheiden en dat je 'verblind' word door de Zon.
*Meeste schermen zijn 6 bit + FRC. 8 bit is beter dan gemiddeld.
http://www.iiyama.com/gl_en/products/prolite-xb2483hsu-1/

Klopt het dan dat mijn scherm echt 24 bit is. Lijkt me echt onwaarschijnlijk als ik jou reactie zo lees.
8bit per kleur. Rgb is dan 24 bits
Rgb alpha tog? Dus 6 bit
Nee ieder paneel geeft weer in rgb.
Niet alleen dat, maar wat denk je van nachtscenes? Films en games zijn altijd overbelicht, want als het realistisch donker is dan zie je gewoon niks meer op een scherm. Met HDR zie je dan denk ik een stuk meer.
Ik vind het juist een toevoeging als de zon vel is. Als er een sneeuwstorm is en je ziet niks
Oled en laptop-schermen blijven nog wel even achterlopen wat betreft de maximale helderheid, denkt Microsoft. Zo is die helderheid bij die schermtypes dit jaar maximaal 450cd/m2, waar dat bij ultra-hd premium-tv's met hdr-ondersteuning al 1000cd/m2 is. Tegen 2020 zouden die waardes op respectievelijk 725 en 3000cd/m2 moeten liggen.

De maximale helderheid wordt dan door schermfabrikanten beperkt en niet door Windows, benadrukte het bedrijf bij de presentatie. De standaard die Windows 10 gaat ondersteunen zet het maximum op theoretisch 10.000cd/m2. Tegen 2025 zou vervolgens een formaat met maximum van 5 miljoen cd/m2 geïmplementeerd kunnen worden.
Mis ik iets of kun je straks je monitor als bouwlamp gaan gebruiken? Momenteel kan m'n monitor tot en met 350cd/m², maar op 50% is het al een enorme lichtbron.
Een film kijken voor het slapen gaat er niet meer bij zijn, je bent dan zo verblind dat je lichaam denkt dat de zon opkomt.
Dat heeft volgens mij meer met de kleurtemperatuur te maken dan met de lichtintensiteit.
Beiden.
Hangt van veel factoren af maar het schopt je bio klokje behoorlijk in de war.
als je op tv een zonsopgang ziet dan draagt dat alleen maar bij aan het realisme. Het is natuurlijk niet zo dat alles altijd op max helderheid uitgestraald wordt ;)
Juist, en je kan als gebruiker de max brightness uiteraard zelf bepalen in je settings.

Mocht het in 2020 echt enorm fel worden, lijkt het me dat je ook een HDR range kan instellen. Net als je nu ziet bij de audio afmixing van games. Zo bevat The Last Of Us bijv. een "Night" setting. Dan zijn de harde en zachte geluiden wat constanter. Op deze manier zet je je versterker niet op 11 omdat je het achtergrond geluiden zo mooi vind, waarna je je de tering schrikt als de bliksem bijv. naast je inslaat.

Deze techniek van beeld tonen geeft opties. Het is leuker om hier in mee te denken dan in de beperkingen. :)
Dan kan ik je f.lux aanraden, die past je kleurtemperatuur 's avonds aan zodat het beeld minder blauw is. Is in het begin even wennen maar ik kan nu niet meer zonder.
Het werkt inderdaad, maar alleen als je geen waarde hecht aan kleurechtheid op je monitor (voor beeldbewerking, bijv.).
Theoretisch, ja. Maar ik denk dat deze HDR feature met name bedoelt is om grotere contrasten mogelijk te maken, die meer in de buurt komen van wat het in de realiteit ook is (het voorbeeld van de zon: verschil in helderheid tussen de zon en blauwe lucht is natuurlijk enorm, dat kan een scherm nu eigenlijk niet weergeven). Dus: kleine stukjes op je beeldscherm die héél helder zijn, maar gemiddeld gesproken niet per se een hogere helderheid.

Wat ik van de foto's bij het artikel begrijp krijg ik het idee dat het er voornamelijk om gaat hoe een kleur gecodeerd wordt. Dat kan natuurlijk heel traditioneel, RGB, met integers tussen 0 en 255, maar dan heb je dus maar 255 helderheidsstappen, die bovendien linear liggen. Volgens mij suggereren de foto's dat die voortaan (althans, intern, in windows) door 16-bits floats worden gerepresenteerd (16 bits voor rood, 16 bits voor groen, 16 bits voor blauw). Dan heb je hele kleine helderheidsstappen bij lage helderheid (waar dat waarschijnlijk voor je oog ook het meest relevant is), maar kun je ook naar hele hoge helderheid toe (het grootste getal wat je met een 16-bits float kunt uitdrukken is een stuk groter dan met een 16-bits integer).

Ben geen expert op dit gebied hoor, dus pin me er niet op vast, maar dit vermoed ik...
Hdr lijkt een gimick. Een realistisch beeld is een doodgewone foto, zelfs zonder hdr. Dat realismeniveau kunnen games nog altijd niet bereiken.

In dit geval kan hdr er voor zorgen dat de je de zon kan 'voelen' tot op het niveau dat je een zonnebril nodig hebt om in de virtuele zon te kijken.
Dat ben ik niet met je eens. Een foto is namelijk gebaseerd op de reflectie van licht en laat dus juist lichtbronnen (de zon, lampen) en reflecties niet realistisch zien omdat de intensiteit niet klopt. De reflectie van de zon op bijv. water is heel anders dan kijken naar een foto van reflectie van zon op water. Daarbij komen er in het echt gewoon héél veel fotonen in je oog in het echt, terwijl de reflectie op een foto nooit meer fotonen kan weerkaatsen dan erop vallen. Dus, foto's als toonpunt van realisme? Wat mij betreft niet.

Het zal juist voor het weergeven van lichtbronnen en (felle) reflecties zijn dat een monitor met (lokaal) hogere lichtsterktes meer realisme zou geven. En je opmerking dat je er een zonnebril voor nodig zou hebben: dat lijkt mij de ultieme aanwijzing dat je een hele realistische weergave van de zon hebt bereikt. Hoe práktisch dat is, is een ander verhaal :+
Wat nieuw is lijkt vooral de ondersteuning voor absolute kleurwaardes.
Het was al geloof ik al sinds DirectX 10 (en mogelijk zelfs DirectX9Ex) mogelijk om meer dan 8-bits per kleur te gebruiken, maar je wist niet met welke absolute helderheid elke waarde overeen kwam.
Is er iemand die in begrijpelijke taal, of bijvoorbeeld met een video, weet uit te leggen wat hdr is? En wat er in deze context nieuw aan is?

Ik ken hdr al als een gamingterm uit 2003-2004 van toentertijd Halflife 2: Lost Coast, maar dat zal vast niet hetzelfde zijn als hier.
HDR houdt in dat er helderder wit, donkerder zwart en meer gradaties in kleuren te zien zijn en daardoor ook meer details. Heel simpel gezegd is het een algehele verbetering van de weergave van beelden, dichter tegen de realiteit.

Het HDRR uit jouw link is eigenlijk ongeveer hetzelfde verhaal toentertijd mbt games maar is nu inmiddels de normale dynamic range geworden, door ontwikkelingen op het gebied van de monitoren is er nu meer haalbaar. Alleen gaat HDRR veel meer over hoe licht en donker worden ge-rendered.

stukje goed te begrijpen leesvoer: https://www.homecinemamag...r-op-een-tv-blu-ray-disc/

[Reactie gewijzigd door MicGlou op 17 maart 2016 22:17]

Kleine nuance: HDR gaat over het verschil tussen wit en zwart. Het betekent niet per se dat zwart donkerder wordt, als het wit helderder wordt kom je er ook. Daardoor kan je bestaande lcd technologie blijven gebruiken, met opgevoerd backlight. Hoef je niet meteen oled prijzen te betalen om van dat moois te genieten.
Dat is eigenlijk hetzelfde, maar dat soort HDR word door de engine geconverteerd naar waardes die jouw monitor snapt. Een HDR monitor zou deze waardes wel kunnen weergeven.
HDR voor fotografie hoort je een stuk op weg te helpen.
Zeg dat nou niet! terugdenkend aan vroegah....toen games nog goed waren :( nu voel ik me oud :( :+
Ziet eruit alsof het aardig complex is voor een vrij lage opbrengst.
Ik heb het idee dat men na full HD eigenlijk wel voorbij de sweet spot zit. Ja 3D, UHD en HDR zijn leuk, maar of het de investering echt waard is.
...gamers beter kunnen onderscheiden of het bijvoorbeeld om de zon, een reflectie of een gloed gaat
Tja, dit zegt het eigenlijk al.
Vooruitgang is goed hòr, maar wacht deze hype lekker af (net als 3D en UHD). Ik verwacht ook veel meer van VR. Leuk als zulke technieken er dan bijzitten, maar ik denk niet dat men er massaal nieuwe apparatuur voor aanschaft.
Ik heb juist behoefte aan HDR ipv aan UHD. Het kost je nagenoeg niks extras van je grafische kaart, dus je kan het daadwerkelijk renderen op normale FPS, en het is wel echt een toevoeging waarbij je het verschil kan zien.
levert HDR alleen voorbeeld op gamen?
Ik maak zelf 3d video's met maya en cinema4d kan ik er ook gebruik vn maken
Daarmee hebben we de eerste van een hopelijk lange lijst van Redstone 2 features nu bevestigt. :) Mooi trouwens dat ze hier aan werken.
Met betrekking te releases bij Windows hanteer ik heel graag een eerst zien en dan geloven mentaliteit. We zouden ook vrij snel een 2e grote update krijgen. En vervolgens is het toch weer uitgesteld.

2017 is dus nog ver weg. Misschien dat er toch nog dingen gaan veranderen. Toch is het wel een mooie feature om te hebben. Schermen kunnen steeds meer kleuren aan. Dus goed dat Windows ook mee gaat.
Ik begrijp het niet helemaal. Ik lees dat het gaat om schermen met heel hoge helderheid.
Voor zover ik het tot op heden heb begrepen zijn huidige beperkingen ten aanzien van HDR geen weergave issue maar vooral een opname issue.
De hedendaagse camera's kunnen niet zo'n groot dynamisch bereik aan als onze ogen, daardoor o.a. hardere contrasten en minder/weinig detail in meer donkere delen van het beeld.
Voor synthetische (gegenereerde) beelden zou dat geen issue moeten zijn.

Wat moet je nu met een "HDR" scherm dat zoveel licht geeft alsof je ligt te zonnebaden?
Ik vermoed dat onze ogen dan juist verblind worden, waarbij de donkere partijen op het scherm dan juist minder gedetailleerd zullen worden waargenomen omdat de hoge helderheid juist verblind en de ervaren dynamic range van onze ogen daardoor juist minder wordt ervaren.
Ik ben geen specialist op dit gebied maar ook geen n00b.
Ik zet de intensiteit van mijn monitor doorgaans lager omdat ik dat prettiger vind kijken. Wat moet ik dan met een veelvoud aan licht intensiteit?

My 2 cents.

[Reactie gewijzigd door twilex op 17 maart 2016 23:56]

Nee, het is exact omgekeerd. Er zijn al tijden camera's die meer dan 13 stops dynamisch bereik kunnen opnemen. Intussen zelfs rond de 15 EV. Maar de content moet altijd gemapped (compressie van het dynamisch bereik) worden naar een veel lagere waarde omdat output media en de daarop gebaseerde standaarden er niet mee overweg konden.

Om een idee te geven, met bijvoorbeeld 13 EV kun je al een theoretisch bereik van 1 tot 8.192 cd/m² weergegeven...
3000cd/m2
Moet je TV/monitor ook op volle brightness staan om HDR volledig te kunnen zien? Mijn TV staat namelijk op 40%, zodat ik (met name 's avonds) niet zo'n bak licht in m'n ogen krijg. Bijzonder trouwens dat zoiets simpels als een ambient light sensor nog niet standaard is in een tijd van "smart" tv's.
Overdag mag het scherm namelijk gerust feller.
In mijn tv zit dat wel..
Ik doel dan ook op het woord standaard.
Mijn TV, Sony, van eind 2014 zit het niet in en dat vind ik vrij kansloos. Zelfs in de meest simpele smartphone zit het, het is geen luxe feature.
Nou ik heb het wel maar staat gewoon uit. Ik vind dat hij niet de goede helderheid uitzoekt.
Mijn TV heeft het wel, maar soms bestaat er een feedback loop waarbij de TV sensor reageerde op de licht van de TV scherm.., dus ik heb het weer uit gezet. 8)7
Damn. Ja opzich vrij logisch dat dat gebeurt, maar zo heeft het praktisch geen nut meer.
Laat microsoft maar eerst scaling in windows 10 goed oplosen voordat iets anders wordt gelanceerd.
Scaling werkt al lange tijd prima. Dat oude software dit niet ondersteunen kun je niet aan MS wijten.
125 % scaling levert op mijn 17 inch laptop een blur resultaat.
Ook in Windows verkenner en in MS Outlook.
zie ook:
http://www.winbeta.org/ne...indows-10-redstone-update

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Microsoft Xbox One S FIFA 17 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True