Door Julian Huijbregts

Nieuwsredacteur

4k-monitoren in beeld

Nu wel of niet investeren?

28-01-2016 • 06:00

256

Multipage-opmaak

Het nut van 4k

Hoewel we bij smartphones, tablets en laptops al jaren gewend zijn om met een hoge pixeldichtheid te werken, is aan de scherpte van desktopmonitoren lange tijd weinig veranderd. Lees je dit artikel achter een computer, dan is de kans groot dat je dat doet op een monitor met 1920x1080 pixels. Ook is het goed mogelijk dat je een smartphone in je broekzak hebt zitten die over exact datzelfde aantal pixels beschikt. Je telefoon heeft uiteraard een veel kleiner scherm en geeft dus een veel scherper beeld.

In tegenstelling tot veel andere elektronica gaat een monitor jarenlang mee. De ontwikkelingen in de monitorenwereld gaan ook niet zo snel dat het zinvol is om geregeld in een nieuw scherm te investeren. Ten opzichte van kleinere apparaten kunnen we zelfs stellen dat de ontwikkeling van de schermtechniek voor monitoren langzaam gaat. Al zo'n tien jaar zijn monitoren met een formaat van 21,5" tot 24" en een resolutie van 1920x1080 pixels gemeengoed. In diezelfde periode zijn de kleine displays van smartphones en tablets veel scherper geworden, doordat ze steeds een hogere pixeldichtheid kregen. Hoewel je een monitor vanaf een grotere afstand bekijkt, is het verschil in scherpte groot geworden. Het aantal pixels per inch schommelt bij full-hd-monitoren rond de honderd. Voor tablets en smartphones zijn ppi-waarden van driehonderd tot vijfhonderd de norm.

27"-monitor met 4k-resolutie en schaalniveau van 150 procent

Enthousiaste desktopcomputergebruikers konden in de afgelopen jaren al kiezen voor een upgrade naar een 27"- of 30"-monitor met een resolutie van 2560x1440 pixels. Dat leverde echter vooral een groter beeld op, met meer ruimte op het virtuele bureaublad. Aan de pixeldichtheid en dus de scherpte van het beeld veranderde vrijwel niets. Met de introductie van 4k-monitoren is daar eindelijk verandering in gekomen. Sinds eind 2013 zijn 4k-schermen in opkomst en er zijn steeds meer formaten om uit te kiezen. Dergelijke schermen bieden een aanzienlijk hogere ppi-waarde en dus een scherper beeld.

Om daar optimaal van te profiteren moet de software goed overweg kunnen met de hoge resolutie. Is dat anno 2016 zover en is de tijd nu rijp om over te stappen naar een 4k-monitor? In dit artikel bekijken we de voordelen, de verschillende keuzes en de mogelijke obstakels, om een antwoord te kunnen geven op die vragen.

Apparaat Schermdiagonaal Resolutie in pixels Pixels per inch
Full-hd-monitor 24" 1920x1080 92
Quad-hd-monitor 27" 2560x1440 109
Quad-hd-monitor 25" 2560x1440 117
Ultra-hd-monitor 31,5" 3840x2160 140
Ultra-hd-monitor 27" 3840x2160 163
Ultra-hd-monitor 23,8" 3840x2160 185
5k-monitor 27" 5120x2880 218
High-end tablet 9,7" 2048x1536 264
High-end laptop 13,3" 3200x1800 276
Smartphone 5" 1920x1080 440
Smartphone 5,7" 2560x1440 515

Het verschil in pixeldichtheid tussen verschillende gangbare apparaten

Prijsdaling

Een andere reden waarom we nu naar 4k-monitoren kijken, zijn de dalende prijzen. In 2013 kwamen de eerste modellen voor consumenten op de markt voor forse prijzen van vaak duizenden euro's. Het jaar daarop groeide het aanbod flink en kwamen er tal van goedkopere schermen. Die trend heeft zich in 2015 doorgezet en hoewel de meerprijs ten opzichte van een eenvoudige full-hd-monitor nog altijd flink is, wordt het prijsverschil tussen 27"-monitoren met een resolutie van 2560x1440 pixels en varianten met 3840x2160 pixels steeds kleiner. Wie niet meer dan een paar honderd euro wil uitgeven, zal moeten wachten tot verdere prijsdalingen, maar ben je bereid vierhonderd euro of meer uit te geven, dan zijn er tal van interessante 4k-monitoren.

Het prijsverloop van de Asus PQ321QE laat duidelijk de prijsontwikkeling zien die 4k-monitoren sinds eind 2013 hebben doorgemaakt

Formaat en techniek

4k is de verzamelterm voor een resolutie van ongeveer vierduizend pixels in de breedte. Het overgrote deel van de 4k-monitoren heeft een resolutie van 3840x2160 pixels en voldoet daarmee aan de ultra-hd-standaard. Ben je in de markt voor zo'n monitor, dan heb je op het moment van schrijven keus uit ruim zestig verschillende modellen. De meest voorkomende schermdiagonaal is 27" of 28". Wie liever groter heeft, kan kiezen uit een aardig aantal 31,5"-monitoren. Ook zijn er schermen met een diagonaal van ongeveer 24", maar die zijn in de minderheid. Daarnaast zijn er momenteel twee 40"-monitoren met 4k-resolutie: de Philips BDM4065UC en sinds kort de iiyama ProLite X4071UHSU-B, die over hetzelfde paneel beschikt.

Er zijn verschillende redenen om een monitor met een hoge resolutie aan te schaffen. Programmeurs en beurshandelaren kunnen bijvoorbeeld veel meer code of informatie kwijt op een enkel scherm, fotografen zullen de hogere scherpte van hun foto's waarderen, filmmakers kunnen hun 4k-video's pixel voor pixel bekijken, maar bovenal profiteert iedereen van de scherpe weergave van tekst en andere tekens. Terwijl er bij televisies momenteel valt te discussiëren over het nut van 4k, aangezien daarvoor nog weinig content beschikbaar is, gaat dat voor monitoren niet op. Je hebt geen specifieke content nodig om te profiteren van een hogere pixeldichtheid. Gewoonweg een tekst lezen is met een hogere resolutie veel prettiger en ook je volledige fotocollectie ziet er opeens veel scherper uit. Dat er op YouTube en Netflix al een en ander in 4k wordt aangeboden is mooi meegenomen.

4k-schermformaten

Van links naar rechts: 4k-monitor van 23,8", 28" en 40"

Formaat kiezen

De keuze voor het schermformaat hangt af van de aanwezige ruimte op het bureau van de gebruiker en het doel waarvoor het scherm wordt ingezet. Ook is het schermformaat van invloed op het schaalniveau dat moet worden toegepast in het besturingssysteem. Wanneer je op een 24"-monitor 3840x2160 pixels weergeeft zonder te schalen, is de Windows-interface onwerkbaar klein. Er past immers vier keer zoveel informatie op het scherm als op een full-hd-monitor. Een schaalpercentage van 175 tot 200 zal voor de meeste gebruikers wenselijk zijn bij dit schermformaat. Voor de grotere formaten van 27" tot 32" is een percentage van 150 tot 125 in de praktijk het prettigst. Kies je voor een 40"-scherm, dan is schalen niet noodzakelijk. De pixeldichtheid is daarbij immers niet veel hoger dan bij reguliere schermen.

27"-monitor op 100 procent en 150 procent27"-monitor op 100 procent en 150 procent

Een 27"-monitor met resolutie van 3840x2160 pixels: links met een schaalniveau van 100 procent, rechts met een schaalniveau van 150 procent.

Paneeltype

Koop je een 4k-monitor, dan moet je niet alleen kiezen voor een formaat, maar ook rekening houden met het gebruikte paneel. Ruwweg heb je keuze uit de twisted nematic- en de in-plane switching-techniek. Tn-monitoren zijn over het algemeen het goedkoopst en hebben de hoogste refreshrate, maar bieden minder goede kijkhoeken en een minder nauwkeurige kleurweergave dan beeldschermen met een ips-paneel. Wat weergave betreft genieten ips-monitoren daarom de voorkeur boven tn. Zeker bij schermformaten van 27" of meer zijn de beperkte kijkhoeken van de tn-techniek een nadeel.

Vooral bij het aanschaffen van een 27"- of 28"-monitor moet je goed kijken over welk paneeltype het scherm beschikt. In deze categorie bestaat ongeveer de helft uit tn-monitoren en is de andere helft van het ips-type. Hoewel de goedkoopste monitoren vaak een tn-paneel hebben, is de meerprijs voor een ips-paneel relatief gering in deze categorie.

Tn-panelen komen bij de andere 4k-schermformaten momenteel niet voor. De monitoren met een formaat van ongeveer 24" hebben allemaal een ips-paneel of een afgeleide daarvan en in de 40"-monitoren van Philips en iiyama zit een va-paneel. De vertical alignment-techniek wordt ook in veel televisies gebruikt en biedt net als de ips-techniek een betere kleurweergave dan tn-panelen. Wat kijkhoeken betreft scoort de va-techniek iets minder goed dan ips. Het contrast van va-panelen is echter hoger vanwege een betere zwartweergave.

Kleurruimte

Wat kleurweergave betreft zijn monitoren met een ips-paneel de beste keuze, maar ook binnen deze categorie zijn er verschillen. De meeste ips-monitoren kunnen vrijwel de hele srgb-kleurruimte en zo'n 70 tot 80 procent van de Adobe-rgb-kleurruimte weergeven. Om de laatstgenoemde kleurruimte ook in zijn geheel te tonen is een wide-gamutmonitor nodig. Over het algemeen zijn dit de schermen in de hogere prijsklassen en momenteel zijn het vooral de 31,5"-monitoren die over een wide-gamutpaneel beschikken.

Voor de meeste gebruikers biedt een wide-gamutpaneel in de praktijk weinig voordelen, doordat software en games zijn afgestemd op de srgb-kleurruimte. Bovendien worden kleuren in programma's die geen goed kleurbeheer hebben, oververzadigd weergegeven op dergelijke schermen. Wide-gamutmonitoren zijn vooral interessant voor fotografen en andere beeldbewerkers die het volledige kleurbereik van hun beeldmateriaal willen zien en bijvoorbeeld hun werk printen met een groter kleurbereik dan wat srgb kan laten zien.

Oled

Naast tn, ips en va is er nog de oledtechniek, die in theorie de beste beeldkwaliteit biedt. Oledpanelen hebben een zo goed als oneindig hoog contrast, omdat ze perfect zwart kunnen weergeven. Ook biedt de techniek uitstekende kijkhoeken, een nauwkeurige kleurweergave en een snelle reactietijd. Er zijn echter nog geen oledmonitoren verkrijgbaar voor consumenten. Op de CES 2016-elektronicabeurs in januari kondigde Dell het eerste exemplaar aan: de Ultrasharp UP3017Q. Deze 30"-oledmonitor met een resolutie van 3840x2160 pixels moet in maart in de VS verschijnen voor 4999 dollar. Het duurt waarschijnlijk nog jaren voordat oledmonitoren betaalbaar worden.

Televisie als monitor

Hoewel er nog maar weinig 4k-content is voor televisies, is het aanbod van uhdtv's erg groot. Wie interesse heeft in een groot scherm, kan kiezen voor een uhdtv in plaats van een monitor. Er is echter een aantal zaken om rekening mee te houden bij de aanschaf van een uhdtv als monitor. Ten eerste heb je een tv met hdmi 2.0 of hoger nodig én een videokaart met een dergelijke aansluiting. Met lagere hdmi-versies is het niet mogelijk om 3840x2160 pixels met 60Hz weer te geven en ben je beperkt tot 30Hz, wat geen vloeiende ervaring oplevert. Er zijn overigens ook actieve adapters die het displayport 1.2-signaal kunnen omzetten in hdmi 2.0. Dat biedt uitkomst voor bezitters van AMD-videokaarten, die nog geen hdmi 2.0 hebben. Verder heb je ook een geschikte hdmi-kabel nodig. Het kan moeilijk zijn om te ontdekken welke kabel in staat is om 4k op 60Hz door te sturen, bleek uit onze eerdere bevindingen.

Daarnaast is het bij gebruik van een uhdtv als monitor belangrijk om te kiezen voor een televisie met een lage inputlag. Bij tv's is de vertraging tussen invoer en weergave op het scherm over het algemeen hoger dan bij monitoren. Inputlag is niet alleen relevant voor gamers, als de vertraging te groot is, werkt zelfs het bewegen van een muisaanwijzer over het scherm onprettig of is er merkbare vertraging aanwezig tussen het aanslaan van een toets en het verschijnen van een letter in een tekstverwerker. Bovendien maken sommige uhdtv's bij het weergeven van 2160p-beelden op 60Hz via hdmi 2.0 gebruik van chroma subsampling, waardoor kleurresolutie verloren gaat. Bij het bekijken van videobeelden valt dit niet op, aangezien vrijwel alle videocodecs ook chroma subsampling toepassen. Bij het weergeven van kleine letters kan de lagere kleurresolutie echter wel opvallen.

Afwijkende resoluties

LG dci-4k-monitorNaast ultra-hd-monitoren met 3840x2160 pixels, is er een aantal beeldschermen met een afwijkende resolutie van 4096x2160 pixels. Dat resulteert in een iets bredere beeldverhouding van 17:9. Dit is het dci-4k-formaat, zoals vastgesteld door het Digital Cinema Initiatives-consortium. Schermen met deze resolutie zijn vooral interessant voor filmmakers die met camera's werken die beelden in dit formaat schieten. Dat zijn niet alleen professionele filmcamera's, ook de Panasonic Lumix GH4, de Samsung NX1 en zelfs sommige smartphones kunnen filmen in dci-4k-formaat. Alleen op een monitor met minimaal 4096x2160 pixels is het mogelijk om deze resultaten pixel voor pixel zonder te schalen te bekijken. Momenteel hebben LG en Eizo 31"-monitoren met een dci-4k-resolutie in het assortiment.

5k-monitoren met 5120x2880 pixels

Hoewel 4k nog lang geen mainstream is, gaat de techniek al verder. Dell kondigde in september 2014 het eerste scherm met 5k-resolutie aan. Deze 27"-monitor beschikt over 5120x2880 pixels. In de hoogte en breedte is de resolutie exact het dubbele van 2560x1440 pixels, wat resulteert in ongeveer 220ppi. Nog voordat Dell het scherm op de markt kon brengen, kwam Apple in oktober 2014 met de 27"-iMac met Retina-display. Het scherm van deze all-in-one en zijn in 2015 geïntroduceerde opvolgers beschikt over dezelfde 5k-resolutie.

5k-monitoren zijn niet alleen interessant vanwege de nog hogere pixeldichtheid, de extra pixels komen ook van pas bij het bewerken van 4k-video's. Het is mogelijk om de videobestanden in de ware grote van 3840x2160 pixels weer te geven en tegelijkertijd de tijdlijn en andere interface-elementen in beeld te houden.

5K vs 4K vs 1080p

Inmiddels zijn er naast de iMac twee 27"-monitoren met 5k-resolutie verkrijgbaar van Dell en HP. Deze schermen zijn met prijzen van ongeveer 1500 euro nog erg duur en bovendien moet voor het aansluiten van een 5k-scherm momenteel multistream-transport worden toegepast. Displayport 1.2 biedt niet genoeg bandbreedte, dus moeten er twee kabels en twee poorten tegelijk worden gebruikt om twee panelen van 2560x2880 pixels samen te voegen.

Hoewel de VESA in september 2014 de displayport 1.3-standaard met 5k-ondersteuning aankondigde, zijn er nog geen videokaarten uitgebracht met een dergelijke aansluiting. Inmiddels heeft AMD bekendgemaakt dat het in 2016 zijn grafische kaarten met displayport 1.3 zal uitrusten. Waarschijnlijk zal Nvidia hetzelfde doen. AMD verwacht dat er halverwege 2016 5k-monitoren op de markt verschijnen die met een enkele kabel aan te sluiten zijn, maar fabrikanten hebben dergelijke schermen nog niet aangekondigd.

Overigens heeft Apple het al voor elkaar gekregen om de 5k-schermen in de 27"-iMacs aan te sturen zonder gebruik te maken van multi tile-techniek. De fabrikant heeft de embedded-displayport aangepast en van zestig in plaats van veertig pinnen voorzien om de benodigde bandbreedte mogelijk te maken.

21:9-breedbeeldmonitoren met 3440x1440 pixels

Tegelijkertijd met de opkomst van 4k-monitoren worden er steeds meer schermen met een extra brede beeldverhouding van 21:9 uitgebracht. De high-end modellen hebben een resolutie van 3440x1440 pixels en hoewel dat dicht in de buurt komt van 4k, is de pixeldichtheid van deze schermen niet bijzonder hoog. Tot dusver hebben alle monitoren met deze resolutie een diagonaal van 34". Dat geeft ze een ppi van ongeveer 110, wat vergelijkbaar is met een 27"-monitor met een resolutie van 2560x1440 pixels. Deze schermen bieden voornamelijk een bredere werkruimte, maar hebben niet de pixeldichtheid van een 4k-monitor.

2560x1440 pixels op formaten kleiner dan 27"

Een andere nieuwe trend is de opkomst van kleinere monitoren met 2560x1440 pixels. Tot begin 2015 was deze resolutie alleen beschikbaar in combinatie met een schermdiagonaal van 27" of hoger. Dell bracht daar verandering in met de introductie van de U2515H: een 25"-monitor. Snel volgden meer fabrikanten en kwamen er ook 23,8"-schermen met 2560x1440 pixels. Op het moment van schrijven staan er vijftien van dit soort monitoren in de Pricewatch. De resolutie van 2560x1440 pixels in combinatie met een diagonaal van 23,8" of 25" resulteert in een ppi-waarde van ongeveer 124 tot 117. Dat is een aardige vooruitgang ten opzichte van full-hd-schermen met vergelijkbare afmetingen, maar de scherpte is minder indrukwekkend dan bij 4k.

Aansluiten en aansturen

VideokaartHet aansluiten van een 4k-monitor is geen raketwetenschap, maar er komt wel wat meer bij kijken dan bij het inpluggen van een full-hd-scherm. In theorie kan een 4k-scherm aangesloten worden op iedere displayport- of hdmi-aansluiting, maar om een resolutie van 3840x2160 pixels weer te geven met een verversingssnelheid van 60Hz zijn de juiste versies van deze poorten vereist.

Displayport biedt vanaf versie 1.2 genoeg bandbreedte, bij hdmi is dat versie 2.0. Een 4k-scherm werkt ook in combinatie met oudere versies, zoals displayport 1.1 en hdmi 1.4, maar zal dan beperkt zijn tot 30Hz. Hoewel dat snel genoeg is voor het weergeven van films, is het niet genoeg voor een vloeiende ervaring tijdens computergebruik. Het bewegen van de muiscursor oogt bijvoorbeeld niet soepel. Displayport 1.2 is al langere tijd gemeengoed op gpu's van zowel AMD als Nvidia. Hdmi 2.0 is momenteel alleen op nieuwe videokaarten van Nvidia te vinden. Hoewel vrijwel alle 4k-monitoren een hdmi-poort hebben, is dat lang niet altijd een 2.0-variant. Al met al is displayport 1.2 momenteel de meest gangbare en praktische keuze om een 4k-monitor op een computer aan te sluiten.

Videogeheugen

Wie zware grafische taken wil uitvoeren of wil gamen in 4k-resolutie, kan geen grafische rekenkracht genoeg hebben. Voor eenvoudiger gebruik als browsen, tekst- en beeldverwerking is geen bijzonder snelle of dure videokaart nodig. Vrijwel alle moderne gpu's kunnen 4k-monitoren aansturen. Zeker als de videokaart een displayport 1.2-aansluiting bevat, kun je ervan uitgaan dat er ook 3840x2160 pixels op het scherm getoverd kunnen worden. Het is wel aan te raden om een videokaart met minimaal 2GB vram te gebruiken. Het geheugengebruik van de videokaart kan flink oplopen bij de resolutie van 3840x2160 pixels, ook bij betrekkelijk eenvoudig gebruik, zoals browsen en video's kijken.

Met het openen van verschillende vensters en een browser met zo'n tien tabs, zagen we het geheugengebruik van onze gpu stijgen naar ruim 1,2GB. Gpu's die minder geheugen hebben, zullen als hun vram vol zit het werkgeheugen van de computer aanspreken. Dat hoeft geen probleem te zijn, maar de limiet is daarbij soms beperkt tot 1GB en dat kan net te weinig zijn. Ben je van plan om twee 4k-monitoren te gebruiken, dan is een videokaart met 4GB geheugen geen overbodige luxe.

Monitor met mst-techniekMultistream- en singlestream-transport

Toen de eerste 4k-monitoren op de markt verschenen, werd er gebruikgemaakt van multistream-transport. Dat houdt in dat de resolutie van 3840x2160 pixels werd samengesteld door twee panelen van ieder 1920x2160 pixels naast elkaar te plaatsen. Dit was noodzakelijk omdat scalers nog niet in staat waren om de uhd-resolutie te verwerken met een verversingssnelheid van 60Hz. Met de mst-techniek en twee scalers konden de twee panelen softwarematig tot één beeld worden samengevoegd. Het gebruik van mst heeft echter als nadeel dat er tearing kan ontstaan bij het weergeven van snelle bewegingen. Dergelijke schermen kunnen ook met singlestream-transport gebruikt worden, maar zijn dan beperkt tot 30Hz.

Scalers zijn inmiddels in staat om de volledige resolutie van 3840x2160 pixels te verwerken bij 60Hz en de displayport 1.2-aansluiting biedt daarvoor voldoende bandbreedte. Vanaf 2014 zijn fabrikanten singlestream-transport gaan toepassen in hun 4k-monitoren, waarbij het beeld daadwerkelijk uit één paneel bestaat. Schaf je nu een nieuw scherm aan, dan kun je ervan uitgaan dat het een sst-model betreft. Wel zijn sommige oudere mst-modellen, zoals de Asus PQ321Q en Dell UP3214Q nog verkrijgbaar.

4k-monitoren en laptops

Ook voor het aansluiten van een 4k-monitor op een laptop is de displayport 1.2-aansluiting de meest voor de hand liggende keuze. Niet alle laptops beschikken echter over een dergelijke poort; er zijn ook veel fabrikanten die alleen een hdmi- of micro-hdmi-aansluiting op hun laptops gebruiken. Dat is in de meeste gevallen hdmi-versie 1.4 en dus niet genoeg voor het weergeven van 3840x2160 pixels met 60Hz. Nieuwe high-end laptops krijgen echter steeds vaker een usb-c-aansluiting. Met behulp van een verloopstekker kan deze kleine veelzijdige aansluiting ook als displayport gebruikt worden.

Je bent niet alleen afhankelijk van de aansluiting op je laptop, maar ook van de gpu. Alle laptops met een Intel Core-processor van de Broadwell- of Skylake-generatie hebben een gpu aan boord die in staat is om 4k-resoluties in 60Hz uit te sturen. Ook de gpu van sommige Haswell-processors is daartoe in staat, maar de ondersteunde maximale resoluties van deze vierde generatie verschillen flink per model. Op de website van Intel is te vinden welke maximale resolutie wordt ondersteund door de gpu van iedere afzonderlijke processor.

In de praktijk: Windows 10

In theorie biedt een hoge pixeldichtheid alleen maar voordelen. Met meer pixels kunnen elementen in beeld immers scherper worden weergegeven. Om dat voordeel optimaal te benutten, moet de software daar echter goed mee kunnen omgaan. Met de komst van Windows 10 beloofde Microsoft veel van de problemen op te lossen die voorkwamen met oudere versies van het besturingssysteem in combinatie met monitoren met een hoge pixeldichtheid. Microsoft heeft zeker vooruitgang geboekt, maar nog lang niet alles werkt perfect.

De interface van Windows 10 schaalt over het algemeen prima. Iconen zien er haarscherp uit en ook vensters weten goed om te gaan met de hoge resolutie. Duik je wat dieper de instellingen in, dan kom je ook binnen Windows zelf tal van vensters tegen die nog uit oudere versies van het besturingssysteem stammen en waarvan de interface niet is bijgewerkt. Dat is niet onwerkbaar, want de vensters worden wel opgeschaald, maar het ziet er onscherp en daardoor slordig uit.

Schalen in Windows 10

Voorbeeld van verschillende Windows-vensters met het schaalniveau ingesteld op 150 procent

Een van de manieren waarop Microsoft het schaalprobleem probeert op te lossen, is met de Windows App Store. Ontwikkelaars die hierin hun programma's plaatsen, moeten aan diverse eisen voldoen. De apps moeten bijvoorbeeld probleemloos gebruikt kunnen worden op verschillende soorten apparaten met verschillende schermgroottes en resoluties. Kortom; de 'universal apps' moeten perfect kunnen schalen. Dat is in de praktijk ook het geval. Alle apps uit de Store draaien perfect in combinatie met een 4k-monitor, zonder dat je iets hoeft in te stellen. De kans is echter klein dat al veel van je favoriete software naar een Windows 10 universal app is overgezet.

Zodra je software opent die geen onderdeel is van het besturingssysteem of die niet in de Windows Store staat, is het niet meer de verantwoordelijkheid van Microsoft om te zorgen voor een goede weergave bij een hoge pixeldichtheid, maar van de desbetreffende softwaremaker. In de praktijk zijn de resultaten hierbij nog zeer wisselvallig. De meeste programma's schalen mee met de instelling die je in Windows geeft, maar zijn vaak niet voorzien van specifieke grafische assets voor hoge resoluties. Dat resulteert in een minder scherpe weergave, maar menu's worden in ieder geval niet onwerkbaar klein.

Enkele programma's trekken zich helemaal niets aan van het ingestelde schaalniveau en geven de interface pixel voor pixel weer. Dat is bijvoorbeeld het geval bij Battle.net van Blizzard. Op een 27"-monitor met een 4k-resolutie resulteert dat in een bijna niet te lezen interface. Op kleinere schermen zal de tekst daadwerkelijk onleesbaar zijn. Ook Bridge, een onderdeel van Adobe's Creative Cloud-suite dat gebruikt kan worden om foto's te beheren, blijkt helemaal niet mee te schalen. In de praktijk zijn we dergelijke programma's niet veel tegengekomen, maar het kan zeer storend zijn.

Photoshop in 4k

Adobe Photoshop CC schaalt niet mee met de gekozen Windows-instelling. Dat resulteert in een interface met piepkleine elementen.

Zelfs bij professionele software voor beeldbewerking is de ondersteuning van hoge resoluties niet perfect. Wie Adobe Photoshop CC start op een 4k-scherm krijgt eerst piepkleine menu's te zien. De beeldbewerkingssoftware schaalt zijn interface niet automatisch. Door in het menu UI-scaling in te schakelen is dat wel mogelijk, maar er is alleen een schaalniveau van 200 procent, wat juist weer een erg grote interface oplevert als je op een 27"-monitor werkt. Opvallend is dat andere programma's in de Creative Cloud-suite, zoals Premiere Pro en Lightroom, wel probleemloos omgaan met een hoge resolutie en goed meeschalen met het ingestelde schaalniveau van Windows.

Ook alle moderne browsers die we getest hebben weten prima om te gaan met het aangegeven schaalniveau. De interface van Chrome, Edge en Firefox wordt automatisch vergroot en ook webpagina's worden met de in Windows ingestelde vergroting weergegeven. Dat resulteert in een goed leesbare tekstgrootte, die veel scherper is dan op monitors met een lagere resolutie. Iedere afzonderlijke letter wordt immers opgebouwd uit meer pixels. Logo's en afbeeldingen op websites kunnen wat onscherp ogen, want de meeste websites voorzien niet in speciale graphics met een hogere resolutie en dus worden afbeeldingen uitgerekt. In de praktijk is dat niet erg storend. Het voordeel van de scherpe tekst blijft en dat is een duidelijke vooruitgang.

Schalen met Steam en Chrome

Letters worden in de interface van Steam bij gebruik van schalen uitvergroot en daardoor onscherp.
Browsers zoals Chrome renderen tekens daadwerkelijk met meer pixels.

Schaalniveau kiezen

Afhankelijk van de schermgrootte en je eigen voorkeur kies je een schaalniveau. Windows 10 is instelbaar van 100 tot 400 procent in stappen van 25 procent en voor wie dat niet genoeg vrijheid biedt, is er bij de geavanceerde beeldscherminstellingen een mogelijkheid te vinden om een aangepast schaalniveau tot op de procent nauwkeurig in te stellen.

Windows of programma's pixel voor pixel weergeven met een resolutie van 3840x2160 pixels op een scherm van 23,8" levert extreem kleine teksten en menu's op. Een schaalniveau instellen is absoluut vereist om met deze pixeldichtheid te kunnen werken. Door het schaalniveau op 200 procent in te stellen krijgen alle elementen in beeld dezelfde grootte als wanneer je een 1080p-monitor op 100 procent weergave bekijkt. Wil je iets meer informatie in beeld, zonder dat alles meteen erg klein oogt, dan is 175 procent een goed werkbare tussenstap voor dit schermformaat.

Voor 4k-monitoren met een diagonaal van 27" of 28" zal een niveau van 150 procent in de praktijk voor de meeste gebruikers ideaal zijn. Alle elementen worden dan op het scherm getoond met eenzelfde grootte als wanneer je een monitor met een resolutie van 2560x1440 pixels gebruikt zonder de schaalgrootte te veranderen. Bij het iets grote schermformaat van 31,5" kun je de vergroting een stapje terugschroeven en voor 125 procent kiezen. Als de monitor verder van je af staat, werkt een percentage van 150 waarschijnlijk prettiger. Bezitters van de 40"-ultra-hd-monitor van Philips zullen wellicht hun scherm instellen op 100 procent, maar die monitor heeft dan ook een pixeldichtheid die vergelijkbaar is met die van 1080p- en 1440p-monitoren.

Monitoren met verschillende resoluties

Sinds de komst Windows 10 is het mogelijk om het schaalniveau per monitor in te stellen. Dat is handig als je schermen met een verschillende pixeldichtheid gebruikt. Zet je bijvoorbeeld een 27"-monitor met een 1440p-resolutie naast een 27"-scherm met een 4k-resolutie, dan kun je er eenvoudig voor zorgen dat beeldelementen op beide schermen op gelijke grootte worden weergegeven. Dat doe je door de resolutie van het 4k-scherm te schalen naar 150 procent en het 1440p-scherm op 100 procent te laten staan. Hoewel dat op het eerste gezicht prima lijkt te werken, valt in de praktijk op dat de scherpte van een van de monitoren afneemt. In onze praktijktests lukte het nooit om beide monitoren net zo scherp te krijgen als wanneer we ze afzonderlijk zouden gebruiken. Te allen tijde werd het beeld op een van de twee monitoren onscherp weergegeven. De oorzaak hiervan is onduidelijk, maar het maakt de nieuwe functie zo goed als onbruikbaar.

Stel je het schaalniveau op beide schermen gelijk in, dan is de combinatie van monitoren met verschillende resoluties geen probleem. Als je schermen met een verschillende pixeldichtheid naast elkaar gebruikt, is dat echter niet wenselijk. Iconen en andere elementen, zoals menu's, zijn dan niet van dezelfde grootte.

Meerdere 4k-monitoren

Dit screenshot toont twee 4k-monitoren. Het linkerscherm , een 15,6"-laptop, is ingesteld op een schaalniveau van 200 procent. Het rechterscherm, een 27"-monitor, is ingesteld op 150 procent. De tekst is niet optimaal scherp op de 27"-monitor, vanwege de verschillende schaalniveau's.

Gamen op een 4k-monitor

Om maar met de deur in huis te vallen: ben je een fanatieke pc-gamer, dan is een 4k-monitor waarschijnlijk niets voor jou. Er zijn momenteel nog geen 4k-schermen met een refreshrate hoger dan 60Hz en bovendien is het zelfs met een high-end pc en de duurste videokaarten nauwelijks mogelijk om moderne games vlot te draaien op een resolutie van 3840x2160 pixels. Dat blijkt wel uit de onderstaande benchmark, afkomstig uit onze review van de AMD R9 Fury X. Het testsysteem met een Intel Core i7-4960X en de snelste gpu's weet in The Witcher 3 op medium-instellingen nauwelijks soepele framerates te leveren. Om een constante 60fps te halen of de hoogste instellingen te gebruiken zul je diep in de buidel moeten tasten voor een sli- of crossfire-opstelling van verschillende videokaarten.

The Witcher 3 - 3840x2160 - Medium
Videokaart Minimum- / gemiddelde framerate in fps, hoger is beter
Asus GTX Titan X
******
+
**
37,0 / 46,0
Nvidia GTX 980 Ti
*****
+
**
36,0 / 45,6
AMD R9 Fury X
*****
+
*
36,0 / 43,6
MSI R9 390X Gaming OC
****
+
*
28,0 / 35,1
Nvidia GTX 980
****
+
*
27,5 / 34,2
Inno3D GTX 970
***
+
*
23,0 / 28,9
Sapphire R9 295X2
***
+
*
18,5 / 24,2

Oplossing

Het feit dat de meeste games niet soepel in 4k te spelen zijn en dat er geen 4k-monitoren met een hoge refreshrate op de markt zijn, betekent overigens niet dat alle mensen die graag gamen het aanschaffen van een 4k-scherm uit hun hoofd moeten zetten. Waarschijnlijk kan een grote groep pc-gamers prima leven met 60Hz en bovendien is het niet noodzakelijk om games op de native resolutie van 3840x2160 pixels te spelen. Heb je bijvoorbeeld een videokaart als de GTX 970 of R9 390, dan zijn de meeste spellen goed speelbaar met een resolutie van 2560x1440 pixels. Dit formaat wijkt echter af van de daadwerkelijke resolutie van een uhd-scherm en de vraag is of dit nadelige gevolgen oplevert voor de beeldkwaliteit.

Om dat in de praktijk te ervaren, hebben we Tomb Raider (2013) gespeeld op twee 27"-monitoren: de Dell P2715Q met 3840x2160 pixels en de Dell U2713H met een resolutie van 2560x1440 pixels. In beide gevallen hebben we de resolutie van het spel ingesteld op 2560x1440 pixels. In de praktijk is er nauwelijks verschil in scherpte te zien, hoewel we op de 4k-monitor afwijken van de native pixelresolutie. Omdat de pixels zo klein zijn, levert het gebruik van de afwijkende resolutie geen storende effecten op bij het weergeven van 3d-beelden. Ook menu's en tekst zien er niet zichtbaar minder scherp uit dan wanneer we het spel op het 1440p-scherm spelen. Op een kleinere monitor met een diagonaal van 24" zal het gebruik van afwijkende resoluties ook weinig problemen opleveren, de pixels zijn dan immers nog kleiner.

Oudere en minder veeleisende games

Naast de nieuwste grafische toppers zijn er tal van games die minder veeleisend zijn als het op grafische rekenkracht aankomt. Ook zijn er veel oudere spellen die nog populair zijn en vandaag de dag waarschijnlijk zonder al te veel moeite in 4k gedraaid kunnen worden. We namen de proef op de som met een aantal van dit soort games en over het algemeen lijken veel daarvan goed voorbereid te zijn op de 4k-resolutie. Ze ondersteunen niet alleen de hoge resolutie, maar laten teksten en menu's ook goed schalen. We probeerden bijvoorbeeld Prison Architect, Guacamelee en The Walking Dead. Dergelijke 2d-games vragen weinig van de grafische kaart, maar zien er in 4k beduidend scherper uit dan wanneer je ze in full-hd-resolutie speelt. Het is niet zo dat alles ineens prachtig oogt op 4k. Texturen worden vaak uitvergroot, want die zijn niet altijd in hoge resoluties aanwezig.

Prison Architect

Prison Architect in 5k-resolutie van 5120x2880 pixels.

Bugs

Display scaling uitschakelenHoewel games grotendeels vrij goed overweg lijken te kunnen met een hoge resolutie, zul je waarschijnlijk af en toe problemen tegenkomen. Zo zagen we bij Ori and the Blind Forest in het menu wel een optie om de resolutie in te stellen op 3840x2160 pixels, maar hierop klikken leverde geen enkel resultaat op. Het bleek niet mogelijk om de resolutie hoger dan 2560x1440 pixels in te stellen. De oorzaak bleek te liggen bij het door ons ingestelde schaalniveau van 150 procent in Windows. Dit probleem, dat waarschijnlijk bij diverse games kan optreden, is op te lossen door het exe-bestand van de desbetreffende game op te zoeken en bij de eigenschappen in het compatibiliteitsmenu aan te geven dat het programma niet geschaald mag worden. Nadat we dit gedaan hadden, konden we probleemloos van de game in 4k-resolutie genieten.

Ook zijn er games die simpelweg geen mogelijkheid bieden om een 4k-resolutie in te stellen. Dat bleek het geval bij het grafisch eenvoudige spel Limbo, dat helemaal geen instelopties heeft, maar ook bij Pro Evolution Soccer 2016. De hoogste resolutie is 2560x1440 pixels, al zijn er wel omwegen om toch in een hogere resolutie te kunnen spelen. Tegenhanger FIFA 2016 biedt wel officieel de mogelijkheid om in 4k te voetballen. Hoewel we in de praktijk geen onoverkomelijke obstakels zijn tegengekomen, is het verstandig om als je een bepaalde game graag speelt, vooraf te onderzoeken of het spel goed overweg kan met een 4k-monitor.

Kopen of afwachten?

Hoewel de eerste 4k-monitoren al in 2013 op de markt kwamen, zijn monitoren met een hoge pixeldichtheid nog lang geen gemeengoed. Er is inmiddels een behoorlijk aanbod en de prijzen zijn flink gedaald, maar van een grote omarming, zoals bij tv's het geval lijkt te zijn, is nog geen sprake. Dat is te begrijpen gezien de matige ondersteuning van software en de benodigde grafische rekenkracht om optimaal gebruik te maken van de hogere resolutie in games. Het maakt het beantwoorden van de vraag of investeren in 4k nu verstandig is niet eenvoudig.

Een 4k-monitor is nog niet voor iedereen geschikt. Spendeer je echter veel tijd achter je pc, dan is het grotendeels een absoluut genot om te werken achter een scherm met een hoge pixeldichtheid. Wel zul je af en toe eigenaardigheden tegenkomen. Bovendien zijn problemen met schalen nog lang niet de wereld uit en is het de vraag of dat ooit het geval zal zijn. Daarvoor moeten alle softwaremakers hun programma's geschikt maken voor hoge resoluties. Toch zouden wij de huidige minpunten voor lief nemen in ruil voor de hoge scherpte. Heb je eenmaal een tijd achter een 4k-monitor gewerkt, dan is het niet prettig om weer achter een 'gewoon' scherm aan te moeten schuiven.

Macrofoto van een 27"-monitor met 4k-resolutie

Macrofoto van een 27"-monitor met 3840x2160 pixels

Toekomst: 4k op 120Hz, 5k-singlestream en oledmonitoren

Hoewel je altijd wel kunt wachten tot er iets beters op de markt komt, is er momenteel een techniek die wel degelijk het wachten waard kan zijn: displayport 1.3. Waarschijnlijk komen Nvidia en AMD in de tweede helft van 2016 met videokaarten die over de nieuwste displayport-versie beschikken. Deze aansluiting heeft een hogere bandbreedte en dat maakt 4k-monitoren met 120Hz mogelijk. Ook zullen er met de komst van displayport 1.3 waarschijnlijk 5k-monitoren verschijnen die niet langer met de multistream-techniek gebruikt hoeven te worden. AMD heeft al uitgesproken dat het verwacht dat dergelijke schermen in de tweede helft van 2016 op de markt komen. Waarschijnlijk tegen forse prijzen, maar voor wie een grote investering in een 5k-scherm wil doen, is het vermoedelijk het wachten waard.

Oled is en blijft voorlopig toekomstmuziek. Dat de beeldschermtechniek fantastische beelden oplevert, weten we al jaren. Hoewel computerfabrikanten nu de eerste stappen zetten door oledpanelen toe te passen in laptops en in een enkele monitor, zijn er echter geen aanwijzingen dat er binnen afzienbare tijd een prijsdoorbraak zal plaatsvinden. De kans lijkt groot dat oledmonitoren in de komende jaren nog duur en zeldzaam blijven.

Conclusie

Het aanschaffen van een 4k-monitor blijft nog iets voor early adopters, maar wat ons betreft is het op dit moment in ieder geval niet meer verstandig om veel geld te investeren in een monitor met een resolutie van 1920x1080 of 2560x1440 pixels. Alleen als je een fanatieke gamer bent en je een verversingssnelheid van 120Hz of hoger vereist, of als je een grafische professional bent en perfecte kleurweergave belangrijker is dan scherpte, zijn dergelijke high-end monitoren nog interessant. Voor alle andere gebruikers is een 4k-monitor nu een prima investering waarvan je nog jarenlang plezier kunt hebben.

Reacties (256)

256
251
164
7
1
6
Wijzig sortering
Een uitgebreidere tabel dan die op de eerste pagina van het artikel heb ik een tijdje terug gemaakt voor een topic hier op GoT. Omdat dat topic nog niet af is heb ik de tabel even in een Tweakblog geplaatst. De tabel gaat overigens alleen over de op dit moment gangbare formaten voor desktopbeeldschermen. Laptop, tablet en smartphone schermformaten staan er dus niet in.

Een aantal nieuwe formaten dat is terug te vinden op de meest recente roadmaps van paneelfabrikanten zoals LG Display, Samsung en AU Optronics, waarvan een aantal worden besproken in het artikel LG werkt aan 37,5"-paneel met resolutie van 3840x1600 pixels, staan nog niet in de tabel. Voornamelijk omdat deze nog niet verkrijgbaar zijn, maar ook omdat ik nog geen paneeldatasheets heb van panelen van die formaten en daardoor alleen op basis van de afgeronde beeldschermdiagonaal zou kunnen terugrekenen.
De ontwikkelingen in de monitorenwereld gaan ook niet zo snel dat het zinvol is om geregeld in een nieuw scherm te investeren.
De voornaamste reden daarvoor is het dalende budget dat mensen reserveren voor een beeldscherm. In het late CRT / vroege LCD tijdperk (2002-2004) was het een stuk normaler dan nu om €1000 of zelfs €2000 aan een monitor uit te geven dan nu. Als je kijkt naar het topic 20" TFT scherm van Dell zie je dat de prijs van fl 3968,65 voor een 20" 1600x1200 IPS monitor toen als zeer acceptabel werd gezien. Gecorrigeerd voor inflatie is datzelfde bedrag nu €2306,69. Ook de Sony GDM-FW900 24" CRT was destijds een stuk populairder dan schermen van zo'n €2200 (€2650 als je corrigeert voor inflatie) nu zijn. Je zal nu echt goed moeten zoeken naar consumenten die dat voor een monitor neerleggen.

De ontwikkelingen zijn daardoor jarenlang voornamelijk gaan zitten in hetzelfde veel goedkoper te kunnen produceren en veel minder in het verbeteren van de prestaties of kwaliteit (die laatste ging er zelfs op achteruit). Ik heb het daar recentelijk nog uitgebreid over gehad met een aantal contacten van mij uit de beeldschermindustrie. Dat ging dan voornamelijk over de steeds grotere afwijkingen tussen verschillende exemplaren van hetzelfde scherm, wat het lastig maakt voor reviewsites (zoals TFT Central waar ik zelf aan mee werk) om een representatief oordeel te geven over een scherm.

De afgelopen paar jaar zit er eindelijk wat beweging in. Zo was bijvoorbeeld van begin 2005 tot eind 2013 de hoogste resolutie en tegelijk het grootste beeldschermformaat dat je op een LCD scherm kon krijgen 30" 2560x1600. Nu zie je steeds meer grote formaten met hoge resoluties (zie ook de tabel waar ik eerder naar linkte). Ook contrast heeft jarenlang stil gehangen op 1000:1 en de afgelopen paar jaar zie je ook daar beweging in: LCD met contrast ratio's van 3000:1 en zelfs 5000:1 (bijvoorbeeld AU Optronics AMVA+ panelen). En binnenkort dus zelfs een hele nieuwe beeldschermtechnologie voor de consumenten beeldschermmarkt (Sony en FSI hebben al langer OLED beeldschermen voor de filmindustrie) met de introductie van de Dell UltraSharp UP3017Q 30" OLED op 31 maart.


Overigens verwacht ik dat wanneer OLED wat groter begint te worden in de consumentenmarkt voor monitoren het bedrag dat men bereid is om voor een monitor neer te leggen weer flink zal toenemen. Met de Dell UltraSharp UP3017Q 30" OLED zal dat nog niet het geval zijn, aangezien die waarschijnlijk rond de €5500 inclusief BTW zal gaan kosten in Europa en daarmee voor vrijwel iedereen onbereikbaar is. Maar wanneer er OLED monitoren van zo'n €1500 komen verwacht ik dat er toch heel wat mensen zijn die dan zo'n scherm kopen. Veel meer dan het aantal mensen dat bereid is om nu €1500 voor een monitor neer te leggen (welke dan dus LCD is).

De reden daarvoor is dat OLED twee grote minpunten aanpakt van LCD die nog altijd aanwezig zijn en waardoor veel mensen nog steeds de overgang van CRT naar LCD als een achteruitgang zien:
  • contrast
  • uniformiteit
...maar ben je bereid vierhonderd euro of meer uit te geven, dan zijn er tal van interessante 4k-monitoren.
Voor €500 of minder zie ik 17 monitoren in de Pricewatch staan met een resolutie van 3840x2160. Maar daar zit weinig interessants bij. Van die 17 zijn er 9 met een TN paneel van 28". De varianten met een IPS of PLS paneel zijn op één 27" na allemaal 23,5-23,8".

Aangezien UHD / 4K monitoren over het algemeen gebruikt worden voor toepassingen anders dan gaming zijn schermen die gebruik maken van een paneeltechnologie uit de IPS of VA-familie een stuk interessanter dan schermen met een TN paneel. Van de 46 monitoren in de Pricewatch die op dit moment verkrijgbaar zijn waarbij dat het geval is en die een resolutie hebben van 3840x2160, 4096x2160 of 5120x2880 zijn er 36 duurder dan €600 en 27 duurder dan €850.

Ik denk dat dit zin in het artikel dus beter gewijzigd kan worden in "...maar ben je bereid zeshonderd euro of meer..."
Kleurgamma
Dit doet echt pijn aan m'n ogen. Je hebt kleurbereik en gamma, maar kleurgamma is absoluut geen correcte term in de beeldschermindustrie.

Met het kleurbereik wordt het oppervlak bedoeld binnen een bepaalde referentieruimte (over het algemeen het CIE 1931 xy chromaticiteitsdiagram, soms het CIE 1976 u'v' chromaticiteitsdiagram) dat wordt afgedekt door de driehoek die ontstaat door de punten gevormd door de primairen van het scherm binnen die referentieruimte met elkaar te verbinden. Het kleurbereik van een LCD beeldscherm wordt door twee dingen bepaald:
  • De backlight
  • De kleurfilters in de subpixels van het LCD paneel
De gammawaarde is de exponent in de formule die de onderlinge verhouding in helderheid van kleuren tussen zwart en wit in bepaald:

RLout = RLingamma

Waarbij RL staat voor Relative Luminance.

Hoe ziet dat er in de praktijk uit? Stel je wil de RGB-grijswaarde [210;210;210] op een 8 bit scherm met een gamma van 2,2 weergeven, dan krijg je:

(210 / (28 - 1))2,2 = 0,652

De helderheid van [210;210;210] wordt dus weergegeven als 65,2% van de helderheid van wit (vandaar ook Relative Luminance, oftewel relatieve helderheid, omdat het ten opzichte is van wit), niet op 210 / 255 = 82,4% zoals je op basis van de input zou verwachten.

Om de absolute helderheid te krijgen moet dat nog worden vermenigvuldigd met de helderheid van wit. Als dat scherm een helderheid van wit heeft van 120 cd/m² zal de grijswaarde [210;210;210] dus met een helderheid van 78,3 cd/m² worden weergegeven.

De reden voor gamma is dat wij helderheid niet lineair waarnemen. Een scherm met een gamma van 1,0 (dus effectief geen gamma decoding) zou nauwelijks onderscheid kunnen weergeven tussen schaduwtinten. Dit is duidelijk terug te zien in Afbeelding 75 van m'n review van Eizo ColorEdge CG277. Bij gamma 1,0 zijn de stappen tussen grijswaarden aan de kant van zwart heel groot, maar aan de kant van wit heel klein. Als je dit in veel kleinere stappen zou weergeven lijkt het geen constante gradient. Doe je dat voor gamma 2,2 dan lijkt het voor ons wel een lineaire gradient.

[Reactie gewijzigd door Kid Jansen op 22 juli 2024 23:29]

De reden daarvoor is dat OLED twee grote minpunten aanpakt van LCD die nog altijd aanwezig zijn en waardoor veel mensen nog steeds de overgang van CRT naar LCD als een achteruitgang zien:
  • contrast
  • uniformiteit
Inputlag komt daar ook nog bij.
De 18ms toegevoegde lag van de Dell U3014 waar we het recent nog over hadden; echt bespottelijk. Of de 20 ms van de Philips BDM4065UC. Prachtig scherm, maar waardeloos door zo'n stupiditeit.
Het nare hiervan is ook nog eens dat het niet, zoals resolutie, gewicht of refreshrate, in de specificaties vermeld wordt. Alles hangt min of meer af van TFTcentral om zoiets te meten.
Ik heb nog geen aanwijzingen gezien die er op duiden dat input lag met OLED significant lager zal zijn dan met LCD. De netto input lag wordt ook wel beïnvloed door de reactietijden van het paneel, maar dat is over het algemeen maar een klein gedeelte van de totale input lag (in ieder geval op alle schermen waarbij input lag een issue zou kunnen zijn). De netto input lag zal met OLED daardoor dan wel al zo'n 3-5 ms lager liggen, maar de grootste invloed heeft nog steeds alles tussen de connector en het paneel in. Er zijn bijvoorbeeld schermen die een frame eerst helemaal bufferen voordat er wordt gestart met het weergeven.
De inputlag waar ik het over had was inderdaad dat deel tussen connector en scherm; wat TFT Central aanduid als "Signal Processing Lag".

Wat is eigenlijk de reden achter het bufferen van een frame? Voor dynamisch contrast? Overdrive?
Inderdaad vaak een probleem om duidelijke en eenduidige informatie te krijgen over schermen, zowel in TV's als in monitoren.

Wat de 20 ms van de BDM4065UC betreft: Ik begrijp ook wel dat de gamers het altijd nog sneller willen, maar zoals in het artikel wordt genoemd zijn is het al een probleem om een kaart te vinden die dat kan verzorgen, dus dit is niet de enige bottleneck. Komt bij dat het een 40(!) inch monitor - dus 100.5 cm diagonaal - is met bovengemiddeld veel toeters en bellen, voor € 700… Ik heb er vorig jaar een gekocht en kon toen niets vinden wat ook maar in de buurt kwam qua afmetingen, UHD @ 60Hz, allerlei opties en ingangen, voor dat geld.
Zoveel toeters en bellen zie ik anders niet op de BDM4065UC. Los daarvan zit ik meestal toch niet te wachten op die toeters en bellen. De Dell U3014 bijvoorbeeld voegt inputlag toe om vervolgens overshoot toe te voegen. Dat laatste wilde ik sowieso al niet, dus dat eerste mogen ze ook weglaten.

Heeft ook weinig met gamen te maken. Ook op de desktop, CAD, browsen, is die 20ms gewoon irritant; net alsof je 24 uur wakker bent. En ja, ik ben ook het type dat TL balken ziet flikkeren en de telefoonlader hoort piepen als die klaar is met laden.

Los daarvan zie ik ook niet in waarom het nodig zou zijn; de 3007WFP-HC en 2007FP schermen die ik heb, hebben het inputlagprobleem niet. De U3014 wel, behalve in game-mode, maar dan zijn de kleuren (vooral geel) nog smeriger dan op dat 8 jaar oude scherm.
Ik begrijp wat je bedoelt. Het knipperen van de TL-lampen zelf valt me niet zo op, maar als iets snel beweegt in dat licht zie ik heel goed het stroboscoop-effect. Ik hoor de vliegtuigen overkomen op 11 km hoogte, ook als het waait, maar omdat anderen dat soort zaken niet horen of niet opvalt, 'mag' je daar niet over beginnen.

Wat betreft de input-lag, die 3007WFP-HC heeft volgens dell.com toch nog 8 ms (gemiddeld) en 12 ms black to black. Naarmate de beelddiameter toeneemt, hebben monitoren kwadratisch meer (sub)pixels en de bijbehorende data te verwerken. Daarom zie je bij monitoren met de hoogste resoluties vaak niet de beste prestaties wat betreft input lag. De BDM4065UC is goedkoop voor zo'n grote monitor en zeker een 40' en dat kun je niet los zien van de specificaties.

Toeters en bellen zijn in dit geval uitgebreide opties voor picture in picture, een scherm wat fabriek-af gekalibreerd is, software (Windows) om het scherm nog verder bij te stellen meegeleverd, ook Nederlands als optionele taal van de interface en dergelijke. Bij goedkope schermen wordt daar vaak het eerst op bezuinigd.

Toch zie ik wel ruimte voor verbetering of anders een 'luxere' versie met gebogen scherm. Daar zag ik aanvankelijk de voordelen niet zo van, maar juist bij een computermonitor, waar je dus dichtbij zit, en dan de grotere varianten, heeft het wel degelijk zin omdat de kijkhoek anders wel heel scherp wordt in de hoeken.
Wat betreft de input-lag, die 3007WFP-HC heeft volgens dell.com toch nog 8 ms (gemiddeld) en 12 ms black to black.
Je haalt inputlag en ghosting door elkaar. Die 8ms gaat gaat over de tijd die pixels nodig hebben om hun verandering te realiseren, niet de tijd die er zit tussen aankomen van signaal in monitor en versturen van signaal naar pixel. De ghosting van de 3008WFP-HC zal me echt aan m'n reet kunnen roesten; de overshoot van de U3014 is 100x irritanter. En dan komt er nog inputlag bij.
Mooie tabel! Een interactieve versie kun je hier vinden: https://www.sven.de/dpi/

Als aanvulling op tabel in de tweakblog. De ppi die werkbaar is zonder scaling hangt af van de taak waarvoor je het gebruikt.

Ik heb een scherm met 117 ppi (2560x1440 25"), die gebruik ik zonder scaling voor browsen, programmeren en films kijken. Echter als ik aan het gamen ben, en tekst over een bewegende achtergrond geprojecteerd wordt, dan is 117 ppi net iets te veel en wordt de tekst voor mij lastig te lezen.

Ook hangt het af van hoe ver het scherm van je weg staat. Een laptop scherm staat vaak dichter bij. Bij een laptop is 147 ppi (1920x1200 15") voor mij prima om zonder scaling op te werken. Een retina scherm zonder scaling, 220 ppi (2880x1800 15") is te veel verkleind.
Die site bestaat al jaren inderdaad, maar de maker gebruikt nog altijd de afgeronde beeldschermdiagonaal om terug te rekenen. Mijn tabel is een stuk nauwkeuriger, want ik gebruik de pixel pitch en resolutie voor het bepalen van de afmetingen en lineaire pixeldichtheid. De pixel pitch is de meest nauwkeurig gespecificeerde maat voor een paneel, vaak me 4 of 5 significante cijfers in paneeldatasheet.

Dit heeft er waarschijnlijk mee te maken dat de pixel pitch in (vrijwel?) alle gevallen hetzelfde is voor een heel glassubstraat. Als de afwijking bij het glassubstraat al te groot is, kan dit verder in het productieproces alleen maar verergerd worden, maar niet meer gecompenseerd.
Ook hangt het af van hoe ver het scherm van je weg staat.
Klopt, maar dat ligt over het algemeen rond de 65 cm, ongeacht de afmetingen van het scherm. In de meeste gevallen wordt dit namelijk vooral bepaald door de diepte van het bureau en dat is meestal 80 cm.
Een laptop scherm staat vaak dichter bij.
Zowel in m'n reactie hierboven als bij de tabel in de Tweakblog staat dan ook dat het gaat om desktopbeeldschermen. Voor schermen van laptops, tablet, smartphones, etc. zijn inderdaad andere kijkafstanden gebruikelijk.
Kan je ook de 1:1 monitoren (die ze bijv. bij air control gebruiken) opnemen in je tabel?
Het enige 1:1 formaat dat voor consumenten normaal verkrijgbaar is, is 26,5" 1920x1920 (deze heb ik nu ook aan de tabel toegevoegd). Overigens ook alleen maar als de Eizo FlexScan EV2730Q.
Dank. Leuk dat die 26,5" meer beeldoppervlak heeft dan de 27"-, 28"- of 29"-monitoren.
Ik ben natuurlijk een pietlut, maar 22640 (in de tabel voor oppervlak) staat toch veel netter dan 2,264 · 10^5?

Nu nog een licht ovale monitor. Dat zou 't beste bij onze ogen passen... :P
Maar minder efficient bij 't produceren (substraatverlies).

[Reactie gewijzigd door kimborntobewild op 22 juli 2024 23:29]

28" 2048*2048;
http://www.thruput.co.uk/support/GFVT03

Zie ook Eizo Raptor SQ2814; zo te zien hetzelfde ding.
Verhaaltje van Eizo;
http://www.eizoglobal.com...aroControl_case_study.pdf

De ronde monitoren zijn er juist uitgegaan bij de luchtverkeersleiding. Al iets van zeven jaar geleden ofzo.

Toen ik bij LVNL binnen was in 2009, stond er ook veel 4:3, waaronder 2007FP's en 2001FP's; maar dat was vooral bij oefenopstellingen en overige computers.

Kijk voor de lol ook eens naar IBM T220 / IBM T221 schermen; 15 jaar geleden, 3840*2400; veel nuttiger qua resolutie en verhouding dan 3840x2160 wat mij betreft.

[Reactie gewijzigd door Anoniem: 120284 op 22 juli 2024 23:29]

http://www.eizoglobal.com...aroControl_case_study.pdf
De ronde monitoren zijn er juist uitgegaan bij de luchtverkeersleiding. Al iets van zeven jaar geleden ofzo.
Ronde monitoren? In dat linkje kan ik er i.i.g. geen woord over vinden. Of ik lees te snel...
Kan me ook niet herinneren ooit een grotere ronde monitor gezien te hebben dan op horloge-formaat.
Ja, rond, in het CRT tijdperk. En nee, daar staat niks over bij dat Eizo linkje.

Zie;
http://www.wmassociates.com/ATCAS.htg/1789_15.jpg
Is dat niet stiekum een rechthoekige monitor waarbij de hoeken afgeplakt zijn? :P
Zit daar eigenlijk wel een beeldbuis achter, of gebruikte men toen andere techniek?
Maar: dat die monochrome ronde beeldopstellingen er uit gegaan zijn ten faveure van grote kleurenschermen, is natuurlijk niet zo vreemd, economisch en qua mogelijkheden gezien. Die ronde monitoren zijn er niet uit gegaan vanwege oog-ergonomische redenen; ik denk nog steeds dat ronde (of i.i.g. ovale) monitoren beter voor je ogen zijn dan rechthoekige. Rechthoekigen zijn gewoon economisch gezien goedkoper te produceren.
(En bij air-control en ship-control gebruikt men dan ook nog steeds ronde weergaves van hun radar/sonar, maar dan op een vierkant of rechthoekig scherm.)

[Reactie gewijzigd door kimborntobewild op 22 juli 2024 23:29]

Volgens mij gewoon een ronde CRT, net zoals op oude oscilloscopen.
Ik heb in 2005 nog een Dell 2405FPW gekocht (24" 1920x1200) voor 880 euro (die ook nog steeds dienst doet), dat werd toen al als excessief gezien... Naar mijn idee was het toen dus al niet echt normaal om zoveel geld uit te geven. Weliswaar was dat iets later dan de 2002-2004 die jij aangeeft, maar zo snel veranderen prijzen en marktgedrag nou ook weer niet.
Nu zou ik weer hetzelfde bedrag uitgeven aan een monitor (een 27" IPS 144hz gsync scherm), dus voor mij persoonlijk is er niet zo gek veel veranderd (ik twijfel alleen of gsync nog een lang leven beschoren is of dat Nvidia zich straks bij de DP standaard schaart).
Wellicht was het vooral de groep enthousiastelingen die destijds nog meer geld aan een monitor uit gaf en is die groep wat kleiner geworden?
Ik heb toen ook voor iets in de 800 euro die dell gekocht via een inkoop actie (de winkel prijs lag toen volgens mij boven de 1000 euro). Het scherm dat ik daarvoor had was een 19" Philips CRT 100Hz 1280x1024 van rond de 1600 gulden. Wat dat betreft is er de afgelopen 10jaar maar bar weinig vooruitgang geboekt op het gebied van monitoren. Gelukkig lijkt daar nu verandering in te zijn gekomen op gebied van resoluties (QHD, UHD), (variable) refresh rates, en aspect ratios (1:1 - 21:9).

Ik ben nu ook weer aan het kijken voor een nieuw scherm met een budget van rond de 1000 euro. De meeste mensen die ik ken vinden dat absurd hoge bedragen. Maar aangezien ik er 10+ jaar mee doe, vind ik het allemaal wel mee vallen.
Maar wanneer er OLED monitoren van zo'n €1500 komen verwacht ik dat er toch heel wat mensen zijn die dan zo'n scherm kopen.
.

Absoluut. Kan niet wachten tot OLED echt doorbreekt. De 5500 euro voor de Dell is zeker een brug te ver, maar als hij richting de 2000 euro zou gaan na een jaartje ofzo dan heeft mijn spaarvarken een probleem. Dan moet hij wel vrijwel foutloos zijn. Potentiele problemen zijn toch wel inbranden en input lag denk ik.

Het zal er mede van afhangen of er concurrentie komt. Gelukkig zie je ook steeds meer laptops met OLED verschijnen. Ik verwacht niet in 2016 nog een OLED-monitor aan te schaffen, maar ergens in 2017 moet zeker kunnen.

[Reactie gewijzigd door Tachyon op 22 juli 2024 23:29]

Deze schermen zien er allemaal prachtig uit. Loont het dan eigenlijk ook al de moeite om voor een 4k / UHD laptop te gaan? Ik heb net een nieuwe laptop besteld en heb besloten om niet nog eens € 150 extra uit te geven voor een UHD scherm omdat er nog zo weinig content is en ik van alles lees over problemen met scaling van Windows zelf en van de software / apps die je daarop zou willen draaien. Mijn originele budget was € 1250 en uiteindelijk heb ik € 1340 uitgegeven voor het apparaat. Dezelfde specs, maar dan met UHD scherm zouden € 1490 moeten kosten. (En dat tijdens de BTW-actie.) Ik heb lang getwijfeld, zeker ook omdat er in de komende jaren natuurlijk wel meer content beschikbaar zou komen, maar het uiteindelijk, vooral vanwege de hoge kosten, toch niet gedaan. Ik bewerk foto's en tekeningen voor mijn hobby en dat gaat nu prima op een 1440x900 scherm. Met Full HD IPS zal ik er sowieso al erg op vooruitgaan. Toch vraag ik me af, of ik nu wel of niet de goede keuze heb gemaakt. Financieel zeker wel. Er moet nog wel meer gekocht / betaald worden dan alleen mijn computerhobby natuurlijk. Maar qua techniek? Hoe kijk jij aan tegen laptopschermen in de discussie FHD vs UHD?
Nee is niet een veel te lange tekst, je bent geen tweaker of gedesinteresseerd in de info over dit artikel. De beste tweaker ( Kid Jansen ) spreekt met inhoudelijke informatie, dat kan niet in 10 zinnen. Wil je een beetje info opdoen dan is zelfs zijn reactie nog veel te kort, maar goed hij schrijft het ook niet voor jou maar voor mensen die interesse hebben in dit onderwerp.

Ontopic:
1 van de redenen waarom mijn telefoon een hogere pixeldichtheid heeft dan mijn monitor is de keuze.. Ik heb voor mij neus momenteel 2x een lg ips led 22 inch met ieder een resolutie van 1080p ( leuk dat staat inderdaad ook op de eerste pagina van dit artikel :D ).
Dit terwijl mijn smartphone een ''2k'' scherm heeft op een formaat van ongeveer 5 inch.. Echter koop ik een smartphone inclusief scherm, bij de computer heb ik de keuze welk scherm ik erop aansluit en dat is natuurlijk wel even een groot verschil.
Dadelijk is 4K standaard op de nieuwere telefoons en loop ik met 4K maar of ik dat ook daadwerkelijk nodig acht? Nee 1080p vind ik meer dan genoeg op ongeveer 5 inch.
Voor mijn monitoren vind ik de 1080p resolutie ook (voorlopig in ieder geval) genoeg, wel mijn TV van LG ala 47 inch, die mag voor mij groter qua formaat maar mag ook 4K krijgen.

Echter wacht ik met 4K ( in ieder geval voor de TV ) totdat er genoeg content op is, zo kijk ik zowel films ( netflix bijv ) maar ook TV zenders. Momenteel is sowieso op gebied van TV zenders pas 0,0 4k en op netflix ook eigenlijk NIKS.

Mijn pc wordt voornamelijk gebruikt om websites te beheren en etc en dat werkt voor mij meer dan goed op 2x een 1080p scherm.

Iets in mij zegt dat 4K voornamelijk voor de gamers bedoelt is op PC gebied (ja uiteraard er zijn ook tekenaars / fotoshoppers die profijt hebben aan 4K). Maar ik acht het nog niet nodig, dit terwijl ik wel 4K zou willen hebben maar dan in mijn TV. Zo heeft mijn oom een high-end 4K TV en heeft me wat ''demo's'' laten zien, oh men dat is echt gewoon keigaaf. Maar goed als ik dan vraag om discovery op te zetten dan is het meer een reactie van: ha-ha nja leuk he 4K.. succes met je demo's..

4K is leuk, maar moet je er ook wat mee kunnen, ik op PC gebied kan echt gewoon niks met 4K want 1080P is meer dan voldoende.
Op TV gebied: ja maar dan ook content zodat ik er iets mee kan
Op smartphone gebied: overkill klaar, zo heb ik de z5 premium gezien met een 4k scherm en ik had echt niet zoiets van wow ej dat is pas echter scherp, en met mijn ogen is gelukkig niks mis mee.. (lekker kort door de bocht, maar again mijn gehele reactie is op persoonlijke basis, ik spreek niet voor ''iedereen'').

[Reactie gewijzigd door LopendeVogel op 22 juli 2024 23:29]

Ook hier al maanden in het bezit van een UD590 van Samsung en dit in combinatie met een GTX760. Je zou zeggen dat de videokaart het spelen van spellen in de native resolutie van het scherm niet aan kan, maar dit mag best genuanceerd worden.

World of Warcraft draait op ultra in native 4k UHD resolutie gewoon tussen de 50 en 60fps en dan is ruim voldoende. Andere spelen zoals Batman Arkham Knight hebben het echter een stuk zwaarder en die zijn dan ook niet te spelen op deze resolutie en moet je dus op een lagere resolutie draaien.

Het ligt er dus echt aan wat voor spelletjes je speelt, maar zoals het artikel zelf al stelt: het draaien op een lagere resolutie is niet echt een heel groot probleem omdat in mijn geval de UD590 gewoon de boel op lagere resolutie gaat upscalen.

Wel kom je inderdaad tegen sommige problemen aan: het artikel had het al over Battle.net dat met geen mogelijkheid meescaled met de hogere resolutie, maar helaas heeft Blizzard niet alleen daar 'knoeiwerk' geleverd. Zo kan je de muispointer in World of Warcraft nauwelijks meer zien omdat die zo klein is en moet je dus addons gaan gebruiken om deze zichtbaarder te maken. Dit terwijl op de fora van Blizzard de 4k UHD community al ruim een jaar zeurt om een aanpassing hierin. Erg jammer omdat dit meestal vrij eenvoudig op te lossen problemen zijn.

Zelfs Windows 10 heeft nog steeds issues waarin zonder wat opties onder het energiebeheer aan te passen je bureaublad inclusief achtergrond bij het uitzetten van de monitor geregeld 'reset' op 1920x1080. Dit heeft te maken met de displayport aansluiting. Het gevolg is dat als je de PC laat draaien en je monitor uitzet - bij het terug aanzetten van je monitor je achtergrond opeens slechts een kwart van het beeld is en je iconen niet langer gerangschikt staan. Nogmaals dit is op te lossen met een hele inconventionele instelling, maar het schijnt wel te werken.
1. Ga naar je control panel, energiebeheer.
2. Kies het energieschema wat je nu gebruikt, kies geavanceerde settings
3. Druk op het +'je bij USB instellingen
4. Selecteer "Instellingen voor selectieve USB-onderbreking" en schakel deze uit.
Wat betreft de rest: het is een werkelijk genot om op een 4k UHD monitor te werken. Zeker in het begin krijg je het gevoel dat alle tekst die je ziet net stickertjes zijn die op je monitor geplakt zijn zo scherp is het en in spelletjes krijg je zelfs bijna een 3d-gevoel alleen maar omdat het beeld zo scherp is, maar wees gewaarschuwd: je zal heel veel moeite hebben om nadien nog op een full-hd monitor te werken - je denkt meteen alle pixels te kunnen tellen. Dat is dan ook de grootste handicap aan 4k UHD-monitors: je bent het heel snel gewend en minder is dan echt niet meer te doen.

[Reactie gewijzigd door liberque op 22 juli 2024 23:29]

Grappig dat je begint over WoW en daarna praat over spellen die meer eisen. Ik heb geen enkele game die zwaarder is voor mijn pc dan WoW, juist omdat het zo "oud" is. Moderne games draaien op max settings met QHD hogere fps dan WoW. 50/60fps in WoW haal ik wel net aan op Ultra settings (Post Processing, rendering op 200% etc), maar dan wel met een GTX970 op QHD 2560x1440. Als jij in 4K op 50/60fps speelt in WoW met een GTX760 dan draai je wel vrij lage settings in game.
Guild Wars 2 is grafisch IMO veel zwaarder dan WoW, maar draait hogere fps (gemiddeld ~80) met alles op max. Het is dus ook erg afhankelijk van de leeftijd/optimalisatie van de engine.
Ik speel zelf op een Asus PG279Q (144Hz stand), maar moet de eerste game nog zien die op max settings ook 144fps weer kan geven op mijn pc (dat zal dus niet gebeuren haha). Meestal stopt het wel bij max 100fps, afhankelijk van de scene of game.
/toevoeging voor de reacties hieronder; ik draai op een i5-4670K @ 4 GHz overclocked.

[Reactie gewijzigd door Soeski op 22 juli 2024 23:29]

Het draait niet alleen op de videokaart he, bij WoW is de processor net zo belangrijk als de gpu
Wow is grotendeels CPU limited in plaats van GPU limited wat veel games zijn. Komt volgens mij door al de verschillende gear en dergelijke waardoor de CPU veel werk moet doen al dat te berekenen.
Lol , ga naar blackrock mountain , doe vsync uit , en ga helemaal naar beneden en kijk naar de grond in de lava , dan zie je 300+ fps ;p
Kwam er laatst op display-port ook achter op m'n PG279Q dat wanneer deze uit of stand-by gaat dat deze zichzelf 'ontkoppelt', en dus bij het heractiveren alles niet goed op zijn plek staat, wist niet zeker of dat ook door dual monitor kwam dat alles verschuift.

Maar heb zelf toen 'deep sleep' in de OSD settings in de monitor van DP uitgezet en kwam het niet meer voor, maar bedankt voor die mogelijke oplossing.
Voordeel van UHD is dat je lekker 1:2 op FHD kan spelen.
Zo ziet op mijn MBPr 13 (2560*1600) 1280*800 er imo vaak beter uit als 1440*900 en 1680*1050 bij games.
De pixels zijn wel groter, maar iedere pixels neemt dan altijd 4 pixels in beslag ipv dan 2 en dan weer 3 of 1.
bovendien is het zelfs met een high-end pc en de duurste videokaarten nauwelijks mogelijk om moderne games vlot te draaien op een resolutie van 3840x2160 pixels.
Mee eens, dat mag best genuanceerd worden. bovenstaande is gewoon bullshit. Veel games draaien prima op 50+fps, soepel zat. Gewoon een beetje tweaken met de grafische instellingen. AA kas sowieso omlaag bv. Andere iets oudere en niet AAA titels draaien gewoon op 60fps. Net Rise of the tomb raider gedownload, draait prima op mn 980ti op uhd. Gelukkig trek Juul het in volgende alinia's weer een beetje recht maar die eerste zin...

[Reactie gewijzigd door nullbyte op 22 juli 2024 23:29]

Enkele programma's trekken zich helemaal niets aan van het ingestelde schaalniveau en geven de interface pixel voor pixel weer. [...] In de praktijk zijn we dergelijke programma's niet veel tegengekomen, maar het kan zeer storend zijn.
Deze opmerking van T.NET is m.i. veel te optimistisch. Ik gebruik mijn laptop, een XPS15 zakelijk en programmeer heel wat af. Het scherm is 15" met een resolutie van 3840x2160. Overigens draai ik uiteraard W10.

De standaard Office, Chrome/Edge en Visual studio dingen werken allemaal wel goed. Pas als je wat meer wilt kom je dit tegen. Sommige applicaties hebben een soort workaround, veel ook niet. Apps gebruik ik zo goed als niet.

Om wat voorbeelden te geven:

- Een command prompt is default modus onleesbaar. Tuurlijk, je kan het font aanpassen. Daarmee verplaats je het probleem naar console applicaties die weer werken met eigen settings.
- GVim, mijn favoriete ad-hoc editor. Onleesbaar. Je kan het font aanpassen, maar dan zijn nog steeds de icoontjes veel te klein.
- Gimp. Alles is piepklein. Er zijn andere icon sets voor te vinden, maar bijv. tot het maximale niveau inzoomen heeft veel minder nut gekregen.
- ANTS profiling tools. Compleet onbruikbaar, de tekst loopt door elkaar.

... ik kan nog even doorgaan.

Sommige dingen werken normaal wel gewoon, maar doen raar op deze resoluties. Ik kreeg bijv. een e-mail, die ineens heel smal was... omdat in de template een width in pixels stond. Outlook doet precies wat hij zou moeten doen met schaling, maar praktisch is het niet...

Voor games vermoed ik dat het allemaal wel zal werken, die zijn immers gebouwd op meerdere resoluties... De meeste Windows applicaties gebruiken echter nog steeds technologieen als GDI+ en WinForms -- en met name dingen als icoontjes en de 'fixed size windows' (bijv. custom dialoog-windows) schalen daarin een stuk minder lekker.

[Reactie gewijzigd door atlaste op 22 juli 2024 23:29]

15" met 3840x2160 is way overkill op het moment, daar wordt het inderdaad te vaak onleesbaar.

Ik heb begin vorig jaar mijn HP LP 3065 (2160x1600) vervangen door een Eizo Flexscan EV3237 (3840x2160), dit bevalt uitstekend. In Firefox staat de zoom echter standaard op 300% en dan kan ik onderuit zeer relaxed alles lezen. Bij de andere browsers en bv. een dos prompt moet ik wel even recht achter mijn PC gaan zitten. Paint.net en Photoshop zijn op 31,5" zonder scaling nog prima te gebruiken.

Naast het scherper beeld heb ik ivm. de oude HPs ook een flinke stroom besparing, maar dat kan puur liggen aan het feit dat de monitoren veel nieuwer zijn dan de oudere HPs.

Prijzen gaan redelijk rap naar beneden, nog geen 11 maanden later een tweede besteld en de prijs was meteen €550 goedkoper, twee maanden later is de prijs nog eens €50 lager.

Outlook zit standaard op de linker helft van mijn scherm zonder scaling, ik kan veel efficiënter werken dan op de 1080p monitor op kantoor.

Enige nadeel is dat als mensen even remote willen meekijken het vaak onwerkbaar is omdat maar erg weinig werkplekken hoge resolutie monitoren hebben. Ik los dat op door een VMtje te draaien op een lagere resolutie waar ook een aantal andere werk specifieke applicaties in draaien.
2880 x1800 werkt prima op een MBPr 15".

In OS X is het beter geregeld dan in Windows (want volledig geïmplementeerd), dus het is niet zozeer dat het op een 15" overkill is maar eerder een onvolledige implementatie van het OS.
2880 x1800 werkt prima op een MBPr 15".

In OS X is het beter geregeld dan in Windows (want volledig geïmplementeerd), dus het is niet zozeer dat het op een 15" overkill is maar eerder een onvolledige implementatie van het OS.
Dat komt omdat ik reageer op de situatie in een Windows implementatie. Dat OSX nu UI scaling goed ondersteund komt omdat Apple zijn retina hardware is gaan pushen. Was dit ook al het geval met OSX toen dit nog niet het geval was? Nee... MS is voornamelijk een software boer, dus heeft het voor W10 niet hoog op het prio lijstje gestaan.

OSX heeft zo zijn andere tekortkomingen, ongeacht wat alle Mac fanbois roepen. Maar we weten allemaal immers dat Windows zuigt... ;-)
Dat komt omdat ik reageer op de situatie in een Windows implementatie. Dat OSX nu UI scaling goed ondersteund komt omdat Apple zijn retina hardware is gaan pushen.
Volkomen onzinnige opmerking. Windows 10 ondersteunt nu 4K schermen, dat deden ze in Windows 3.11 toch ook niet? Het lijkt me niet meer dan logisch dat retina nu ondersteund wordt door OS X, terwijl blijkt dat Windows 10 de scaling nog niet onder controle heeft.

Het is gewoonweg een constatering dat het niet vloeiend werkt. Punt. Los van oudere versies, verleden, etc. werkt het nu summier, half of slecht.
OSX heeft zo zijn andere tekortkomingen, ongeacht wat alle Mac fanbois roepen. Maar we weten allemaal immers dat Windows zuigt... ;-)
wat weer een volkomen zinloze toevoeging, alleen om een reactie uit te lokken....triest zeg.

Hou je aub bij het topic, dat lijkt me veel zinvoller.
Windows 10 ondersteunt nu 4K schermen
Het ondersteunen van hardware en scaling zijn twee heel verschillende zaken. W10 ondersteund 3840x2160 perefct, dat doet W7 zelfs perfect. Maar scaling is een ander issue.
Hou je aub bij het topic, dat lijkt me veel zinvoller.
Wat exact had jou MBP met de discussie te maken, atlaste en ik hebben het puur over Windows. Jou MBP heeft precies dezelfde issues met W10 erop, er zit scaling op W10, maar die werkt zeker niet perfect.
Gebaseerd op jouw stelling:

15" met 3840x2160 is way overkill op het moment, daar wordt het inderdaad te vaak onleesbaar.

Gaf ik aan dat een hogere resolutie op mijn MBPr prima te lezen is, dus dat het niet zozeer met de resolutie maar meer met het OS te maken heeft.

Jij mag daar anders over denken, maar in w10 werkt scaling niet vlekkeloos op hogere resoluties en onder OSX wel.

Ik probeer juist geen fanboy reactie te posten, want ik gebruik al jaren beide OS-Sen naast elkaar en elk heeft zijn eigen voor/nadelen. OSX is imho beter aangepast dan w10 op dit moment.

[Reactie gewijzigd door Isheara op 22 juli 2024 23:29]

Laten we idd niet de nde fanboibattle beginnen ;) maar aangezien W8.1 al het één en ander aan scaling deed, zou je denken dat W10 daar wel een heel eind mee zou zijn.

OK, ik weet meer van Macs dan Windows PC's dus je krijgt toch een beetje je zin ;) OS X had wel degelijk al een voorsprong qua scaling en dergelijke grappen, al was het alleen al omdat het sinds het prille begin (een subset van) PDF 'intern' als basis heeft. Zelfs de pre-OS X PowerMacs uit de jaren '90 waren zó uit de doos en zonder extra drivers te hoeven installeren al met meerdere monitoren te gebruiken. Je hoefde er alleen maar een tweede monitor op aan te sluiten en je had één grote desktop, geen 'mirrored' set. Bovendien werd één scherm dan het hoofdscherm, kon je dat wisselen, kon je al ten opzichte van elkaar positioneren, resoluties aanpassen etc.
maar aangezien W8.1 al het één en ander aan scaling deed, zou je denken dat W10 daar wel een heel eind mee zou zijn.
En dat valt vies tegen, zo zijn er wel meer zaken die W10 nog niet goed onder de knie heeft waarvan iedereen er botweg vanuit gaat dat het geen problemen zou geven (games bv. werken in een aantal instanties gewoon niet correct en dat is puur een W10 issue).

Momenteel werkt de scaling van OSX met de Apple schermen perfect. Dat maakt het dan ook zo een goede ervaring voor de gebruikers. Dat is het issue dan ook gewoon niet, wat wel een issue is dat er een OSX fanboi ergens willekeurig een discussie induikt en roept "Maar op mijn Apple MBP werkt dat wel perfect!" alsof dat een geheel perfect product is. OSX is goed bruikbaar zolang je het binnen de Apple ecologie houd, alles wat geen Apple is wordt niet/slecht ondersteund. Misschien ben ik wat sjagerijnig over OSX ivm. de afgelopen 3 jaar dat er na elke update wel iets structureel fout ging met SMB en data transfer performance naar Windows based infrastructuur, cloudstorage en zelfs simpele NASen. Webdav protocollen die opeens niet meer werken, etc. Of dat de helft van onze OSX klanten in de afgelopen twee weken allemaal W10 moesten hebben op hun Mac (via Bootcamp), wat best wel wat werk kost... Apple maakt hele mooie hardware, maar als iemand die OSX moet ondersteunen in Windows dominante omgevingen... *facepalm*
Mensen die niet de hele discussie hebben gelezen.. sowieso dé bron van misverstanden en verhitte reacties op t.net! }:O

Als er een bestaande functionaliteit 'kapot' gaat door een update, ligt dat uiteraard aan OS X.

Zelfs afgezien van update-problemen, is omgekeerd een Windows machine in een Mac omgeving even onhandig werken. Eigenlijk hebben beide kampen geen belang bij het ondersteunen van het andere kamp, hooguit hun eigen deel van de gebruikerservaring. Windows wint (in de hoofden van de gebruikers) dat denkbeeldige gevecht al gauw omdat dat 90% van de mensen daarmee is opgegroeid, dus wat hen betreft is dat de norm en OS X wijkt af dus dat is het probleem, ook als het eigenlijk 50/50 is. Als er dan iets niet werkt tussen Mac OS X en Windows, ligt het bij voorbaat al aan OS X.

Je voorbeeld van Bootcamp illustreert dit trouwens heel goed: Mensen verwachten dat hun Mac ook in Windows 10 opstart. Andersom lees of hoor ik nooit iets over (hoewel het schijnt te kunnen, onder bepaalde voorwaarden) Windows-omgevingen waar klanten verwachten dat hun windows machine ook OS X ondersteunt. (Ik weet het, Apple probeert dat ook tegen te houden maar daar laten gebruikers zich over het algemeen niet door tegenhouden en als die vraag er echt was, zou je dat ook in de praktijk zien.)
[...]
Om wat voorbeelden te geven:

- Een command prompt is default modus onleesbaar. Tuurlijk, je kan het font aanpassen. Daarmee verplaats je het probleem naar console applicaties die weer werken met eigen settings.
- GVim, mijn favoriete ad-hoc editor. Onleesbaar. Je kan het font aanpassen, maar dan zijn nog steeds de icoontjes veel te klein.

... ik kan nog even doorgaan.
Had ik met mijn M3800 ook met Windows 8.1, ergerlijk voor een laptop die standaard QHD heeft.
Windows 10 is een hele verbetering, beide bovengenoemde zaken zijn in ieder geval geen op mijn laptop probleem meer.
Mijn ervaring is gelijk aan wat in het artikel staat, de meeste "schaling problemen" zijn in Windows 10 opgelost, nog maar enkele programma's schalen niet goed mee.
Mijn cmd schaalt prima mee op windows10 hoor. Had alleen wat file explorer crashes op de 175% DPI setting.
Het verhaal over multi-stream transport heeft volgens mij niks te maken met hoe 5K schermen werken op dit moment. MST maakt het mogelijk om te daisy chainen met 1 DisplayPort uitgang. De eerste 4K schermen werkte op deze manier. De 5K schermen waar dit artikel over rept gebruiken 2 DisplayPort poorten.

/edit
Must read waarom MST nodig wàs voor de eerste generatie 4K schermen.
https://community.amd.com...ation-of-ultrahd-displays

Dit bevestigd nogmaals dat m.i. MST geen vereiste is voor de 5K schermen.

[Reactie gewijzigd door DLGandalf op 22 juli 2024 23:29]

"ben je een fanatieke pc-gamer, dan is een 4k-monitor waarschijnlijk niets voor jou."

Absolute onzin. Alsof alle spelen moderne shooters zijn waar je 60+ FPS wil halen en alsof je die monitor niet op een lagere resolutie kan instellen voor die spelen en het er toch nog goed laten uitzien.

Des te grappiger als later staat "4k-monitoren met 120Hz mogelijk. "ja want 60z 4k is al moeilijk dus het dubbele is zeker de moeite waard om te wachten, die fanatieke gamer kan ondertussen sparen voor de 2 extra GPU's nodig.
Ja ik begreep die uitspraak ook niet direct, maar er zit wel een kern van waarheid in en het maakt dan eigenlijk helemaal niet uit welke games je speelt.

- Niet iedereen heeft een 980 ti of gelijkwaardig. Ook fanatieke PC gamers zijn niet allemaal dermate rijk dat ze zoveel geld willen 'weggooien' voor wat meer performance die op zeer korte termijn lang en breed is ingehaald door een nieuwe node (14/16nm). Momenteel is wel het slechtste moment om veel te investeren in GPU, want 28nm is er al veel te lang en was in 2013 al aardig uitontwikkeld. De Kepler refresh bijvoorbeeld, was alleen maar mogelijk omdat er GDDR5 kwam dat tot 7 Ghz rated was. De performance slag is zeer beperkt sinds Kepler maar de prijs is daar niet naar. Dat de GTX 970 zo positief opviel is vooral omdat er verder geen enkele beweging meer in zat en dit het enige prijspunt was waarop je echt winst kon zien in performance per dollar. Zelfs in het segment daaronder (GTX 960) is performance per dollar gelijk of ongunstiger ten opzichte van de voorgaande kaart (GTX 770). Dat zie je niet vaak.

- Voor 4K móet je eigenlijk wel naar het hoogste prijspunt waar de performance per dollar het laagst is. Elke kaart onder dat topsegment gaat de boel niet comfortabel trekken en dan is het dus heel erg sterk afhankelijk van het soort games dat je speelt, en zelfs binnen een enkel genre zullen er recente games zijn die niet lekker lopen. Dat is niet voorbehouden aan shooters.

- Competitief ben je niet op 4K. Hogere resolutie en hogere responstijd dragen niet bij aan je reactiesnelheid. Zelfs op 60 fps ben je tegen een 1080p/60 gamer in het nadeel, zelfs als die 1080p60 gamer op een normaal, goedkoop TN paneel gamed (dus geen 1ms, maar gewoon budget TN). Zélfs een 4k TN paneel heeft hogere responstijden.

- Boven de 60 FPS is onmogelijk, er bestaan nog geen 4K panelen die hoger dan 60hz gaan. Elke competitieve shooter valt daarmee al bijna af, zeker icm hogere responstijden.

- Oudere games schalen niet lekker. Met name top-down games met veel tekst hebben hier veel last van. Veel oude games zijn top down en hebben nul ondersteuning voor dermate hoge resoluties. Dat een gigant als Blizzard met Battle.Net nog geen volledige 4K ondersteuning kent, zegt genoeg. De markt is nog te klein, en dat heeft niets met kip en ei te maken, maar alles met GPU power, zie het eerste punt. Niemand optimaliseert voor minder dan 5% van de totale markt, dat is de moeite niet waard.

- Nieuwe games draaien niet lekker, of moeten op lage settings. Bovendien is het voordeel van hoge resolutie bij alles wat geen tekst is, zeer minimaal en dat effect is nog sterker wanneer je textures en dergelijke lager moet zetten. Je levert dan letterlijk in om meer pixels te kunnen weergeven, en dat voordeel betaalt zich alleen maar uit in scherpere randjes om objecten.

Opgeteld zijn dat toch heel wat hindernissen terwijl er nog heel veel ontwikkelingen binnen 4K zijn die er nog moeten komen, en ook nog redelijk geprijsd moeten worden. Nu investeren in 4K is duur en nog bij lange na niet wat je als gamer in een 4K ervaring zou moeten willen zoeken, de kans is bijna 100% dat je features gaat missen of tegen enorme meerkosten aan loopt om er ook echt voordeel van te hebben.

[Reactie gewijzigd door Vayra op 22 juli 2024 23:29]

-Heb een 970 met een 4K scherm, geen enkel probleem voor de meeste spelen zelfs de nieuwste. Als er dan toch vertraging merkbaar is bij alles op hoogste is het eenvoudig om eventjes op internet te kijken en de meeste zware opties die amper verschil maken uit te zetten.

-Competitief is compleet nichemarkt . Veel denken misschien dat ze zo zijn maar indien je zo goed bent dat de responsetijden echt zoveel verschil maken zit je al terug bij die nichemarkt van enkelingen.

-Speel veel oudere games en met Mods/GOG/zelf tweaken is er nog geen enkele waar ik problemen mee had. En moest dat toch het geval zijn, zet je gewoon de resolutie iets lager.

-Qua FPS valt dat RTW2 : 970 1440p:50fps 2160p:43fps
Vergeet niet omdat de resolutie naar boven is kan je zaken zoals AA naar beneden halen .


-Een 1440p 27" scherm heb je voor 280€ 28" 4k scherm voor 380€
1440p 32" : 480€, 4k 40" 600€ .Een 100euro verschil dus.


Het enige wat dus overblijft is voor mensen die echt e-sport doen of diegene die geen 100€ extra kunnen uitgeven.
Ik denk niet dat je begrijpt wat Tweakers hier bedoelt. Waar ze hier namelijk over hebben, is de doelgroep hardcore gamers, die dus wel voor minimaal 100fps gaan en snelheden van 2ms.
En het was niet alleen de snelheid die ze als argument gebruikte, maar ook de kijkhoeken, op een TN paneel zeggen ze dat bij te grote schermen, de kijkhoeken een punt worden.
Tevens als er straks wel 120hz schermen zijn, moet je nog wel een PC hebben die dat trekt.

Zelf werk ik nu al een tijdje met een 29" 2560x1080 scherm als casual gamer, 60hz is voor mij meer dan genoeg en de verhouding van 21:9 bevalt mij erg goed, de resolutie blijft natuurlijk te laag, dus zou ik graag over willen stappen op een hogere resolutie, helaas blijven de prijzen toch wel consument onvriendelijk.
Ik denk dat het belangrijk is om hier te vermelden dat het hier om de situatie op dit moment gaat. Ooit werd van 1024x768 ook geroepen dit niks voor gamers was omdat de hardware niet snel genoeg was.

Zelf heb ik een 5k scherm (imac), ik merk dat ik wel mn werk dingen in 5k doe, maar als ik game dan schakel ik eigenlijk altijd terug naar 2560 x 1440. In games merk je het verschil in hogere resolutie nauwelijks, maar in Frames per Second merk je de drop weldegelijk. Ligt natuurlijk ook aan de video kaart in de imac (heb wel de meest geupgrade van dit moment), maar mijn ogen zijn niet zo goed dat ik nu storend grote pixels zie. Ik zit ook op een relatief grote afstand van het scherm

Al met al denk ik dat het een beetje hetzelfde is als met 4k televisies, Ja het is erg mooi en zeker de toekomst, maar de hardware om het aan te sturen is nog vrij duur en ook zouden de schermen eigenlijk groter moeten worden om er echt gebruik van te kunnen maken. 5K op een 27" is een leuk, maar komt alleen goed tot zn recht als je heel dicht op het scherm zit.
Wat ook meespeelt is dat pixels veel beter zichtbaar zijn op statische beelden (tekst) dan bewegende beelden (games, video). Video op FHD is prima scherp. Tekst is al heel wat minder.
Ik begrijp maar al te goed wat ze bedoelen. Maar nogmaals bij fanatieke gamer versta ik iets anders dan "iemand die louter first person shooters" speelt. Sinds wanneer is dat de enige soort van spelen die "fanatieke gamers" spelen?

En sinds wanneer zijn er enkel zware moderne FPS'en op de markt.
CS GO kan perfect UHD aan met modale GPU :

https://www.reddit.com/r/...ke_to_push_csgo_60fps_at/

Kijkhoeken op VA panelen is geen enkel probleem, alsof die fanatieke gamers dan plots ook proffesioneel photoshop gaan doen?

Zelf ben ik een half jaar geleden van 27" 1440p maar 40" UHD Philips BDM4065UC gegaan. Werkt perfect voro zowat alles, echt tevreden van. Zo'n schermen heb je tegenwoordig voor een 5-600€ .
Nou, laat ik nou hardcore FPS speler zijn geweest tot c.a. 2013. Heb met allerlei spellen TFT schermen gebruikt die echt niet geschikt waren voor gaming officieel. MVA panelen bijvoorbeeld, of IPS panelen (oudjes). En ik was gewoon uiterst competetief.

Dat hele 2ms gedoe is echt overdreven kul, ja het zal vast iets schelen maar noemenswaardig is het niet. Als je goed bent, ben je goed, en dat zit in véél meer dan alleen maar pure reactietijd maar in tactiek, teamplay enz.
oké, maar alle beetjes helpen, en als je er geld voor over hebt en je wil de ogen uitsteken van je collega-gamers moet je de beste en snelste hardware hebben. het is ook gewoon leuk om nieuw materiaal te hebben, al is het maar om je eigen ego te strelen.
natuurlijk wel zielig voor die zogezegde die hard gamers met pro hardware die je dan afdroogt met je oude hardware :P
Hardcore shooter spelers dan neem ik aan? Want ik ben toch echt al ruim 20 jaar een hardcore gamer, maar raak al 14 jaar geen shooters meer aan en speel dus ook niet op 2ms en 100fps.
Alle games hebben voordeel van een fatsoenlijk hoge framerate, 30fps is helemaal niet zo leuk, als je de 60 niet kan halen is het een zeer goed punt van t.net om 4k nog niet meteen aan te bevelen
Bij de meeste strategy games levert meer dan 60fps gewoon een geen enkel voordeel meer op en bij turnbased games zoals hearthstone is zelfs 30 fps ruimschoots voldoende. Bovendien zijn de meeste serieus competitieve games wel gewoon op 60fps speelbaar op UHD. Cutting edge games worden daarvoor toch nooit serieus genomen omdat ze teveel bugs en balance problemen ondervinden. En witcher 3 op 60 of 100 fps? Give me a break, want ik single player maakt het al helemaal geen verschil meer.
100fps kan zeker wel voordelen opleveren, maar zelf zie ik er ook direct het nut niet van in. In het artikel wordt echter ook duidelijk dat 60fps vaak niet gehaald kan worden, dat is wel een belangrijk punt waardoor je 4k zou kunnen afraden.
Maar dat is niet de discussie ;)
Ik heb nu ruim een jaar 144hz full hd scherm waar ik op game. Geloof me als je eenmaal op 144hz speelt wil je niet meer terug. Ik ben iemand die zou wachten op 4k 120/144 hz. Daarnaast wat tweakers terecht aangeeft is fatsoenlijk gamen op 4k voor een enkeling weggelegd maar niet voor de massa.
Zeg me eens waarom ik 144hz op rome total war 2, world of warships of zelfs counterstrike nodig heb?

Ik doe geen competitie, ik ben geen purist die absoluut het beste van het beste wil, wat maakt die 60hz dan uit die ik gebruik?
al eens 144hz gedraaid? 144hz werkt heerlijk. en is niet alleen om "beter" te zijn. maar ook omdat het veel vloeiender aanvoelt.

of jij het zijn geld waard vind is een 2de. misschien hecht jij meer waarde aan 1440p ipv 1080p. of vind jij 1080p@60fps wel voldoende. iedereen heeft zo zijn eigen beleving. en wat hij belangrijk vind.
Euh, "werkt heerlijk", als in gewoon surfen of kantoorwerk? Ga je echt niet merken hoor.

144hz(of beter freesync g-sync) is enkel als je PC effectief die snelheid aankan . Vorige monitor kon ik "overclocken" tot 96hz , merkte weinig verschil toen en nu.

EN ja, is voor iedereen verschillend, alleen is 144hz wachten en dan de PC upgraden om dat aan te kunnen wel een investering weinig mensen zullen doen.
Alleen merk ik wel verschil tussen 60 en 120/144hz wel. en je kan natuurlijk oudere games op 144hz spelen.
Ook bij gewoon surfen of kantoorwerk kan ik overduidelijk het verschil zien, alleen al aan hoe vloeiend de cursor beweegt.
Dat gezegd hebbende zou ik inderdaad geen 120/144hz monitor voor kantoorwerk kopen, maar eerder naar een goed IPS paneel kijken.

Maar om te zeggen dat je geen verschil merkt met de door jou eerder genoemde titels is simpelweg niet waar. Ook met dat soort titels ziet het er veel vloeiender uit.
Moet je inderdaad wel de FPS halen, maar met Counterstrike moet dat geen probleem zijn :) .

Heb je het nodig? Nee. Is het beter? Ja.
Persoonlijk koop ik in elk geval alleen nog 120hz+ monitoren.
Wat wel een groot verschil is met de monitoren van een aantal jaren geleden: Een flatscreen is vanwege de andere gebruikte techniek veel rustiger aan je ogen dan een CRT, ongeacht de refresh rate.
144hz is voor competitive gaming echt ideaal, vooral in shooters merk je echt wel het verschil tussen 60z en 144hz.

Voor kantoor werk is het wel minder belangrijk. Maar ik merk echt wel het verschil tussen 60hz en 144hz als ik scroll in mijn Word document. Geloof me, als je 144hz gewend bent dan wil je niet meer terug naar 60hz. Ik ben zelf een fanatieke csgo speler, enige reden waarom ik een 144hz scherm nam was omdat het wel een stuk vloeiender ging.

Maarja, ieder natuurlijk zijn eigen voorkeur qua resolutie en refresh rate etc. Ligt er ook aan wat je doet achter je computer. :)
Ik doe geen competitie, ik ben geen purist die absoluut het beste van het beste wil
Dan ben je dus geen fanatieke gamer :)

Puur de 60Hz limiet maakt dat deze monitoren niet aan te raden zijn voor fanatieke gamers. Resolutie kun je altijd omlaag zetten, dan heb je als fanatieke gamer toch nog voordeel in de andere dingen die je met de PC doet.
Dan ben je dus geen fanatieke game
En dat is natuurlijk onzin, zoals ik in het begin zei: "wanneer zijn enkel mensen die competitief FPS spelen "fanatiek"?
Tja je zal dit moeten ervaren. Dat kan ik niet voor jou bepalen. Beelden zijn veel vloeiender wat voor met name FPS games een betere speel ervaring biedt.
Ik ben van 27" 110hz 1440p overgestapt op 40" 4k 60hz. En ik wil zeker niet meer terug :)

Het extra vloeiende is leuk maar het extra detail is zeer indrukwekkend.

[Reactie gewijzigd door lordawesome op 22 juli 2024 23:29]

Ik sta er ook zeker open voor. Maar aangezien ik grotendeels van mijn tijd nog steeds games spel op m`n PC wacht ik er nog even mee. De upgrade is het mij op dit moment nog niet waard, te kostbaar :S

Volgens 3dmark is mijn pc net niet 4k ready.... (i5-3500k, 16gb ram & GTX780TI)
Ik zou ook even wachten op de nieuwe generatie gpu's dit jaar. Ik had echter die monitor vorig jaar al gekocht en moest toen wel de gpu upgraden naar een 980ti. Niet ideaal, maar anders kon ik 6-12 maanden weinig gamen.
Anoniem: 14038 @k99528 januari 2016 07:28
Fanatieke gamers vinden een SLI/XFire oplossing toch geen probleem?
Voor de prijs van een 980ti kun je ook een 970SLI scoren en heb je voor UHD een opstelling die voor 80% van de games goed genoeg is voor 60+fps. Een 980ti SLI is dan ong 2x zo duur voor ruwweg 10 a 20% meer fps.
"Fanatieke gamers vinden een SLI/XFire oplossing toch geen probleem?"

Ik vond het gewoon grappig dat ze langs de ene kant zeggen fanatieke gamer->geen 4K te zware eisen en dan langs de andere kant zeggen "wacht misschien nog langer op 144hz 4k" alsof de "fanatieke gamer" dat dan wel plots kan draaien.
Als je het zo neerzet dan heb je wel gelijk maar wat eigenlijk toegevoegd had moeten worden is marktwerking en het daadwerkelijke nut van GPU hardware dat het kan aansturen. Het heeft dan ook totaal geen zin voor AMD en Nvidia om midrange GPU's uit te brengen die makkelijk 4k gaming aan kunnen omdat het een niche groep is die daadwerkelijk ook 4k schermen koopt die toch wel highend setups hebben om mee te beginnen.

Simpelweg zeggen wacht gewoon tot er 120 hertz schermen beschikbaar zijn heeft dan ook zeer weinig nut omdat het weer zo'n niche groep ding wordt.
Wat er echter wel speelt is het ontwikkeling van VR. Op het moment moet je aardig zware hardware hebben wil je überhaupt erover nadenken om VR aan te sturen met een degelijk ervaring maar de hype ervan is wel al gelanceerd met de komst van de rift en vive.

De druk op AMD en Nvidia ligt dan ook vrij hoog om met betaalbare hardware te komen dat op zijn minst een goede VR ervaring biedt. Dus tegen de tijd dat 4k schermen met 120 hertz enigszins gemeen goed zijn, is het aansturen ervan niet langer een groot problem anders dan dat je een GPU upgrade van een paar honderd euro zou moeten doen.
Het is in dat opzicht dan wel vrij reëel om te stellen dat het wachten op 4k 120 Hz gaming nut heeft.
Microstutter is veel erger dan een iets lagere framerate.
Als je een shooter op 4k speelt dan zie je de vijanden eerder aankomen en je ziet eerder wat ze doen.

Aan de andere kant, een shooter op 30fps spelen is natuurlijk niet te doen. 60hz tov 144hz echter, dan is het verschil een stuk kleiner.
Ik weet niet welke shooters jij speelt met zo'n enorme afstanden maar ik heb dit nog nooit gemerkt. Misschien omdat ik daarvoor op 1440p zat maar ik kan me moeilijk voorstellen dat dit ergens effectef een verschil zal geven?

If any cs spelers staan er sommige bekend om om juist heel lage resoluties te spelen.
Hmm, ik speel Battlefield 4 en Warships. Als je dat laatste een shooter kunt noemen :) Maar in warships is het wel verdraaid handig om te zien of de kanonnen op jou worden gericht of niet.
Zoek maar op Youtube naar: FPS killer pc gta 5. Dan krijg je een video waarmee hij gta 5 op 4K doet op een 750ti en een Pentium aniversary dus ja, 4k gamen is zo zwaar nog niet lijkt me.
Bedoel je https://www.youtube.com/watch?v=x1Z-tsC_4ng
?

dat is 1080p en een hoop dingen staan uit. zou het op UHD draaien dan zou hij maar 1/4 van de fps hebben. dus gemiddeld kon je dan onder de 10 FPS. ja daar ga je mee weg komen.

ooh hij heeft er nog 1..
https://www.youtube.com/watch?v=5HCAjiZXNrw

nog meer uit dingen uitgezet. en dips onder de 30 fps tijdens rijden.. |:(

sorry maar ik vind dips onder de 60 fps al hinderlijk.

en waarom draait hij niet gewoon de gta 5 benchmarks zodat je daadwerkelijk het verschil ziet? juist omdat 1 explosie hem op 10 fps zal brengen. heb nog geen gameplay gezien met actie.

[Reactie gewijzigd door loki504 op 22 juli 2024 23:29]

ja leuk onder de 30fps tijdens het rijden. met alles op medium. en in advance option staat alles uit.

Daar ga je niet ver mee komen.

https://www.youtube.com/watch?v=xHPC_EAvRPs

dit zijn de fps als alles aanstaat. en de 750ti zal er niet eens in de buurt komen. tevens is fps killer niet echt een betrouwbare bron te noemen.
Het spel ziet er echt een stuk slechter uit dan 1080p met settings op high. Leuk dat 4k gaming, maar niet als het ten koste gaat van alle andere instellingen. Dan liever een lagere resolutie en alle andere instellingen op high of ultra.

Ik bedoel, een kubus zonder effecten kun je eenvoudig renderen op 16k resolutie met 400fps, maar echt boeiend wordt het niet.
Anoniem: 673310 @loki50428 januari 2016 21:21
Om GTA 5 nou mee te nemen als een soort van benchmark, die game is nog niet eens maximaal geoptimaliseerd voor de pc. Het is een matige port van de consoles naar pc.
Ik bedoel de ingame benchmark. zodat de acties hetzelfde zijn. nu draait hij op 2 verschillende plekken.
Die goedkope g3258 doet single threaded amper onder voor een dikke i7, die cpu is zo gek nog niet als je enkel oudere games speelt.
De 750ti is een instap gaming kaart dus dat is wel opvallend, mijn oude hd7870 is zelfs een stuk sneller dan die kaart.
ben je een fanatieke pc-gamer, dan is een 4k-monitor waarschijnlijk niets voor jou
Dat is ook gewoon lariekoek, klinkt als iemand die baalt dat ie zelf geen knaken voor een UHD paneel met bijbehorende Hardware heeft. In ieder geval niet als iemand die weet waar die over praat.
je hebt dan wel aardig wat power nodig om op 4k te gamen
Niet echt nvidia 970 of amd equivalent en een i5 is genoeg .
dat is wat ik heb maar ik kan echt niet op 4k gamen hoor ja misschien met alle settings op het laagst en fps van 30
de nieuwe games zeker niet

[Reactie gewijzigd door Birdymaniac op 22 juli 2024 23:29]

? Fallout 4 ultra 33fps hitman 46 fps tomb raider 30 fps Grid 54 BF4 38

Allemaal ultra settings dus als je 45fps wil iets settings naar beneden halen.

Waar heb je dan zo'n moeite mee?
ik heb nergens moeite mee
we hebben het over gamen op 4k dat zal niet soepel gaan met een 970 en een i5 ik denk dat je er eerder 2 nodig hebt
met 33 fps wil ik geeneens gamen

[Reactie gewijzigd door Birdymaniac op 22 juli 2024 23:29]

? "maar ik kan echt niet op 4k gamen hoor"

Nogmaals de settings onder ultra (wat je dus amper/niet merkt) heb je 45-60 fps. Voldoende.
Anoniem: 343906 28 januari 2016 07:56
Waarom is er geen 'in de praktijk OS X' en 'in de praktijk Linux' opgenomen in dit artikel? Lijkt mij wel relevant voor al diegenen die die OS-en hebben en daar al dan niet een 4K aan willen hangen toch?

[Reactie gewijzigd door Anoniem: 343906 op 22 juli 2024 23:29]

Daar ben ik het ook helemaal mee eens. Hoewel OS X het al jaren wel goed doet met Retina, ben ik erg benieuwd hoe de verschillende Linux omgevingen het doen, zoals Gnome 3, Unity, MATE en KDE, maar ook GTK en Qt apps buiten hun "native" omgeving, en ten slotte ook meer exotische maar toch relatief populaire omgevingen zoals bijvoorbeeld Xfce, Cinnamon, LXDE, en elementary.

Thuis gebruik ik Windows en weet ik vrijwel zeker dat ik binnenkort een 4K scherm ga aanschaffen, maar op mijn werk gebruik ik Linux (Ubuntu MATE op het moment) en ben ik toch wel huiverig voor de 4K ervaring. Ik ben bang dat het namelijk maar voor zo'n 25% goed zal werken. Maar ik kan mij ook voorstellen dat het bij bijvoorbeeld populairdere keuzes als Unity of modernere omgevingen als Gnome 3 en Plasma wel gewoon goed kan draaien.
Ik heb Arch Linux met Plasma 5 op een 4K scherm. Ik kan je vertellen dat het een lust voor het oog is en dat Plasma 5 prima overweg kan met dit soort resoluties. En dit geld eigenlijk voor alle applicaties die ik heb draaien. Ik zou nooit meer terug willen naar FHD
Ik gebruik ondertussen al een jaar een 24" UHD-monitor met mijn Debian-Xfce en wat mij betreft is de ervaring vrijwel perfect. Ook oudere Java, GTK2+ en Qt4 apps passen zich over het algemeen prima aan je DPI-instellingen aan, in tegenstelling tot oudere Windows-toepassingen. Verder zal ik mezelf maar citeren uit een oudere reactie, waarin ik aangeef waarom ik het Mac OS/Windows/GNOME scaling-principe van alles vermenigvuldigen met dezelfde scaling factor helemaal niets vind.
Alles x2 is […] eigenlijk een artefact van achterhaalde technologische beperkingen. Wat ik doe is content x1.8 tot x2, menu's e.d. x1.4.* Dat was altijd al mijn droom, enkel was kleiner dan 10px onleesbaar vanwege te weinig pixels en eigenlijk was kleiner dan 12px behalve met bitmap fonts sowieso al niet geweldig om dezelfde reden. Maar met 16px op dezelfde grootte als 8px gecombineerd met betere leesbaarheid dan 12px is dat alles opeens geen probleem. Op mijn 24" vind ik 16:9 niet storend meer, terwijl ik dat in het verleden wel altijd zo heb ervaren. Op een 15" zal het natuurlijk nog steeds storend zijn i.v.m. 16:10 of 4:3.

* In de praktijk betekent dat dat ik mijn DPI op 130 heb gezet en verder per applicatie nog wat aanpassingen heb gedaan; zie voor tips bv. de Arch Wiki.
GTK en Qt apps buiten hun "native" omgeving […] Ik ben bang dat het namelijk maar voor zo'n 25% goed zal werken.
Qt-apps zijn een "probleem" als je de scaling van GNOME gebruikt i.p.v. de DPI-instelling van X. Daarnaast heb je wat bitmap-dingen die standaard niet scalen zoals xterm, maar dat soort dingen zijn gewoonlijk vrij eenvoudig op te lossen. Waar ik geen ervaring mee heb is het mixen van monitoren met verschillende pixeldichtheid.
Agreed, ik mis zelf ook Linux en OS X in deze vergelijking.
Hoe meer ik er over nadenk, hoe meer ik het tweakersonwaardig vind om alle gebruikers van alternatieve OS-en zo aan de kant te schuiven. Als ik aandacht wil voor gebruikers van Microsoft Windows dan ga ik wel de tech-sectie van het Algemeen Dagblad doorbladeren. Natuurlijk, ook onder Tweakers is Microsoft Windows waarschijnlijk het meestgebruikte besturingssysteem, maar ik zou niet weten wie er anders aandacht moet geven aan de (on)mogelijkheden die MacOSX en zeker Linux biedt.

[Reactie gewijzigd door 84hannes op 22 juli 2024 23:29]

Helemaal mee eens. Had de schrijver toch wel even na mogen kijken.
Dat lijkt me ook zeer belangrijk, zeker voor een website al Tweakers waar gemiddeld meer mensen waarschijnlijk Linux draaien. Uit ervaring met een Dell XPS 15 kan ik zeggen dat ik de ervaring slecht vind. Ik draai tegenwoordig Linux in HD, want anders doen de meeste programma's het niet goed.

Veel IDE's zijn Java gebaseerd, waarbij er grote problemen optreden. Zelf gebruik ik IntelliJ erg veel, en op een hogere resolutie dan HD kan ik er amper mee omgaan. Wat iemand anders ook al aangaf, consoles werken onprettig en de (Gnome) DPI instellingen zijn een verschikking m.i. Misschien dat in de nieuwe Ubuntu Gnome er nog wat aan veranderd is, ik moet nog upgraden.

Daarnaast kom ik op Windows zeer regelmatig games tegen die problemen geven met die resoluties. Dan zet ik de resolutie ingame wel op HD, maar dan nog steeds werkt het niet goed en smelt mijn laptop. (Ja, gamen is deze laptop ook niet echt voor bedoeld, maar sommige games doen het wel gewoon goed)

Al met al houd ik thuis lekker mijn 1920x1200 scherm. Er moet nog heel wat gebeuren voor ik op een 4K / UHD scherm overstap.

Edit: taal

[Reactie gewijzigd door Zilverdolk op 22 juli 2024 23:29]

Wat ik me vooral afvraag is hoe het eruit ziet als je Cleartype uitzet in Windows. Als ik iets niet trek is het onscherpe fonts, dus staat Cleartype uit, vraag me af hoe dat gaat als je gaat schalen op zo'n 4K of 5K scherm.

En stiekem hoop ik nog steeds op 4:3 of 16:10 monitoren ipv 16:9 of 21:9, maar waarschijnlijk gaat dat er niet inzitten.
Vroeger was het grootste probleem met die breedbeeldmonitoren dat die *minder* verticale resolutie boden dan de oudere, vierkantere monitoren met dezelfde diagonaal. Het ging voornamelijk daar om, niet om de verhouding op zich.

Met UHD is dat veel minder van belang, want de resolutie is altijd 'zeer aanvaardbaar', ongeacht de verhouding. Je kan dus perfect een deel van het scherm gebruiken zonder het nadeel van 'te weinig overblijvende resolutie' te ondervinden.
vraag me af hoe dat gaat als je gaat schalen op zo'n 4K of 5K scherm.
Dat is hetzelfde als je op je huidige scherm, maar dan de lettergrootte 1,5 of 2 keer zo groot. Een TrueType/OpenType font blijft een vector die wordt rasterized. Omdat de pixels op een UHD-scherm 1,5 tot 2 keer zo klein zijn is het resultaat natuurlijk wel een scherpere letter :)
Microsoft is goed bezig met de 3:2 trend, met een beetje geluk komt dit zometeen ook naar monitoren toe.
Mijn Photoshop schaalt perfect mee, dus ik denk dat de schrijver een niet up to date versie heeft gebruikt
Ik heb hetzelfde als Pink667 dus ik begrijp jouw reactie niet helemaal. Zelf heb ik Adobe CC en dus altijd de laatste versie. Dit draai ik op een surface pro 3 en een full hd 24 inch scherm als 2e scherm. Het werkt niet fijn om photoshop te wisselen tussen de twee verschillende resoluties op de schermen.

Overigens heb ik de github client voor windows die op mijn surface pro erg scherp en goed uit ziet en waar de UI op bepaalde punten niet scherp is als ik deze op mijn full hd 24 inch scherm bekijk. Erg storend.

[Reactie gewijzigd door capsoft op 22 juli 2024 23:29]

Ik gebruik een 4K-UHD scherm met 125%. Er zijn bij mij geen problemen en hij schaalt keurig mee als ik nog groter ga.
Github of Photoshop? en heb je twee schermen met verschillende dpi en resolutie? en als je photoshop bedoelt, welke instelling heb je dan in photoshop? 100 of 200%?
photoshop. In Photoshop zelf heb ik niets aangepast. Enkel in Windows naar 125% gezet
Maar dus geen twee schermen met verschillende resolutie? dan loop je niet tegen dit probleem aan inderdaad.
Niet perfect. Er is een optie in de settings voor 200% schaling. Maar Photoshop respecteert niet de Windows schaling, dus perfect is het alleen als je je monitor op 200% in Windows hebt staan. Gebruik je 125, 150 of 175, dan is alles in Photoshop te groot. Getest op Surface 3 met laatste Photoshop CC.
Ik wil niet gelijk de pessimist uithangen, maar moet toch zeggen dat ik diep, zeer diep teleurgesteld ben op tweakers.net op dit moment.
4K... voor beeldschermen? Echt?
Jullie hebben het over "afwijkende resoluties", maar dat klopt niet helemaal he.
Als je zo'n diepgaand artikel schrijft, gebruik dan tenminste de correcte term. "UHD" of "4K UHD".
4K (4096 bij 2160) wordt alleen gebruikt in de professionele video industrie met 1.90:1 formaat.
UHD (of 4K UHD) (3840 bij 2160) is het 1.78:1 formaat dat door beelschermen wordt gebruikt.
Ik had gehoopt dat t.net tenminste door het hele artikel de echte goeie term zou gebruiken. Echt heel erg jammer.

Zowel de de "Philips BDM4065UC" en de "iiyama ProLite X4071UHSU-B" hebben beide een UHD paneel en niet een 4K paneel.

Sinds CES 2013 is al vastgesteld dat UHD panelen geen 4K meer heten maar UHD of 4K UHD. Dit vooral omdat 8K UHD er ook aankomt, en om nog meer verwarring tegen te gaan dat er nog een ander formaat bestaat, dat ook echt 4K heet.

Dus aub. Gebruik geen "4K" voor iets wat "UHD" of "4K UHD" moet zijn. Dit verwacht ik van een blog, niet van de beste tech site van Nederland.

Hier een paar linkjes voor meer informatie hieromtrent.
http://www.extremetech.co...hd-are-not-the-same-thing
https://en.wikipedia.org/...evision#Alternative_terms
https://en.wikipedia.org/wiki/4K_resolution#Ultra_HD
Volgens Wikipedia:
4K resolution, also called 4K, refers to a display device or content having horizontal resolution on the order of 4,000 pixels.[1] Several 4K resolutions exist in the fields of digital television and digital cinematography. In the movie projection industry, Digital Cinema Initiatives (DCI) is the dominant 4K standard. In television and consumer media, 4K UHD or UHD-1 is the dominant 4K standard.
4K UHD ofwel 3840x2160 is één van de 4K-standaarden. Het gebruik van de term 4K kan dus prima voor beeldschermen met deze resolutie. Dit artikel gaat immers algemeen over monitoren met een horizontale resolutie in de orde van 4000 pixels.
Ja, en als ik de bron in [1] volg, dan lees ik dit:
Technically speaking, 4K is not the same as 4K Ultra HD. The standalone term “4K” was originally used to describe Digital Cinema (4096 × 2160 px). Since Digital Cinema resolution is not available in a consumer television, the term “4K Ultra HD” (3840 × 2160 px) was invented — notice the slight reduction in 4K Ultra HD resolution to achieve a 16 × 9 aspect ratio.

4K Ultra HD is exactly four times the resolution of Full HD, which produces a magnificent image when viewed in person. You will be doing yourself a great injustice if you try to gauge the clarity of a 4K Ultra HDTV screen using your computer or current Full HDTV, you will not experience anything near the actual quality of 4K Ultra HD.
Ze hebben toch altijd gezegd dat je niet zomaar Wikipedia mag citeren, want er kan eigenlijk gewoon alles en niks in staan.
Ik weet niet hoor, maar uiteindelijk gaat het niet om 'wat is technisch de meest correcte term' maar gaat het juist om wat voor de gemiddelde lezer het best te begrijpen valt. En nóg een HD-gerelateerde term lanceren voor een resolutie die dermate ver van Full HD af staat (dit is niet meer het kleine verschil dat QHD of HD 'Ready' voorstelt, maar letterlijk een verviervoudiging van het aantal pixels) vind ik persoonlijk ook eerder verwarrend als duidelijk.

'Diep diep teleurgesteld'... iets met muggen en olifanten.

Er had misschien even een halve zin aan gewijd mogen worden dat 4K de algemeen gebezigde term is of lijkt te zijn, maar meer dan dat... ik vind het azijnpisserij. Valt wat mij betreft onder de categorie taalnazi en het jammeren over d's en t's op een website. Het is er niet de plaats voor.

[Reactie gewijzigd door Vayra op 22 juli 2024 23:29]

Het idee is dat als iedereen dezelfde term zou gebruiken voor dezelfde resolutie het juist het best te begrijpen valt voor iedereen. Ik ben het met je eens dat de standaarden niet altijd even duidelijk zijn, maar om ze dan maar verwisselbaar te gebruiken is nog onduidelijker.
Zo werkt helaas de ontwikkeling van taal niet en zo heeft het ook nog nooit gewerkt. Men kan daar als purist tegenin willen gaan, maar dat is vechten tegen de bierkaai. Taal ontwikkelt zich door datgene wat aanslaat bij de massa. Dat heb je maar te volgen en als je dat niet doet, ben je een zonderling die niet begrepen wordt.

Je kan er lang of kort over doorgaan maar zo werkt taal nu eenmaal. Technische termen kunnen er best naast bestaan, zo gebruiken wij ook nog 1080p en 720p vandaag de dag, en kun je ook prima 2160p gebruiken als 4K je niet exact genoeg is. Maar twee afkortingen in de spreek/gebruikstaal gaat niet werken.

[Reactie gewijzigd door Vayra op 22 juli 2024 23:29]

Voor de duidelijkheid: ik geef een neutrale reactie. Of je bedoeld 'men' waar je 'je' gebruikt? ;)

Het gaat hier om het juiste gebruik van afkortingen, niet zozeer om taal. Dat ontwikkelt zich heel anders, dat wordt namelijk simpelweg geïntroduceerd door een organisatie en dan ligt het eraan of de overige partijen dat goed of fout overnemen (met name in de beginfase).

Het is niet te vergelijken met het veranderen van woorden of overnemen van woorden uit een andere taal. Dat is inderdaad een 'organisch' iets.
Aangepast, 'je' was meervoud maar leest niet lekker inderdaad :)

Afkortingen kunnen onderdeel worden van de spreektaal, en worden daarmee ook onderdeel van het organisch proces van ontwikkeling. Niemand zegt '2160 pee' en UHD is verwarrend door alle reeds bestaande HD-afkortingen. 4K is dus in de spreektaal de beste en duidelijkste manier om de hogere resolutie aan te geven. Ga nu de straat op en ik geef je op een briefje dat meer mensen weten wat 4K is, dan wat UHD is.

Wat daarvan de oorzaak is, maakt helemaal niet uit, in dit geval is het de commercie die bepaalt, en dat is in veel meer taalontwikkelingen het geval.

[Reactie gewijzigd door Vayra op 22 juli 2024 23:29]

En nóg een HD-gerelateerde term lanceren voor een resolutie die dermate ver van Full HD af staat (dit is niet meer het kleine verschil dat QHD of HD 'Ready' voorstelt, maar letterlijk een verviervoudiging van het aantal pixels) vind ik persoonlijk ook eerder verwarrend als duidelijk.
QHD (Q van quad) is anders effectief Quad HD, Quad 720p. Exact dezelfde sprong die ze nu maken van FHD naar UHD, want UHD is eigenlijk ook QFHD.
Je hebt gelijk, maar...Op Hardware.info hebben ze dat ook opgegeven omdat het er in de volksmond al ingeslopen is. UHD=4K enz. Helaas maar waar, ik stoor me er ook aan. Maar je doet er niks aan.
UHD is onduidelijk. Het lijkt te veel op HD en FHD.

Met 4K weet iedereen direct wat je bedoelt. En als je 4096x2160 bedoelt dan moet je dat exact zo zeggen want die resolutie wordt bijna niet gebruikt.
UHD is onduidelijk. Het lijkt te veel op HD en FHD.
Dat is *omdat* het net hetzelfde is als HD en FHD: een benaming voor een schermresolutie.
Met 4K weet iedereen direct wat je bedoelt. En als je 4096x2160 bedoelt dan moet je dat exact zo zeggen want die resolutie wordt bijna niet gebruikt.
Neen, want met 4k (4K = vier Kelvin? Ik zal wel de kleine -k gebruiken, zoals het hoort) bedoelt iedereen altijd impliciet DCI-4k, de énige 4k-standaard die overigens bestaat.

UHD is gewoon quad-FHD, maar omdat QFHD minder goed bekt dan UHD hebben ze maar voor UHD gekozen. Helaas echter, want QHD is wél effectief quad-HD, dus ze breken met de traditie om er de Q van quad voor te plaatsen in geval van het verquadden van een resolutie.

Dat de TV-fabrikanten begonnen zijn met alle UHD-panelen '4k' te noemen heeft echt niet geholpen om Jan met de Pet op het juiste pad (zijnde: UHD, niet 4k) te helpen. Gelukkig komen ze daarop terug, maar ondertussen is het kwaad al geschied.
Onee? Niet gebruikt? Hier anders dagelijks hoor. ( filmstudio ) Zou fijn zijn als ze die termen gewoon op de juiste manier kunnen gebruiken.
En daarom heeft Lightmanone1984 het er ook over waarom het op een Techsite als Tweakers het niet goed voor mekaar heeft, dit is niet de blog van Truus op de hoek, maar een site van en voor gebruikers die meer kennis van zaken hebben om trend techniek en de benamingen daarvan.
Aan de andere kant zitten hier ook mensen die een hartverzakking krijgen als iemand "Linux" zegt ipv "GNU/Linux", of "FF" als afkorting gebruikt voor Firefox ipv "Fx", terwijl het uit de context heel duidelijk was wat er bedoeld werd. Hier ook, als je een artikel over 4K schermen ziet met de vraag of je hierin al moet investeren, dan kun je uit die context halen dat het om mainstream UHD 4K schermen gaat.

Wat dat betreft zul je altijd wel iemand vinden die iets te klagen heeft, juist omdat het hier wat dat betreft volzit met "puristen" die op hun tenen getrapt zijn als iemand het in hun ogen fout doet.

En Tweakers is al jaren geen echte Tech site meer, het is een gadget site met af en toe een artikel dat iets dieper ingaat op de achterliggende techniek.
Ben ik de enige die het toch nog vrij duur vind om te upgraden? Als ik naar de pricewatch kijk, is een monitor al snel €750 (zie pagina 1). Aangezien ik dual monitors heb, zit je met een upgrade al snel op €1500. 8)7

Natuurlijk kost een goedkoper scherm ongeveer €350 - €400, maar dan nog. Met nog maar weinig content op 4k (Netflix maar een handjevol, YouTube af en toe, NPO Gemist op 342p... Gruwel... En Twitch meestal op 720p) zie ik de reden nog niet, zeker omdat je voor ruim de helft een mooie dual 1080p opzet hebt (uitgaande van goedkope 4k monitor).

Voor mij hoeft het nog niet zozeer. :p
Ik ben juist wel overgestapt naar een 40" philips 4k monitor. Vroeger had ik altijd dual monitor, maar nu heb ik ervoor gekozen om maar 1 monitor te kopen. Je hebt dezelfde pixeldichtheid als 2x20" full-HD alleen zonder rand ertussen en je krijgt er ook nog eens gratis 2 monitoren bovenop ;)

Ik werk zeer zelden in fullscreen, ook films e.d. heb ik steeds vaker op maar de helft van mijn scherm draaien. Dan zijn ze nog steeds groter dan op mijn oude 24" full-hd scherm, maar ik kan er ook nog makkelijk dingen naast doen.

Ik wil iig niet anders meer, if anything dan is de resolutie en de monitor nog te klein. 2x20" is al jaren niet meer gangbaar, dus eigenlijk wil ik naar 2x27" en dus een equivalent daarvan in 1 scherm. Helaas zijn die er nog niet.

Mijn ideale monitor zou een gebogen scherm zijn met een (aanpasbare) buig-radius van ~1 meter, ongeveer 1,5 meter breed, een halve meter hoog en een pixeldichtheid van meer dan 200. Dat komt dan neer op een schermdiagonaal ~62", een 3:1 beeldverhouding en een resolutie van 11880x4320. Helaas lijken fabrikanten zich eerder op tv's te richten waar die resoluties niet nodig zijn dan op desktops waar dat een prima resolutie zou zijn.
Ik wil iig niet anders meer, if anything dan is de resolutie en de monitor nog te klein. 2x20" is al jaren niet meer gangbaar, dus eigenlijk wil ik naar 2x27" en dus een equivalent daarvan in 1 scherm. Helaas zijn die er nog niet.
Wel, toch? De monitor van Apple of Dell met een resolutie van 5120x2880, door onwetenden ook vijf kaa genoemd.

Of heb je het over afmetingen ipv resolutie?

[Reactie gewijzigd door RuddyMysterious op 22 juli 2024 23:29]

Ik heb het over beide, ik wil en een groot scherm en een hoge resolutie. Mijn CRT monitor en videokaart konden in 1999 al een hogere resolutie laten zien dan full-hd, wat dat betreft staan de videokaart- en monitormarkt al zo'n 20-25 jaar stil.
Waarom heb je niet een 4K full-led TV genomen dan? Ik vind 32" 4K UHD al echt aso, ik moet echt iets opzij schuiven met mijn stoel om of links, of rechts te werken.
Ik werk in het midden, en waar ik mee bezig ben schuif ik naar het midden van mijn scherm. Het helpt wel dat ik nog nooit fullscreen heb kunnen werken en altijd alles windowed heb.
Wat Kees zegt. Eén 4K monitor heeft 4x zoveel pixels als Full HD... Je vertelt niet wat voor set monitoren je nu gebruikt maar als je twee 4K monitoren zou nemen zit je dus naar 8 Full HD aan pixels te kijken. Dat moet iedereen voor zichzelf bepalen natuurlijk ;) maar je krijgt dan het probleem dat je je hoofd / nek fysiek steeds moet draaien bij het gebruik van het hele 'veld'.

Daarom (en omdat ik ook de 40' UHD van Philips heb) begrijp ik Kees zijn wens voor een gebogen scherm ook wel, dat zou nog mooier zijn omdat je dan minder last hebt van de scherpe kijkhoek aan de uiterste hoeken.

Op dit item kan niet meer gereageerd worden.