Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door

Nieuwsredacteur

4k-monitoren in beeld

Nu wel of niet investeren?

Kopen of afwachten?

Hoewel de eerste 4k-monitoren al in 2013 op de markt kwamen, zijn monitoren met een hoge pixeldichtheid nog lang geen gemeengoed. Er is inmiddels een behoorlijk aanbod en de prijzen zijn flink gedaald, maar van een grote omarming, zoals bij tv's het geval lijkt te zijn, is nog geen sprake. Dat is te begrijpen gezien de matige ondersteuning van software en de benodigde grafische rekenkracht om optimaal gebruik te maken van de hogere resolutie in games. Het maakt het beantwoorden van de vraag of investeren in 4k nu verstandig is niet eenvoudig.

Een 4k-monitor is nog niet voor iedereen geschikt. Spendeer je echter veel tijd achter je pc, dan is het grotendeels een absoluut genot om te werken achter een scherm met een hoge pixeldichtheid. Wel zul je af en toe eigenaardigheden tegenkomen. Bovendien zijn problemen met schalen nog lang niet de wereld uit en is het de vraag of dat ooit het geval zal zijn. Daarvoor moeten alle softwaremakers hun programma's geschikt maken voor hoge resoluties. Toch zouden wij de huidige minpunten voor lief nemen in ruil voor de hoge scherpte. Heb je eenmaal een tijd achter een 4k-monitor gewerkt, dan is het niet prettig om weer achter een 'gewoon' scherm aan te moeten schuiven.

Macrofoto van een 27"-monitor met 4k-resolutie

Macrofoto van een 27"-monitor met 3840x2160 pixels

Toekomst: 4k op 120Hz, 5k-singlestream en oledmonitoren

Hoewel je altijd wel kunt wachten tot er iets beters op de markt komt, is er momenteel een techniek die wel degelijk het wachten waard kan zijn: displayport 1.3. Waarschijnlijk komen Nvidia en AMD in de tweede helft van 2016 met videokaarten die over de nieuwste displayport-versie beschikken. Deze aansluiting heeft een hogere bandbreedte en dat maakt 4k-monitoren met 120Hz mogelijk. Ook zullen er met de komst van displayport 1.3 waarschijnlijk 5k-monitoren verschijnen die niet langer met de multistream-techniek gebruikt hoeven te worden. AMD heeft al uitgesproken dat het verwacht dat dergelijke schermen in de tweede helft van 2016 op de markt komen. Waarschijnlijk tegen forse prijzen, maar voor wie een grote investering in een 5k-scherm wil doen, is het vermoedelijk het wachten waard.

Oled is en blijft voorlopig toekomstmuziek. Dat de beeldschermtechniek fantastische beelden oplevert, weten we al jaren. Hoewel computerfabrikanten nu de eerste stappen zetten door oledpanelen toe te passen in laptops en in een enkele monitor, zijn er echter geen aanwijzingen dat er binnen afzienbare tijd een prijsdoorbraak zal plaatsvinden. De kans lijkt groot dat oledmonitoren in de komende jaren nog duur en zeldzaam blijven.

Conclusie

Het aanschaffen van een 4k-monitor blijft nog iets voor early adopters, maar wat ons betreft is het op dit moment in ieder geval niet meer verstandig om veel geld te investeren in een monitor met een resolutie van 1920x1080 of 2560x1440 pixels. Alleen als je een fanatieke gamer bent en je een verversingssnelheid van 120Hz of hoger vereist, of als je een grafische professional bent en perfecte kleurweergave belangrijker is dan scherpte, zijn dergelijke high-end monitoren nog interessant. Voor alle andere gebruikers is een 4k-monitor nu een prima investering waarvan je nog jarenlang plezier kunt hebben.

Reacties (256)

Wijzig sortering
Een uitgebreidere tabel dan die op de eerste pagina van het artikel heb ik een tijdje terug gemaakt voor een topic hier op GoT. Omdat dat topic nog niet af is heb ik de tabel even in een Tweakblog geplaatst. De tabel gaat overigens alleen over de op dit moment gangbare formaten voor desktopbeeldschermen. Laptop, tablet en smartphone schermformaten staan er dus niet in.

Een aantal nieuwe formaten dat is terug te vinden op de meest recente roadmaps van paneelfabrikanten zoals LG Display, Samsung en AU Optronics, waarvan een aantal worden besproken in het artikel LG werkt aan 37,5"-paneel met resolutie van 3840x1600 pixels, staan nog niet in de tabel. Voornamelijk omdat deze nog niet verkrijgbaar zijn, maar ook omdat ik nog geen paneeldatasheets heb van panelen van die formaten en daardoor alleen op basis van de afgeronde beeldschermdiagonaal zou kunnen terugrekenen.
De ontwikkelingen in de monitorenwereld gaan ook niet zo snel dat het zinvol is om geregeld in een nieuw scherm te investeren.
De voornaamste reden daarvoor is het dalende budget dat mensen reserveren voor een beeldscherm. In het late CRT / vroege LCD tijdperk (2002-2004) was het een stuk normaler dan nu om ¤1000 of zelfs ¤2000 aan een monitor uit te geven dan nu. Als je kijkt naar het topic 20" TFT scherm van Dell zie je dat de prijs van fl 3968,65 voor een 20" 1600x1200 IPS monitor toen als zeer acceptabel werd gezien. Gecorrigeerd voor inflatie is datzelfde bedrag nu ¤2306,69. Ook de Sony GDM-FW900 24" CRT was destijds een stuk populairder dan schermen van zo'n ¤2200 (¤2650 als je corrigeert voor inflatie) nu zijn. Je zal nu echt goed moeten zoeken naar consumenten die dat voor een monitor neerleggen.

De ontwikkelingen zijn daardoor jarenlang voornamelijk gaan zitten in hetzelfde veel goedkoper te kunnen produceren en veel minder in het verbeteren van de prestaties of kwaliteit (die laatste ging er zelfs op achteruit). Ik heb het daar recentelijk nog uitgebreid over gehad met een aantal contacten van mij uit de beeldschermindustrie. Dat ging dan voornamelijk over de steeds grotere afwijkingen tussen verschillende exemplaren van hetzelfde scherm, wat het lastig maakt voor reviewsites (zoals TFT Central waar ik zelf aan mee werk) om een representatief oordeel te geven over een scherm.

De afgelopen paar jaar zit er eindelijk wat beweging in. Zo was bijvoorbeeld van begin 2005 tot eind 2013 de hoogste resolutie en tegelijk het grootste beeldschermformaat dat je op een LCD scherm kon krijgen 30" 2560x1600. Nu zie je steeds meer grote formaten met hoge resoluties (zie ook de tabel waar ik eerder naar linkte). Ook contrast heeft jarenlang stil gehangen op 1000:1 en de afgelopen paar jaar zie je ook daar beweging in: LCD met contrast ratio's van 3000:1 en zelfs 5000:1 (bijvoorbeeld AU Optronics AMVA+ panelen). En binnenkort dus zelfs een hele nieuwe beeldschermtechnologie voor de consumenten beeldschermmarkt (Sony en FSI hebben al langer OLED beeldschermen voor de filmindustrie) met de introductie van de Dell UltraSharp UP3017Q 30" OLED op 31 maart.


Overigens verwacht ik dat wanneer OLED wat groter begint te worden in de consumentenmarkt voor monitoren het bedrag dat men bereid is om voor een monitor neer te leggen weer flink zal toenemen. Met de Dell UltraSharp UP3017Q 30" OLED zal dat nog niet het geval zijn, aangezien die waarschijnlijk rond de ¤5500 inclusief BTW zal gaan kosten in Europa en daarmee voor vrijwel iedereen onbereikbaar is. Maar wanneer er OLED monitoren van zo'n ¤1500 komen verwacht ik dat er toch heel wat mensen zijn die dan zo'n scherm kopen. Veel meer dan het aantal mensen dat bereid is om nu ¤1500 voor een monitor neer te leggen (welke dan dus LCD is).

De reden daarvoor is dat OLED twee grote minpunten aanpakt van LCD die nog altijd aanwezig zijn en waardoor veel mensen nog steeds de overgang van CRT naar LCD als een achteruitgang zien:
  • contrast
  • uniformiteit
...maar ben je bereid vierhonderd euro of meer uit te geven, dan zijn er tal van interessante 4k-monitoren.
Voor ¤500 of minder zie ik 17 monitoren in de Pricewatch staan met een resolutie van 3840x2160. Maar daar zit weinig interessants bij. Van die 17 zijn er 9 met een TN paneel van 28". De varianten met een IPS of PLS paneel zijn op één 27" na allemaal 23,5-23,8".

Aangezien UHD / 4K monitoren over het algemeen gebruikt worden voor toepassingen anders dan gaming zijn schermen die gebruik maken van een paneeltechnologie uit de IPS of VA-familie een stuk interessanter dan schermen met een TN paneel. Van de 46 monitoren in de Pricewatch die op dit moment verkrijgbaar zijn waarbij dat het geval is en die een resolutie hebben van 3840x2160, 4096x2160 of 5120x2880 zijn er 36 duurder dan ¤600 en 27 duurder dan ¤850.

Ik denk dat dit zin in het artikel dus beter gewijzigd kan worden in "...maar ben je bereid zeshonderd euro of meer..."
Kleurgamma
Dit doet echt pijn aan m'n ogen. Je hebt kleurbereik en gamma, maar kleurgamma is absoluut geen correcte term in de beeldschermindustrie.

Met het kleurbereik wordt het oppervlak bedoeld binnen een bepaalde referentieruimte (over het algemeen het CIE 1931 xy chromaticiteitsdiagram, soms het CIE 1976 u'v' chromaticiteitsdiagram) dat wordt afgedekt door de driehoek die ontstaat door de punten gevormd door de primairen van het scherm binnen die referentieruimte met elkaar te verbinden. Het kleurbereik van een LCD beeldscherm wordt door twee dingen bepaald:
  • De backlight
  • De kleurfilters in de subpixels van het LCD paneel
De gammawaarde is de exponent in de formule die de onderlinge verhouding in helderheid van kleuren tussen zwart en wit in bepaald:

RLout = RLingamma

Waarbij RL staat voor Relative Luminance.

Hoe ziet dat er in de praktijk uit? Stel je wil de RGB-grijswaarde [210;210;210] op een 8 bit scherm met een gamma van 2,2 weergeven, dan krijg je:

(210 / (28 - 1))2,2 = 0,652

De helderheid van [210;210;210] wordt dus weergegeven als 65,2% van de helderheid van wit (vandaar ook Relative Luminance, oftewel relatieve helderheid, omdat het ten opzichte is van wit), niet op 210 / 255 = 82,4% zoals je op basis van de input zou verwachten.

Om de absolute helderheid te krijgen moet dat nog worden vermenigvuldigd met de helderheid van wit. Als dat scherm een helderheid van wit heeft van 120 cd/m² zal de grijswaarde [210;210;210] dus met een helderheid van 78,3 cd/m² worden weergegeven.

De reden voor gamma is dat wij helderheid niet lineair waarnemen. Een scherm met een gamma van 1,0 (dus effectief geen gamma decoding) zou nauwelijks onderscheid kunnen weergeven tussen schaduwtinten. Dit is duidelijk terug te zien in Afbeelding 75 van m'n review van Eizo ColorEdge CG277. Bij gamma 1,0 zijn de stappen tussen grijswaarden aan de kant van zwart heel groot, maar aan de kant van wit heel klein. Als je dit in veel kleinere stappen zou weergeven lijkt het geen constante gradient. Doe je dat voor gamma 2,2 dan lijkt het voor ons wel een lineaire gradient.

[Reactie gewijzigd door Kid Jansen op 28 januari 2016 14:06]

De reden daarvoor is dat OLED twee grote minpunten aanpakt van LCD die nog altijd aanwezig zijn en waardoor veel mensen nog steeds de overgang van CRT naar LCD als een achteruitgang zien:
  • contrast
  • uniformiteit
Inputlag komt daar ook nog bij.
De 18ms toegevoegde lag van de Dell U3014 waar we het recent nog over hadden; echt bespottelijk. Of de 20 ms van de Philips BDM4065UC. Prachtig scherm, maar waardeloos door zo'n stupiditeit.
Het nare hiervan is ook nog eens dat het niet, zoals resolutie, gewicht of refreshrate, in de specificaties vermeld wordt. Alles hangt min of meer af van TFTcentral om zoiets te meten.
Ik heb nog geen aanwijzingen gezien die er op duiden dat input lag met OLED significant lager zal zijn dan met LCD. De netto input lag wordt ook wel beïnvloed door de reactietijden van het paneel, maar dat is over het algemeen maar een klein gedeelte van de totale input lag (in ieder geval op alle schermen waarbij input lag een issue zou kunnen zijn). De netto input lag zal met OLED daardoor dan wel al zo'n 3-5 ms lager liggen, maar de grootste invloed heeft nog steeds alles tussen de connector en het paneel in. Er zijn bijvoorbeeld schermen die een frame eerst helemaal bufferen voordat er wordt gestart met het weergeven.
De inputlag waar ik het over had was inderdaad dat deel tussen connector en scherm; wat TFT Central aanduid als "Signal Processing Lag".

Wat is eigenlijk de reden achter het bufferen van een frame? Voor dynamisch contrast? Overdrive?
Inderdaad vaak een probleem om duidelijke en eenduidige informatie te krijgen over schermen, zowel in TV's als in monitoren.

Wat de 20 ms van de BDM4065UC betreft: Ik begrijp ook wel dat de gamers het altijd nog sneller willen, maar zoals in het artikel wordt genoemd zijn is het al een probleem om een kaart te vinden die dat kan verzorgen, dus dit is niet de enige bottleneck. Komt bij dat het een 40(!) inch monitor - dus 100.5 cm diagonaal - is met bovengemiddeld veel toeters en bellen, voor ¤ 700… Ik heb er vorig jaar een gekocht en kon toen niets vinden wat ook maar in de buurt kwam qua afmetingen, UHD @ 60Hz, allerlei opties en ingangen, voor dat geld.
Zoveel toeters en bellen zie ik anders niet op de BDM4065UC. Los daarvan zit ik meestal toch niet te wachten op die toeters en bellen. De Dell U3014 bijvoorbeeld voegt inputlag toe om vervolgens overshoot toe te voegen. Dat laatste wilde ik sowieso al niet, dus dat eerste mogen ze ook weglaten.

Heeft ook weinig met gamen te maken. Ook op de desktop, CAD, browsen, is die 20ms gewoon irritant; net alsof je 24 uur wakker bent. En ja, ik ben ook het type dat TL balken ziet flikkeren en de telefoonlader hoort piepen als die klaar is met laden.

Los daarvan zie ik ook niet in waarom het nodig zou zijn; de 3007WFP-HC en 2007FP schermen die ik heb, hebben het inputlagprobleem niet. De U3014 wel, behalve in game-mode, maar dan zijn de kleuren (vooral geel) nog smeriger dan op dat 8 jaar oude scherm.
Ik begrijp wat je bedoelt. Het knipperen van de TL-lampen zelf valt me niet zo op, maar als iets snel beweegt in dat licht zie ik heel goed het stroboscoop-effect. Ik hoor de vliegtuigen overkomen op 11 km hoogte, ook als het waait, maar omdat anderen dat soort zaken niet horen of niet opvalt, 'mag' je daar niet over beginnen.

Wat betreft de input-lag, die 3007WFP-HC heeft volgens dell.com toch nog 8 ms (gemiddeld) en 12 ms black to black. Naarmate de beelddiameter toeneemt, hebben monitoren kwadratisch meer (sub)pixels en de bijbehorende data te verwerken. Daarom zie je bij monitoren met de hoogste resoluties vaak niet de beste prestaties wat betreft input lag. De BDM4065UC is goedkoop voor zo'n grote monitor en zeker een 40' en dat kun je niet los zien van de specificaties.

Toeters en bellen zijn in dit geval uitgebreide opties voor picture in picture, een scherm wat fabriek-af gekalibreerd is, software (Windows) om het scherm nog verder bij te stellen meegeleverd, ook Nederlands als optionele taal van de interface en dergelijke. Bij goedkope schermen wordt daar vaak het eerst op bezuinigd.

Toch zie ik wel ruimte voor verbetering of anders een 'luxere' versie met gebogen scherm. Daar zag ik aanvankelijk de voordelen niet zo van, maar juist bij een computermonitor, waar je dus dichtbij zit, en dan de grotere varianten, heeft het wel degelijk zin omdat de kijkhoek anders wel heel scherp wordt in de hoeken.
Wat betreft de input-lag, die 3007WFP-HC heeft volgens dell.com toch nog 8 ms (gemiddeld) en 12 ms black to black.
Je haalt inputlag en ghosting door elkaar. Die 8ms gaat gaat over de tijd die pixels nodig hebben om hun verandering te realiseren, niet de tijd die er zit tussen aankomen van signaal in monitor en versturen van signaal naar pixel. De ghosting van de 3008WFP-HC zal me echt aan m'n reet kunnen roesten; de overshoot van de U3014 is 100x irritanter. En dan komt er nog inputlag bij.
Mooie tabel! Een interactieve versie kun je hier vinden: https://www.sven.de/dpi/

Als aanvulling op tabel in de tweakblog. De ppi die werkbaar is zonder scaling hangt af van de taak waarvoor je het gebruikt.

Ik heb een scherm met 117 ppi (2560x1440 25"), die gebruik ik zonder scaling voor browsen, programmeren en films kijken. Echter als ik aan het gamen ben, en tekst over een bewegende achtergrond geprojecteerd wordt, dan is 117 ppi net iets te veel en wordt de tekst voor mij lastig te lezen.

Ook hangt het af van hoe ver het scherm van je weg staat. Een laptop scherm staat vaak dichter bij. Bij een laptop is 147 ppi (1920x1200 15") voor mij prima om zonder scaling op te werken. Een retina scherm zonder scaling, 220 ppi (2880x1800 15") is te veel verkleind.
Die site bestaat al jaren inderdaad, maar de maker gebruikt nog altijd de afgeronde beeldschermdiagonaal om terug te rekenen. Mijn tabel is een stuk nauwkeuriger, want ik gebruik de pixel pitch en resolutie voor het bepalen van de afmetingen en lineaire pixeldichtheid. De pixel pitch is de meest nauwkeurig gespecificeerde maat voor een paneel, vaak me 4 of 5 significante cijfers in paneeldatasheet.

Dit heeft er waarschijnlijk mee te maken dat de pixel pitch in (vrijwel?) alle gevallen hetzelfde is voor een heel glassubstraat. Als de afwijking bij het glassubstraat al te groot is, kan dit verder in het productieproces alleen maar verergerd worden, maar niet meer gecompenseerd.
Ook hangt het af van hoe ver het scherm van je weg staat.
Klopt, maar dat ligt over het algemeen rond de 65 cm, ongeacht de afmetingen van het scherm. In de meeste gevallen wordt dit namelijk vooral bepaald door de diepte van het bureau en dat is meestal 80 cm.
Een laptop scherm staat vaak dichter bij.
Zowel in m'n reactie hierboven als bij de tabel in de Tweakblog staat dan ook dat het gaat om desktopbeeldschermen. Voor schermen van laptops, tablet, smartphones, etc. zijn inderdaad andere kijkafstanden gebruikelijk.
Kan je ook de 1:1 monitoren (die ze bijv. bij air control gebruiken) opnemen in je tabel?
Het enige 1:1 formaat dat voor consumenten normaal verkrijgbaar is, is 26,5" 1920x1920 (deze heb ik nu ook aan de tabel toegevoegd). Overigens ook alleen maar als de Eizo FlexScan EV2730Q.
Dank. Leuk dat die 26,5" meer beeldoppervlak heeft dan de 27"-, 28"- of 29"-monitoren.
Ik ben natuurlijk een pietlut, maar 22640 (in de tabel voor oppervlak) staat toch veel netter dan 2,264 · 10^5?

Nu nog een licht ovale monitor. Dat zou 't beste bij onze ogen passen... :P
Maar minder efficient bij 't produceren (substraatverlies).

[Reactie gewijzigd door kimborntobewild op 28 januari 2016 16:42]

28" 2048*2048;
http://www.thruput.co.uk/support/GFVT03

Zie ook Eizo Raptor SQ2814; zo te zien hetzelfde ding.
Verhaaltje van Eizo;
http://www.eizoglobal.com...aroControl_case_study.pdf

De ronde monitoren zijn er juist uitgegaan bij de luchtverkeersleiding. Al iets van zeven jaar geleden ofzo.

Toen ik bij LVNL binnen was in 2009, stond er ook veel 4:3, waaronder 2007FP's en 2001FP's; maar dat was vooral bij oefenopstellingen en overige computers.

Kijk voor de lol ook eens naar IBM T220 / IBM T221 schermen; 15 jaar geleden, 3840*2400; veel nuttiger qua resolutie en verhouding dan 3840x2160 wat mij betreft.

[Reactie gewijzigd door jcvjcvjcvjcv op 29 januari 2016 04:15]

http://www.eizoglobal.com...aroControl_case_study.pdf
De ronde monitoren zijn er juist uitgegaan bij de luchtverkeersleiding. Al iets van zeven jaar geleden ofzo.
Ronde monitoren? In dat linkje kan ik er i.i.g. geen woord over vinden. Of ik lees te snel...
Kan me ook niet herinneren ooit een grotere ronde monitor gezien te hebben dan op horloge-formaat.
Ja, rond, in het CRT tijdperk. En nee, daar staat niks over bij dat Eizo linkje.

Zie;
http://www.wmassociates.com/ATCAS.htg/1789_15.jpg
Is dat niet stiekum een rechthoekige monitor waarbij de hoeken afgeplakt zijn? :P
Zit daar eigenlijk wel een beeldbuis achter, of gebruikte men toen andere techniek?
Maar: dat die monochrome ronde beeldopstellingen er uit gegaan zijn ten faveure van grote kleurenschermen, is natuurlijk niet zo vreemd, economisch en qua mogelijkheden gezien. Die ronde monitoren zijn er niet uit gegaan vanwege oog-ergonomische redenen; ik denk nog steeds dat ronde (of i.i.g. ovale) monitoren beter voor je ogen zijn dan rechthoekige. Rechthoekigen zijn gewoon economisch gezien goedkoper te produceren.
(En bij air-control en ship-control gebruikt men dan ook nog steeds ronde weergaves van hun radar/sonar, maar dan op een vierkant of rechthoekig scherm.)

[Reactie gewijzigd door kimborntobewild op 5 februari 2016 16:00]

Volgens mij gewoon een ronde CRT, net zoals op oude oscilloscopen.
Ik heb in 2005 nog een Dell 2405FPW gekocht (24" 1920x1200) voor 880 euro (die ook nog steeds dienst doet), dat werd toen al als excessief gezien... Naar mijn idee was het toen dus al niet echt normaal om zoveel geld uit te geven. Weliswaar was dat iets later dan de 2002-2004 die jij aangeeft, maar zo snel veranderen prijzen en marktgedrag nou ook weer niet.
Nu zou ik weer hetzelfde bedrag uitgeven aan een monitor (een 27" IPS 144hz gsync scherm), dus voor mij persoonlijk is er niet zo gek veel veranderd (ik twijfel alleen of gsync nog een lang leven beschoren is of dat Nvidia zich straks bij de DP standaard schaart).
Wellicht was het vooral de groep enthousiastelingen die destijds nog meer geld aan een monitor uit gaf en is die groep wat kleiner geworden?
Ik heb toen ook voor iets in de 800 euro die dell gekocht via een inkoop actie (de winkel prijs lag toen volgens mij boven de 1000 euro). Het scherm dat ik daarvoor had was een 19" Philips CRT 100Hz 1280x1024 van rond de 1600 gulden. Wat dat betreft is er de afgelopen 10jaar maar bar weinig vooruitgang geboekt op het gebied van monitoren. Gelukkig lijkt daar nu verandering in te zijn gekomen op gebied van resoluties (QHD, UHD), (variable) refresh rates, en aspect ratios (1:1 - 21:9).

Ik ben nu ook weer aan het kijken voor een nieuw scherm met een budget van rond de 1000 euro. De meeste mensen die ik ken vinden dat absurd hoge bedragen. Maar aangezien ik er 10+ jaar mee doe, vind ik het allemaal wel mee vallen.
Maar wanneer er OLED monitoren van zo'n ¤1500 komen verwacht ik dat er toch heel wat mensen zijn die dan zo'n scherm kopen.
.

Absoluut. Kan niet wachten tot OLED echt doorbreekt. De 5500 euro voor de Dell is zeker een brug te ver, maar als hij richting de 2000 euro zou gaan na een jaartje ofzo dan heeft mijn spaarvarken een probleem. Dan moet hij wel vrijwel foutloos zijn. Potentiele problemen zijn toch wel inbranden en input lag denk ik.

Het zal er mede van afhangen of er concurrentie komt. Gelukkig zie je ook steeds meer laptops met OLED verschijnen. Ik verwacht niet in 2016 nog een OLED-monitor aan te schaffen, maar ergens in 2017 moet zeker kunnen.

[Reactie gewijzigd door Tachyon op 28 januari 2016 23:02]

Deze schermen zien er allemaal prachtig uit. Loont het dan eigenlijk ook al de moeite om voor een 4k / UHD laptop te gaan? Ik heb net een nieuwe laptop besteld en heb besloten om niet nog eens ¤ 150 extra uit te geven voor een UHD scherm omdat er nog zo weinig content is en ik van alles lees over problemen met scaling van Windows zelf en van de software / apps die je daarop zou willen draaien. Mijn originele budget was ¤ 1250 en uiteindelijk heb ik ¤ 1340 uitgegeven voor het apparaat. Dezelfde specs, maar dan met UHD scherm zouden ¤ 1490 moeten kosten. (En dat tijdens de BTW-actie.) Ik heb lang getwijfeld, zeker ook omdat er in de komende jaren natuurlijk wel meer content beschikbaar zou komen, maar het uiteindelijk, vooral vanwege de hoge kosten, toch niet gedaan. Ik bewerk foto's en tekeningen voor mijn hobby en dat gaat nu prima op een 1440x900 scherm. Met Full HD IPS zal ik er sowieso al erg op vooruitgaan. Toch vraag ik me af, of ik nu wel of niet de goede keuze heb gemaakt. Financieel zeker wel. Er moet nog wel meer gekocht / betaald worden dan alleen mijn computerhobby natuurlijk. Maar qua techniek? Hoe kijk jij aan tegen laptopschermen in de discussie FHD vs UHD?
Nee is niet een veel te lange tekst, je bent geen tweaker of gedesinteresseerd in de info over dit artikel. De beste tweaker ( Kid Jansen ) spreekt met inhoudelijke informatie, dat kan niet in 10 zinnen. Wil je een beetje info opdoen dan is zelfs zijn reactie nog veel te kort, maar goed hij schrijft het ook niet voor jou maar voor mensen die interesse hebben in dit onderwerp.

Ontopic:
1 van de redenen waarom mijn telefoon een hogere pixeldichtheid heeft dan mijn monitor is de keuze.. Ik heb voor mij neus momenteel 2x een lg ips led 22 inch met ieder een resolutie van 1080p ( leuk dat staat inderdaad ook op de eerste pagina van dit artikel :D ).
Dit terwijl mijn smartphone een ''2k'' scherm heeft op een formaat van ongeveer 5 inch.. Echter koop ik een smartphone inclusief scherm, bij de computer heb ik de keuze welk scherm ik erop aansluit en dat is natuurlijk wel even een groot verschil.
Dadelijk is 4K standaard op de nieuwere telefoons en loop ik met 4K maar of ik dat ook daadwerkelijk nodig acht? Nee 1080p vind ik meer dan genoeg op ongeveer 5 inch.
Voor mijn monitoren vind ik de 1080p resolutie ook (voorlopig in ieder geval) genoeg, wel mijn TV van LG ala 47 inch, die mag voor mij groter qua formaat maar mag ook 4K krijgen.

Echter wacht ik met 4K ( in ieder geval voor de TV ) totdat er genoeg content op is, zo kijk ik zowel films ( netflix bijv ) maar ook TV zenders. Momenteel is sowieso op gebied van TV zenders pas 0,0 4k en op netflix ook eigenlijk NIKS.

Mijn pc wordt voornamelijk gebruikt om websites te beheren en etc en dat werkt voor mij meer dan goed op 2x een 1080p scherm.

Iets in mij zegt dat 4K voornamelijk voor de gamers bedoelt is op PC gebied (ja uiteraard er zijn ook tekenaars / fotoshoppers die profijt hebben aan 4K). Maar ik acht het nog niet nodig, dit terwijl ik wel 4K zou willen hebben maar dan in mijn TV. Zo heeft mijn oom een high-end 4K TV en heeft me wat ''demo's'' laten zien, oh men dat is echt gewoon keigaaf. Maar goed als ik dan vraag om discovery op te zetten dan is het meer een reactie van: ha-ha nja leuk he 4K.. succes met je demo's..

4K is leuk, maar moet je er ook wat mee kunnen, ik op PC gebied kan echt gewoon niks met 4K want 1080P is meer dan voldoende.
Op TV gebied: ja maar dan ook content zodat ik er iets mee kan
Op smartphone gebied: overkill klaar, zo heb ik de z5 premium gezien met een 4k scherm en ik had echt niet zoiets van wow ej dat is pas echter scherp, en met mijn ogen is gelukkig niks mis mee.. (lekker kort door de bocht, maar again mijn gehele reactie is op persoonlijke basis, ik spreek niet voor ''iedereen'').

[Reactie gewijzigd door LopendeVogel op 28 januari 2016 16:01]

Ook hier al maanden in het bezit van een UD590 van Samsung en dit in combinatie met een GTX760. Je zou zeggen dat de videokaart het spelen van spellen in de native resolutie van het scherm niet aan kan, maar dit mag best genuanceerd worden.

World of Warcraft draait op ultra in native 4k UHD resolutie gewoon tussen de 50 en 60fps en dan is ruim voldoende. Andere spelen zoals Batman Arkham Knight hebben het echter een stuk zwaarder en die zijn dan ook niet te spelen op deze resolutie en moet je dus op een lagere resolutie draaien.

Het ligt er dus echt aan wat voor spelletjes je speelt, maar zoals het artikel zelf al stelt: het draaien op een lagere resolutie is niet echt een heel groot probleem omdat in mijn geval de UD590 gewoon de boel op lagere resolutie gaat upscalen.

Wel kom je inderdaad tegen sommige problemen aan: het artikel had het al over Battle.net dat met geen mogelijkheid meescaled met de hogere resolutie, maar helaas heeft Blizzard niet alleen daar 'knoeiwerk' geleverd. Zo kan je de muispointer in World of Warcraft nauwelijks meer zien omdat die zo klein is en moet je dus addons gaan gebruiken om deze zichtbaarder te maken. Dit terwijl op de fora van Blizzard de 4k UHD community al ruim een jaar zeurt om een aanpassing hierin. Erg jammer omdat dit meestal vrij eenvoudig op te lossen problemen zijn.

Zelfs Windows 10 heeft nog steeds issues waarin zonder wat opties onder het energiebeheer aan te passen je bureaublad inclusief achtergrond bij het uitzetten van de monitor geregeld 'reset' op 1920x1080. Dit heeft te maken met de displayport aansluiting. Het gevolg is dat als je de PC laat draaien en je monitor uitzet - bij het terug aanzetten van je monitor je achtergrond opeens slechts een kwart van het beeld is en je iconen niet langer gerangschikt staan. Nogmaals dit is op te lossen met een hele inconventionele instelling, maar het schijnt wel te werken.
1. Ga naar je control panel, energiebeheer.
2. Kies het energieschema wat je nu gebruikt, kies geavanceerde settings
3. Druk op het +'je bij USB instellingen
4. Selecteer "Instellingen voor selectieve USB-onderbreking" en schakel deze uit.
Wat betreft de rest: het is een werkelijk genot om op een 4k UHD monitor te werken. Zeker in het begin krijg je het gevoel dat alle tekst die je ziet net stickertjes zijn die op je monitor geplakt zijn zo scherp is het en in spelletjes krijg je zelfs bijna een 3d-gevoel alleen maar omdat het beeld zo scherp is, maar wees gewaarschuwd: je zal heel veel moeite hebben om nadien nog op een full-hd monitor te werken - je denkt meteen alle pixels te kunnen tellen. Dat is dan ook de grootste handicap aan 4k UHD-monitors: je bent het heel snel gewend en minder is dan echt niet meer te doen.

[Reactie gewijzigd door liberque op 28 januari 2016 07:41]

Grappig dat je begint over WoW en daarna praat over spellen die meer eisen. Ik heb geen enkele game die zwaarder is voor mijn pc dan WoW, juist omdat het zo "oud" is. Moderne games draaien op max settings met QHD hogere fps dan WoW. 50/60fps in WoW haal ik wel net aan op Ultra settings (Post Processing, rendering op 200% etc), maar dan wel met een GTX970 op QHD 2560x1440. Als jij in 4K op 50/60fps speelt in WoW met een GTX760 dan draai je wel vrij lage settings in game.
Guild Wars 2 is grafisch IMO veel zwaarder dan WoW, maar draait hogere fps (gemiddeld ~80) met alles op max. Het is dus ook erg afhankelijk van de leeftijd/optimalisatie van de engine.
Ik speel zelf op een Asus PG279Q (144Hz stand), maar moet de eerste game nog zien die op max settings ook 144fps weer kan geven op mijn pc (dat zal dus niet gebeuren haha). Meestal stopt het wel bij max 100fps, afhankelijk van de scene of game.
/toevoeging voor de reacties hieronder; ik draai op een i5-4670K @ 4 GHz overclocked.

[Reactie gewijzigd door Soeski op 29 januari 2016 09:07]

Het draait niet alleen op de videokaart he, bij WoW is de processor net zo belangrijk als de gpu
Wow is grotendeels CPU limited in plaats van GPU limited wat veel games zijn. Komt volgens mij door al de verschillende gear en dergelijke waardoor de CPU veel werk moet doen al dat te berekenen.
Lol , ga naar blackrock mountain , doe vsync uit , en ga helemaal naar beneden en kijk naar de grond in de lava , dan zie je 300+ fps ;p
Kwam er laatst op display-port ook achter op m'n PG279Q dat wanneer deze uit of stand-by gaat dat deze zichzelf 'ontkoppelt', en dus bij het heractiveren alles niet goed op zijn plek staat, wist niet zeker of dat ook door dual monitor kwam dat alles verschuift.

Maar heb zelf toen 'deep sleep' in de OSD settings in de monitor van DP uitgezet en kwam het niet meer voor, maar bedankt voor die mogelijke oplossing.
Voordeel van UHD is dat je lekker 1:2 op FHD kan spelen.
Zo ziet op mijn MBPr 13 (2560*1600) 1280*800 er imo vaak beter uit als 1440*900 en 1680*1050 bij games.
De pixels zijn wel groter, maar iedere pixels neemt dan altijd 4 pixels in beslag ipv dan 2 en dan weer 3 of 1.
bovendien is het zelfs met een high-end pc en de duurste videokaarten nauwelijks mogelijk om moderne games vlot te draaien op een resolutie van 3840x2160 pixels.
Mee eens, dat mag best genuanceerd worden. bovenstaande is gewoon bullshit. Veel games draaien prima op 50+fps, soepel zat. Gewoon een beetje tweaken met de grafische instellingen. AA kas sowieso omlaag bv. Andere iets oudere en niet AAA titels draaien gewoon op 60fps. Net Rise of the tomb raider gedownload, draait prima op mn 980ti op uhd. Gelukkig trek Juul het in volgende alinia's weer een beetje recht maar die eerste zin...

[Reactie gewijzigd door dezwarteziel op 28 januari 2016 20:56]

Enkele programma's trekken zich helemaal niets aan van het ingestelde schaalniveau en geven de interface pixel voor pixel weer. [...] In de praktijk zijn we dergelijke programma's niet veel tegengekomen, maar het kan zeer storend zijn.
Deze opmerking van T.NET is m.i. veel te optimistisch. Ik gebruik mijn laptop, een XPS15 zakelijk en programmeer heel wat af. Het scherm is 15" met een resolutie van 3840x2160. Overigens draai ik uiteraard W10.

De standaard Office, Chrome/Edge en Visual studio dingen werken allemaal wel goed. Pas als je wat meer wilt kom je dit tegen. Sommige applicaties hebben een soort workaround, veel ook niet. Apps gebruik ik zo goed als niet.

Om wat voorbeelden te geven:

- Een command prompt is default modus onleesbaar. Tuurlijk, je kan het font aanpassen. Daarmee verplaats je het probleem naar console applicaties die weer werken met eigen settings.
- GVim, mijn favoriete ad-hoc editor. Onleesbaar. Je kan het font aanpassen, maar dan zijn nog steeds de icoontjes veel te klein.
- Gimp. Alles is piepklein. Er zijn andere icon sets voor te vinden, maar bijv. tot het maximale niveau inzoomen heeft veel minder nut gekregen.
- ANTS profiling tools. Compleet onbruikbaar, de tekst loopt door elkaar.

... ik kan nog even doorgaan.

Sommige dingen werken normaal wel gewoon, maar doen raar op deze resoluties. Ik kreeg bijv. een e-mail, die ineens heel smal was... omdat in de template een width in pixels stond. Outlook doet precies wat hij zou moeten doen met schaling, maar praktisch is het niet...

Voor games vermoed ik dat het allemaal wel zal werken, die zijn immers gebouwd op meerdere resoluties... De meeste Windows applicaties gebruiken echter nog steeds technologieen als GDI+ en WinForms -- en met name dingen als icoontjes en de 'fixed size windows' (bijv. custom dialoog-windows) schalen daarin een stuk minder lekker.

[Reactie gewijzigd door atlaste op 28 januari 2016 15:10]

15" met 3840x2160 is way overkill op het moment, daar wordt het inderdaad te vaak onleesbaar.

Ik heb begin vorig jaar mijn HP LP 3065 (2160x1600) vervangen door een Eizo Flexscan EV3237 (3840x2160), dit bevalt uitstekend. In Firefox staat de zoom echter standaard op 300% en dan kan ik onderuit zeer relaxed alles lezen. Bij de andere browsers en bv. een dos prompt moet ik wel even recht achter mijn PC gaan zitten. Paint.net en Photoshop zijn op 31,5" zonder scaling nog prima te gebruiken.

Naast het scherper beeld heb ik ivm. de oude HPs ook een flinke stroom besparing, maar dat kan puur liggen aan het feit dat de monitoren veel nieuwer zijn dan de oudere HPs.

Prijzen gaan redelijk rap naar beneden, nog geen 11 maanden later een tweede besteld en de prijs was meteen ¤550 goedkoper, twee maanden later is de prijs nog eens ¤50 lager.

Outlook zit standaard op de linker helft van mijn scherm zonder scaling, ik kan veel efficiënter werken dan op de 1080p monitor op kantoor.

Enige nadeel is dat als mensen even remote willen meekijken het vaak onwerkbaar is omdat maar erg weinig werkplekken hoge resolutie monitoren hebben. Ik los dat op door een VMtje te draaien op een lagere resolutie waar ook een aantal andere werk specifieke applicaties in draaien.
2880 x1800 werkt prima op een MBPr 15".

In OS X is het beter geregeld dan in Windows (want volledig geïmplementeerd), dus het is niet zozeer dat het op een 15" overkill is maar eerder een onvolledige implementatie van het OS.
2880 x1800 werkt prima op een MBPr 15".

In OS X is het beter geregeld dan in Windows (want volledig geïmplementeerd), dus het is niet zozeer dat het op een 15" overkill is maar eerder een onvolledige implementatie van het OS.
Dat komt omdat ik reageer op de situatie in een Windows implementatie. Dat OSX nu UI scaling goed ondersteund komt omdat Apple zijn retina hardware is gaan pushen. Was dit ook al het geval met OSX toen dit nog niet het geval was? Nee... MS is voornamelijk een software boer, dus heeft het voor W10 niet hoog op het prio lijstje gestaan.

OSX heeft zo zijn andere tekortkomingen, ongeacht wat alle Mac fanbois roepen. Maar we weten allemaal immers dat Windows zuigt... ;-)
Dat komt omdat ik reageer op de situatie in een Windows implementatie. Dat OSX nu UI scaling goed ondersteund komt omdat Apple zijn retina hardware is gaan pushen.
Volkomen onzinnige opmerking. Windows 10 ondersteunt nu 4K schermen, dat deden ze in Windows 3.11 toch ook niet? Het lijkt me niet meer dan logisch dat retina nu ondersteund wordt door OS X, terwijl blijkt dat Windows 10 de scaling nog niet onder controle heeft.

Het is gewoonweg een constatering dat het niet vloeiend werkt. Punt. Los van oudere versies, verleden, etc. werkt het nu summier, half of slecht.
OSX heeft zo zijn andere tekortkomingen, ongeacht wat alle Mac fanbois roepen. Maar we weten allemaal immers dat Windows zuigt... ;-)
wat weer een volkomen zinloze toevoeging, alleen om een reactie uit te lokken....triest zeg.

Hou je aub bij het topic, dat lijkt me veel zinvoller.
Windows 10 ondersteunt nu 4K schermen
Het ondersteunen van hardware en scaling zijn twee heel verschillende zaken. W10 ondersteund 3840x2160 perefct, dat doet W7 zelfs perfect. Maar scaling is een ander issue.
Hou je aub bij het topic, dat lijkt me veel zinvoller.
Wat exact had jou MBP met de discussie te maken, atlaste en ik hebben het puur over Windows. Jou MBP heeft precies dezelfde issues met W10 erop, er zit scaling op W10, maar die werkt zeker niet perfect.
Gebaseerd op jouw stelling:

15" met 3840x2160 is way overkill op het moment, daar wordt het inderdaad te vaak onleesbaar.

Gaf ik aan dat een hogere resolutie op mijn MBPr prima te lezen is, dus dat het niet zozeer met de resolutie maar meer met het OS te maken heeft.

Jij mag daar anders over denken, maar in w10 werkt scaling niet vlekkeloos op hogere resoluties en onder OSX wel.

Ik probeer juist geen fanboy reactie te posten, want ik gebruik al jaren beide OS-Sen naast elkaar en elk heeft zijn eigen voor/nadelen. OSX is imho beter aangepast dan w10 op dit moment.

[Reactie gewijzigd door Isheara op 29 januari 2016 13:42]

Laten we idd niet de nde fanboibattle beginnen ;) maar aangezien W8.1 al het één en ander aan scaling deed, zou je denken dat W10 daar wel een heel eind mee zou zijn.

OK, ik weet meer van Macs dan Windows PC's dus je krijgt toch een beetje je zin ;) OS X had wel degelijk al een voorsprong qua scaling en dergelijke grappen, al was het alleen al omdat het sinds het prille begin (een subset van) PDF 'intern' als basis heeft. Zelfs de pre-OS X PowerMacs uit de jaren '90 waren zó uit de doos en zonder extra drivers te hoeven installeren al met meerdere monitoren te gebruiken. Je hoefde er alleen maar een tweede monitor op aan te sluiten en je had één grote desktop, geen 'mirrored' set. Bovendien werd één scherm dan het hoofdscherm, kon je dat wisselen, kon je al ten opzichte van elkaar positioneren, resoluties aanpassen etc.
maar aangezien W8.1 al het één en ander aan scaling deed, zou je denken dat W10 daar wel een heel eind mee zou zijn.
En dat valt vies tegen, zo zijn er wel meer zaken die W10 nog niet goed onder de knie heeft waarvan iedereen er botweg vanuit gaat dat het geen problemen zou geven (games bv. werken in een aantal instanties gewoon niet correct en dat is puur een W10 issue).

Momenteel werkt de scaling van OSX met de Apple schermen perfect. Dat maakt het dan ook zo een goede ervaring voor de gebruikers. Dat is het issue dan ook gewoon niet, wat wel een issue is dat er een OSX fanboi ergens willekeurig een discussie induikt en roept "Maar op mijn Apple MBP werkt dat wel perfect!" alsof dat een geheel perfect product is. OSX is goed bruikbaar zolang je het binnen de Apple ecologie houd, alles wat geen Apple is wordt niet/slecht ondersteund. Misschien ben ik wat sjagerijnig over OSX ivm. de afgelopen 3 jaar dat er na elke update wel iets structureel fout ging met SMB en data transfer performance naar Windows based infrastructuur, cloudstorage en zelfs simpele NASen. Webdav protocollen die opeens niet meer werken, etc. Of dat de helft van onze OSX klanten in de afgelopen twee weken allemaal W10 moesten hebben op hun Mac (via Bootcamp), wat best wel wat werk kost... Apple maakt hele mooie hardware, maar als iemand die OSX moet ondersteunen in Windows dominante omgevingen... *facepalm*
Mensen die niet de hele discussie hebben gelezen.. sowieso dé bron van misverstanden en verhitte reacties op t.net! }:O

Als er een bestaande functionaliteit 'kapot' gaat door een update, ligt dat uiteraard aan OS X.

Zelfs afgezien van update-problemen, is omgekeerd een Windows machine in een Mac omgeving even onhandig werken. Eigenlijk hebben beide kampen geen belang bij het ondersteunen van het andere kamp, hooguit hun eigen deel van de gebruikerservaring. Windows wint (in de hoofden van de gebruikers) dat denkbeeldige gevecht al gauw omdat dat 90% van de mensen daarmee is opgegroeid, dus wat hen betreft is dat de norm en OS X wijkt af dus dat is het probleem, ook als het eigenlijk 50/50 is. Als er dan iets niet werkt tussen Mac OS X en Windows, ligt het bij voorbaat al aan OS X.

Je voorbeeld van Bootcamp illustreert dit trouwens heel goed: Mensen verwachten dat hun Mac ook in Windows 10 opstart. Andersom lees of hoor ik nooit iets over (hoewel het schijnt te kunnen, onder bepaalde voorwaarden) Windows-omgevingen waar klanten verwachten dat hun windows machine ook OS X ondersteunt. (Ik weet het, Apple probeert dat ook tegen te houden maar daar laten gebruikers zich over het algemeen niet door tegenhouden en als die vraag er echt was, zou je dat ook in de praktijk zien.)
[...]
Om wat voorbeelden te geven:

- Een command prompt is default modus onleesbaar. Tuurlijk, je kan het font aanpassen. Daarmee verplaats je het probleem naar console applicaties die weer werken met eigen settings.
- GVim, mijn favoriete ad-hoc editor. Onleesbaar. Je kan het font aanpassen, maar dan zijn nog steeds de icoontjes veel te klein.

... ik kan nog even doorgaan.
Had ik met mijn M3800 ook met Windows 8.1, ergerlijk voor een laptop die standaard QHD heeft.
Windows 10 is een hele verbetering, beide bovengenoemde zaken zijn in ieder geval geen op mijn laptop probleem meer.
Mijn ervaring is gelijk aan wat in het artikel staat, de meeste "schaling problemen" zijn in Windows 10 opgelost, nog maar enkele programma's schalen niet goed mee.
Mijn cmd schaalt prima mee op windows10 hoor. Had alleen wat file explorer crashes op de 175% DPI setting.
Het verhaal over multi-stream transport heeft volgens mij niks te maken met hoe 5K schermen werken op dit moment. MST maakt het mogelijk om te daisy chainen met 1 DisplayPort uitgang. De eerste 4K schermen werkte op deze manier. De 5K schermen waar dit artikel over rept gebruiken 2 DisplayPort poorten.

/edit
Must read waarom MST nodig wàs voor de eerste generatie 4K schermen.
https://community.amd.com...ation-of-ultrahd-displays

Dit bevestigd nogmaals dat m.i. MST geen vereiste is voor de 5K schermen.

[Reactie gewijzigd door DLGandalf op 28 januari 2016 22:22]

"ben je een fanatieke pc-gamer, dan is een 4k-monitor waarschijnlijk niets voor jou."

Absolute onzin. Alsof alle spelen moderne shooters zijn waar je 60+ FPS wil halen en alsof je die monitor niet op een lagere resolutie kan instellen voor die spelen en het er toch nog goed laten uitzien.

Des te grappiger als later staat "4k-monitoren met 120Hz mogelijk. "ja want 60z 4k is al moeilijk dus het dubbele is zeker de moeite waard om te wachten, die fanatieke gamer kan ondertussen sparen voor de 2 extra GPU's nodig.
Ja ik begreep die uitspraak ook niet direct, maar er zit wel een kern van waarheid in en het maakt dan eigenlijk helemaal niet uit welke games je speelt.

- Niet iedereen heeft een 980 ti of gelijkwaardig. Ook fanatieke PC gamers zijn niet allemaal dermate rijk dat ze zoveel geld willen 'weggooien' voor wat meer performance die op zeer korte termijn lang en breed is ingehaald door een nieuwe node (14/16nm). Momenteel is wel het slechtste moment om veel te investeren in GPU, want 28nm is er al veel te lang en was in 2013 al aardig uitontwikkeld. De Kepler refresh bijvoorbeeld, was alleen maar mogelijk omdat er GDDR5 kwam dat tot 7 Ghz rated was. De performance slag is zeer beperkt sinds Kepler maar de prijs is daar niet naar. Dat de GTX 970 zo positief opviel is vooral omdat er verder geen enkele beweging meer in zat en dit het enige prijspunt was waarop je echt winst kon zien in performance per dollar. Zelfs in het segment daaronder (GTX 960) is performance per dollar gelijk of ongunstiger ten opzichte van de voorgaande kaart (GTX 770). Dat zie je niet vaak.

- Voor 4K móet je eigenlijk wel naar het hoogste prijspunt waar de performance per dollar het laagst is. Elke kaart onder dat topsegment gaat de boel niet comfortabel trekken en dan is het dus heel erg sterk afhankelijk van het soort games dat je speelt, en zelfs binnen een enkel genre zullen er recente games zijn die niet lekker lopen. Dat is niet voorbehouden aan shooters.

- Competitief ben je niet op 4K. Hogere resolutie en hogere responstijd dragen niet bij aan je reactiesnelheid. Zelfs op 60 fps ben je tegen een 1080p/60 gamer in het nadeel, zelfs als die 1080p60 gamer op een normaal, goedkoop TN paneel gamed (dus geen 1ms, maar gewoon budget TN). Zélfs een 4k TN paneel heeft hogere responstijden.

- Boven de 60 FPS is onmogelijk, er bestaan nog geen 4K panelen die hoger dan 60hz gaan. Elke competitieve shooter valt daarmee al bijna af, zeker icm hogere responstijden.

- Oudere games schalen niet lekker. Met name top-down games met veel tekst hebben hier veel last van. Veel oude games zijn top down en hebben nul ondersteuning voor dermate hoge resoluties. Dat een gigant als Blizzard met Battle.Net nog geen volledige 4K ondersteuning kent, zegt genoeg. De markt is nog te klein, en dat heeft niets met kip en ei te maken, maar alles met GPU power, zie het eerste punt. Niemand optimaliseert voor minder dan 5% van de totale markt, dat is de moeite niet waard.

- Nieuwe games draaien niet lekker, of moeten op lage settings. Bovendien is het voordeel van hoge resolutie bij alles wat geen tekst is, zeer minimaal en dat effect is nog sterker wanneer je textures en dergelijke lager moet zetten. Je levert dan letterlijk in om meer pixels te kunnen weergeven, en dat voordeel betaalt zich alleen maar uit in scherpere randjes om objecten.

Opgeteld zijn dat toch heel wat hindernissen terwijl er nog heel veel ontwikkelingen binnen 4K zijn die er nog moeten komen, en ook nog redelijk geprijsd moeten worden. Nu investeren in 4K is duur en nog bij lange na niet wat je als gamer in een 4K ervaring zou moeten willen zoeken, de kans is bijna 100% dat je features gaat missen of tegen enorme meerkosten aan loopt om er ook echt voordeel van te hebben.

[Reactie gewijzigd door Vayra op 28 januari 2016 12:14]

-Heb een 970 met een 4K scherm, geen enkel probleem voor de meeste spelen zelfs de nieuwste. Als er dan toch vertraging merkbaar is bij alles op hoogste is het eenvoudig om eventjes op internet te kijken en de meeste zware opties die amper verschil maken uit te zetten.

-Competitief is compleet nichemarkt . Veel denken misschien dat ze zo zijn maar indien je zo goed bent dat de responsetijden echt zoveel verschil maken zit je al terug bij die nichemarkt van enkelingen.

-Speel veel oudere games en met Mods/GOG/zelf tweaken is er nog geen enkele waar ik problemen mee had. En moest dat toch het geval zijn, zet je gewoon de resolutie iets lager.

-Qua FPS valt dat RTW2 : 970 1440p:50fps 2160p:43fps
Vergeet niet omdat de resolutie naar boven is kan je zaken zoals AA naar beneden halen .


-Een 1440p 27" scherm heb je voor 280¤ 28" 4k scherm voor 380¤
1440p 32" : 480¤, 4k 40" 600¤ .Een 100euro verschil dus.


Het enige wat dus overblijft is voor mensen die echt e-sport doen of diegene die geen 100¤ extra kunnen uitgeven.
Ik denk niet dat je begrijpt wat Tweakers hier bedoelt. Waar ze hier namelijk over hebben, is de doelgroep hardcore gamers, die dus wel voor minimaal 100fps gaan en snelheden van 2ms.
En het was niet alleen de snelheid die ze als argument gebruikte, maar ook de kijkhoeken, op een TN paneel zeggen ze dat bij te grote schermen, de kijkhoeken een punt worden.
Tevens als er straks wel 120hz schermen zijn, moet je nog wel een PC hebben die dat trekt.

Zelf werk ik nu al een tijdje met een 29" 2560x1080 scherm als casual gamer, 60hz is voor mij meer dan genoeg en de verhouding van 21:9 bevalt mij erg goed, de resolutie blijft natuurlijk te laag, dus zou ik graag over willen stappen op een hogere resolutie, helaas blijven de prijzen toch wel consument onvriendelijk.
Ik denk dat het belangrijk is om hier te vermelden dat het hier om de situatie op dit moment gaat. Ooit werd van 1024x768 ook geroepen dit niks voor gamers was omdat de hardware niet snel genoeg was.

Zelf heb ik een 5k scherm (imac), ik merk dat ik wel mn werk dingen in 5k doe, maar als ik game dan schakel ik eigenlijk altijd terug naar 2560 x 1440. In games merk je het verschil in hogere resolutie nauwelijks, maar in Frames per Second merk je de drop weldegelijk. Ligt natuurlijk ook aan de video kaart in de imac (heb wel de meest geupgrade van dit moment), maar mijn ogen zijn niet zo goed dat ik nu storend grote pixels zie. Ik zit ook op een relatief grote afstand van het scherm

Al met al denk ik dat het een beetje hetzelfde is als met 4k televisies, Ja het is erg mooi en zeker de toekomst, maar de hardware om het aan te sturen is nog vrij duur en ook zouden de schermen eigenlijk groter moeten worden om er echt gebruik van te kunnen maken. 5K op een 27" is een leuk, maar komt alleen goed tot zn recht als je heel dicht op het scherm zit.
Wat ook meespeelt is dat pixels veel beter zichtbaar zijn op statische beelden (tekst) dan bewegende beelden (games, video). Video op FHD is prima scherp. Tekst is al heel wat minder.
Ik begrijp maar al te goed wat ze bedoelen. Maar nogmaals bij fanatieke gamer versta ik iets anders dan "iemand die louter first person shooters" speelt. Sinds wanneer is dat de enige soort van spelen die "fanatieke gamers" spelen?

En sinds wanneer zijn er enkel zware moderne FPS'en op de markt.
CS GO kan perfect UHD aan met modale GPU :

https://www.reddit.com/r/...ke_to_push_csgo_60fps_at/

Kijkhoeken op VA panelen is geen enkel probleem, alsof die fanatieke gamers dan plots ook proffesioneel photoshop gaan doen?

Zelf ben ik een half jaar geleden van 27" 1440p maar 40" UHD Philips BDM4065UC gegaan. Werkt perfect voro zowat alles, echt tevreden van. Zo'n schermen heb je tegenwoordig voor een 5-600¤ .
Nou, laat ik nou hardcore FPS speler zijn geweest tot c.a. 2013. Heb met allerlei spellen TFT schermen gebruikt die echt niet geschikt waren voor gaming officieel. MVA panelen bijvoorbeeld, of IPS panelen (oudjes). En ik was gewoon uiterst competetief.

Dat hele 2ms gedoe is echt overdreven kul, ja het zal vast iets schelen maar noemenswaardig is het niet. Als je goed bent, ben je goed, en dat zit in véél meer dan alleen maar pure reactietijd maar in tactiek, teamplay enz.
oké, maar alle beetjes helpen, en als je er geld voor over hebt en je wil de ogen uitsteken van je collega-gamers moet je de beste en snelste hardware hebben. het is ook gewoon leuk om nieuw materiaal te hebben, al is het maar om je eigen ego te strelen.
natuurlijk wel zielig voor die zogezegde die hard gamers met pro hardware die je dan afdroogt met je oude hardware :P
Hardcore shooter spelers dan neem ik aan? Want ik ben toch echt al ruim 20 jaar een hardcore gamer, maar raak al 14 jaar geen shooters meer aan en speel dus ook niet op 2ms en 100fps.
Alle games hebben voordeel van een fatsoenlijk hoge framerate, 30fps is helemaal niet zo leuk, als je de 60 niet kan halen is het een zeer goed punt van t.net om 4k nog niet meteen aan te bevelen
Bij de meeste strategy games levert meer dan 60fps gewoon een geen enkel voordeel meer op en bij turnbased games zoals hearthstone is zelfs 30 fps ruimschoots voldoende. Bovendien zijn de meeste serieus competitieve games wel gewoon op 60fps speelbaar op UHD. Cutting edge games worden daarvoor toch nooit serieus genomen omdat ze teveel bugs en balance problemen ondervinden. En witcher 3 op 60 of 100 fps? Give me a break, want ik single player maakt het al helemaal geen verschil meer.
100fps kan zeker wel voordelen opleveren, maar zelf zie ik er ook direct het nut niet van in. In het artikel wordt echter ook duidelijk dat 60fps vaak niet gehaald kan worden, dat is wel een belangrijk punt waardoor je 4k zou kunnen afraden.
Maar dat is niet de discussie ;)
Ik heb nu ruim een jaar 144hz full hd scherm waar ik op game. Geloof me als je eenmaal op 144hz speelt wil je niet meer terug. Ik ben iemand die zou wachten op 4k 120/144 hz. Daarnaast wat tweakers terecht aangeeft is fatsoenlijk gamen op 4k voor een enkeling weggelegd maar niet voor de massa.
Zeg me eens waarom ik 144hz op rome total war 2, world of warships of zelfs counterstrike nodig heb?

Ik doe geen competitie, ik ben geen purist die absoluut het beste van het beste wil, wat maakt die 60hz dan uit die ik gebruik?
al eens 144hz gedraaid? 144hz werkt heerlijk. en is niet alleen om "beter" te zijn. maar ook omdat het veel vloeiender aanvoelt.

of jij het zijn geld waard vind is een 2de. misschien hecht jij meer waarde aan 1440p ipv 1080p. of vind jij 1080p@60fps wel voldoende. iedereen heeft zo zijn eigen beleving. en wat hij belangrijk vind.
Euh, "werkt heerlijk", als in gewoon surfen of kantoorwerk? Ga je echt niet merken hoor.

144hz(of beter freesync g-sync) is enkel als je PC effectief die snelheid aankan . Vorige monitor kon ik "overclocken" tot 96hz , merkte weinig verschil toen en nu.

EN ja, is voor iedereen verschillend, alleen is 144hz wachten en dan de PC upgraden om dat aan te kunnen wel een investering weinig mensen zullen doen.
Alleen merk ik wel verschil tussen 60 en 120/144hz wel. en je kan natuurlijk oudere games op 144hz spelen.
Ook bij gewoon surfen of kantoorwerk kan ik overduidelijk het verschil zien, alleen al aan hoe vloeiend de cursor beweegt.
Dat gezegd hebbende zou ik inderdaad geen 120/144hz monitor voor kantoorwerk kopen, maar eerder naar een goed IPS paneel kijken.

Maar om te zeggen dat je geen verschil merkt met de door jou eerder genoemde titels is simpelweg niet waar. Ook met dat soort titels ziet het er veel vloeiender uit.
Moet je inderdaad wel de FPS halen, maar met Counterstrike moet dat geen probleem zijn :) .

Heb je het nodig? Nee. Is het beter? Ja.
Persoonlijk koop ik in elk geval alleen nog 120hz+ monitoren.
Wat wel een groot verschil is met de monitoren van een aantal jaren geleden: Een flatscreen is vanwege de andere gebruikte techniek veel rustiger aan je ogen dan een CRT, ongeacht de refresh rate.
144hz is voor competitive gaming echt ideaal, vooral in shooters merk je echt wel het verschil tussen 60z en 144hz.

Voor kantoor werk is het wel minder belangrijk. Maar ik merk echt wel het verschil tussen 60hz en 144hz als ik scroll in mijn Word document. Geloof me, als je 144hz gewend bent dan wil je niet meer terug naar 60hz. Ik ben zelf een fanatieke csgo speler, enige reden waarom ik een 144hz scherm nam was omdat het wel een stuk vloeiender ging.

Maarja, ieder natuurlijk zijn eigen voorkeur qua resolutie en refresh rate etc. Ligt er ook aan wat je doet achter je computer. :)
Ik doe geen competitie, ik ben geen purist die absoluut het beste van het beste wil
Dan ben je dus geen fanatieke gamer :)

Puur de 60Hz limiet maakt dat deze monitoren niet aan te raden zijn voor fanatieke gamers. Resolutie kun je altijd omlaag zetten, dan heb je als fanatieke gamer toch nog voordeel in de andere dingen die je met de PC doet.
Dan ben je dus geen fanatieke game
En dat is natuurlijk onzin, zoals ik in het begin zei: "wanneer zijn enkel mensen die competitief FPS spelen "fanatiek"?
Tja je zal dit moeten ervaren. Dat kan ik niet voor jou bepalen. Beelden zijn veel vloeiender wat voor met name FPS games een betere speel ervaring biedt.
Ik ben van 27" 110hz 1440p overgestapt op 40" 4k 60hz. En ik wil zeker niet meer terug :)

Het extra vloeiende is leuk maar het extra detail is zeer indrukwekkend.

[Reactie gewijzigd door nzweers op 28 januari 2016 10:15]

Ik sta er ook zeker open voor. Maar aangezien ik grotendeels van mijn tijd nog steeds games spel op m`n PC wacht ik er nog even mee. De upgrade is het mij op dit moment nog niet waard, te kostbaar :S

Volgens 3dmark is mijn pc net niet 4k ready.... (i5-3500k, 16gb ram & GTX780TI)
Ik zou ook even wachten op de nieuwe generatie gpu's dit jaar. Ik had echter die monitor vorig jaar al gekocht en moest toen wel de gpu upgraden naar een 980ti. Niet ideaal, maar anders kon ik 6-12 maanden weinig gamen.
Fanatieke gamers vinden een SLI/XFire oplossing toch geen probleem?
Voor de prijs van een 980ti kun je ook een 970SLI scoren en heb je voor UHD een opstelling die voor 80% van de games goed genoeg is voor 60+fps. Een 980ti SLI is dan ong 2x zo duur voor ruwweg 10 a 20% meer fps.
"Fanatieke gamers vinden een SLI/XFire oplossing toch geen probleem?"

Ik vond het gewoon grappig dat ze langs de ene kant zeggen fanatieke gamer->geen 4K te zware eisen en dan langs de andere kant zeggen "wacht misschien nog langer op 144hz 4k" alsof de "fanatieke gamer" dat dan wel plots kan draaien.
Als je het zo neerzet dan heb je wel gelijk maar wat eigenlijk toegevoegd had moeten worden is marktwerking en het daadwerkelijke nut van GPU hardware dat het kan aansturen. Het heeft dan ook totaal geen zin voor AMD en Nvidia om midrange GPU's uit te brengen die makkelijk 4k gaming aan kunnen omdat het een niche groep is die daadwerkelijk ook 4k schermen koopt die toch wel highend setups hebben om mee te beginnen.

Simpelweg zeggen wacht gewoon tot er 120 hertz schermen beschikbaar zijn heeft dan ook zeer weinig nut omdat het weer zo'n niche groep ding wordt.
Wat er echter wel speelt is het ontwikkeling van VR. Op het moment moet je aardig zware hardware hebben wil je überhaupt erover nadenken om VR aan te sturen met een degelijk ervaring maar de hype ervan is wel al gelanceerd met de komst van de rift en vive.

De druk op AMD en Nvidia ligt dan ook vrij hoog om met betaalbare hardware te komen dat op zijn minst een goede VR ervaring biedt. Dus tegen de tijd dat 4k schermen met 120 hertz enigszins gemeen goed zijn, is het aansturen ervan niet langer een groot problem anders dan dat je een GPU upgrade van een paar honderd euro zou moeten doen.
Het is in dat opzicht dan wel vrij reëel om te stellen dat het wachten op 4k 120 Hz gaming nut heeft.
Microstutter is veel erger dan een iets lagere framerate.
Als je een shooter op 4k speelt dan zie je de vijanden eerder aankomen en je ziet eerder wat ze doen.

Aan de andere kant, een shooter op 30fps spelen is natuurlijk niet te doen. 60hz tov 144hz echter, dan is het verschil een stuk kleiner.
Ik weet niet welke shooters jij speelt met zo'n enorme afstanden maar ik heb dit nog nooit gemerkt. Misschien omdat ik daarvoor op 1440p zat maar ik kan me moeilijk voorstellen dat dit ergens effectef een verschil zal geven?

If any cs spelers staan er sommige bekend om om juist heel lage resoluties te spelen.
Hmm, ik speel Battlefield 4 en Warships. Als je dat laatste een shooter kunt noemen :) Maar in warships is het wel verdraaid handig om te zien of de kanonnen op jou worden gericht of niet.
Zoek maar op Youtube naar: FPS killer pc gta 5. Dan krijg je een video waarmee hij gta 5 op 4K doet op een 750ti en een Pentium aniversary dus ja, 4k gamen is zo zwaar nog niet lijkt me.
Bedoel je https://www.youtube.com/watch?v=x1Z-tsC_4ng
?

dat is 1080p en een hoop dingen staan uit. zou het op UHD draaien dan zou hij maar 1/4 van de fps hebben. dus gemiddeld kon je dan onder de 10 FPS. ja daar ga je mee weg komen.

ooh hij heeft er nog 1..
https://www.youtube.com/watch?v=5HCAjiZXNrw

nog meer uit dingen uitgezet. en dips onder de 30 fps tijdens rijden.. |:(

sorry maar ik vind dips onder de 60 fps al hinderlijk.

en waarom draait hij niet gewoon de gta 5 benchmarks zodat je daadwerkelijk het verschil ziet? juist omdat 1 explosie hem op 10 fps zal brengen. heb nog geen gameplay gezien met actie.

[Reactie gewijzigd door loki504 op 28 januari 2016 07:55]

ja leuk onder de 30fps tijdens het rijden. met alles op medium. en in advance option staat alles uit.

Daar ga je niet ver mee komen.

https://www.youtube.com/watch?v=xHPC_EAvRPs

dit zijn de fps als alles aanstaat. en de 750ti zal er niet eens in de buurt komen. tevens is fps killer niet echt een betrouwbare bron te noemen.
Het spel ziet er echt een stuk slechter uit dan 1080p met settings op high. Leuk dat 4k gaming, maar niet als het ten koste gaat van alle andere instellingen. Dan liever een lagere resolutie en alle andere instellingen op high of ultra.

Ik bedoel, een kubus zonder effecten kun je eenvoudig renderen op 16k resolutie met 400fps, maar echt boeiend wordt het niet.
Om GTA 5 nou mee te nemen als een soort van benchmark, die game is nog niet eens maximaal geoptimaliseerd voor de pc. Het is een matige port van de consoles naar pc.
Ik bedoel de ingame benchmark. zodat de acties hetzelfde zijn. nu draait hij op 2 verschillende plekken.
Die goedkope g3258 doet single threaded amper onder voor een dikke i7, die cpu is zo gek nog niet als je enkel oudere games speelt.
De 750ti is een instap gaming kaart dus dat is wel opvallend, mijn oude hd7870 is zelfs een stuk sneller dan die kaart.
ben je een fanatieke pc-gamer, dan is een 4k-monitor waarschijnlijk niets voor jou
Dat is ook gewoon lariekoek, klinkt als iemand die baalt dat ie zelf geen knaken voor een UHD paneel met bijbehorende Hardware heeft. In ieder geval niet als iemand die weet waar die over praat.
je hebt dan wel aardig wat power nodig om op 4k te gamen
Niet echt nvidia 970 of amd equivalent en een i5 is genoeg .
dat is wat ik heb maar ik kan echt niet op 4k gamen hoor ja misschien met alle settings op het laagst en fps van 30
de nieuwe games zeker niet

[Reactie gewijzigd door Birdymaniac op 29 januari 2016 00:25]

? Fallout 4 ultra 33fps hitman 46 fps tomb raider 30 fps Grid 54 BF4 38

Allemaal ultra settings dus als je 45fps wil iets settings naar beneden halen.

Waar heb je dan zo'n moeite mee?
ik heb nergens moeite mee
we hebben het over gamen op 4k dat zal niet soepel gaan met een 970 en een i5 ik denk dat je er eerder 2 nodig hebt
met 33 fps wil ik geeneens gamen

[Reactie gewijzigd door Birdymaniac op 29 januari 2016 22:17]

? "maar ik kan echt niet op 4k gamen hoor"

Nogmaals de settings onder ultra (wat je dus amper/niet merkt) heb je 45-60 fps. Voldoende.
Waarom is er geen 'in de praktijk OS X' en 'in de praktijk Linux' opgenomen in dit artikel? Lijkt mij wel relevant voor al diegenen die die OS-en hebben en daar al dan niet een 4K aan willen hangen toch?

[Reactie gewijzigd door repeP op 28 januari 2016 08:08]

Daar ben ik het ook helemaal mee eens. Hoewel OS X het al jaren wel goed doet met Retina, ben ik erg benieuwd hoe de verschillende Linux omgevingen het doen, zoals Gnome 3, Unity, MATE en KDE, maar ook GTK en Qt apps buiten hun "native" omgeving, en ten slotte ook meer exotische maar toch relatief populaire omgevingen zoals bijvoorbeeld Xfce, Cinnamon, LXDE, en elementary.

Thuis gebruik ik Windows en weet ik vrijwel zeker dat ik binnenkort een 4K scherm ga aanschaffen, maar op mijn werk gebruik ik Linux (Ubuntu MATE op het moment) en ben ik toch wel huiverig voor de 4K ervaring. Ik ben bang dat het namelijk maar voor zo'n 25% goed zal werken. Maar ik kan mij ook voorstellen dat het bij bijvoorbeeld populairdere keuzes als Unity of modernere omgevingen als Gnome 3 en Plasma wel gewoon goed kan draaien.
Ik heb Arch Linux met Plasma 5 op een 4K scherm. Ik kan je vertellen dat het een lust voor het oog is en dat Plasma 5 prima overweg kan met dit soort resoluties. En dit geld eigenlijk voor alle applicaties die ik heb draaien. Ik zou nooit meer terug willen naar FHD
Ik gebruik ondertussen al een jaar een 24" UHD-monitor met mijn Debian-Xfce en wat mij betreft is de ervaring vrijwel perfect. Ook oudere Java, GTK2+ en Qt4 apps passen zich over het algemeen prima aan je DPI-instellingen aan, in tegenstelling tot oudere Windows-toepassingen. Verder zal ik mezelf maar citeren uit een oudere reactie, waarin ik aangeef waarom ik het Mac OS/Windows/GNOME scaling-principe van alles vermenigvuldigen met dezelfde scaling factor helemaal niets vind.
Alles x2 is […] eigenlijk een artefact van achterhaalde technologische beperkingen. Wat ik doe is content x1.8 tot x2, menu's e.d. x1.4.* Dat was altijd al mijn droom, enkel was kleiner dan 10px onleesbaar vanwege te weinig pixels en eigenlijk was kleiner dan 12px behalve met bitmap fonts sowieso al niet geweldig om dezelfde reden. Maar met 16px op dezelfde grootte als 8px gecombineerd met betere leesbaarheid dan 12px is dat alles opeens geen probleem. Op mijn 24" vind ik 16:9 niet storend meer, terwijl ik dat in het verleden wel altijd zo heb ervaren. Op een 15" zal het natuurlijk nog steeds storend zijn i.v.m. 16:10 of 4:3.

* In de praktijk betekent dat dat ik mijn DPI op 130 heb gezet en verder per applicatie nog wat aanpassingen heb gedaan; zie voor tips bv. de Arch Wiki.
GTK en Qt apps buiten hun "native" omgeving […] Ik ben bang dat het namelijk maar voor zo'n 25% goed zal werken.
Qt-apps zijn een "probleem" als je de scaling van GNOME gebruikt i.p.v. de DPI-instelling van X. Daarnaast heb je wat bitmap-dingen die standaard niet scalen zoals xterm, maar dat soort dingen zijn gewoonlijk vrij eenvoudig op te lossen. Waar ik geen ervaring mee heb is het mixen van monitoren met verschillende pixeldichtheid.
Agreed, ik mis zelf ook Linux en OS X in deze vergelijking.
Hoe meer ik er over nadenk, hoe meer ik het tweakersonwaardig vind om alle gebruikers van alternatieve OS-en zo aan de kant te schuiven. Als ik aandacht wil voor gebruikers van Microsoft Windows dan ga ik wel de tech-sectie van het Algemeen Dagblad doorbladeren. Natuurlijk, ook onder Tweakers is Microsoft Windows waarschijnlijk het meestgebruikte besturingssysteem, maar ik zou niet weten wie er anders aandacht moet geven aan de (on)mogelijkheden die MacOSX en zeker Linux biedt.

[Reactie gewijzigd door 84hannes op 30 januari 2016 17:56]

Helemaal mee eens. Had de schrijver toch wel even na mogen kijken.
Dat lijkt me ook zeer belangrijk, zeker voor een website al Tweakers waar gemiddeld meer mensen waarschijnlijk Linux draaien. Uit ervaring met een Dell XPS 15 kan ik zeggen dat ik de ervaring slecht vind. Ik draai tegenwoordig Linux in HD, want anders doen de meeste programma's het niet goed.

Veel IDE's zijn Java gebaseerd, waarbij er grote problemen optreden. Zelf gebruik ik IntelliJ erg veel, en op een hogere resolutie dan HD kan ik er amper mee omgaan. Wat iemand anders ook al aangaf, consoles werken onprettig en de (Gnome) DPI instellingen zijn een verschikking m.i. Misschien dat in de nieuwe Ubuntu Gnome er nog wat aan veranderd is, ik moet nog upgraden.

Daarnaast kom ik op Windows zeer regelmatig games tegen die problemen geven met die resoluties. Dan zet ik de resolutie ingame wel op HD, maar dan nog steeds werkt het niet goed en smelt mijn laptop. (Ja, gamen is deze laptop ook niet echt voor bedoeld, maar sommige games doen het wel gewoon goed)

Al met al houd ik thuis lekker mijn 1920x1200 scherm. Er moet nog heel wat gebeuren voor ik op een 4K / UHD scherm overstap.

Edit: taal

[Reactie gewijzigd door Zilverdolk op 28 januari 2016 13:06]

Wat ik me vooral afvraag is hoe het eruit ziet als je Cleartype uitzet in Windows. Als ik iets niet trek is het onscherpe fonts, dus staat Cleartype uit, vraag me af hoe dat gaat als je gaat schalen op zo'n 4K of 5K scherm.

En stiekem hoop ik nog steeds op 4:3 of 16:10 monitoren ipv 16:9 of 21:9, maar waarschijnlijk gaat dat er niet inzitten.
Vroeger was het grootste probleem met die breedbeeldmonitoren dat die *minder* verticale resolutie boden dan de oudere, vierkantere monitoren met dezelfde diagonaal. Het ging voornamelijk daar om, niet om de verhouding op zich.

Met UHD is dat veel minder van belang, want de resolutie is altijd 'zeer aanvaardbaar', ongeacht de verhouding. Je kan dus perfect een deel van het scherm gebruiken zonder het nadeel van 'te weinig overblijvende resolutie' te ondervinden.
vraag me af hoe dat gaat als je gaat schalen op zo'n 4K of 5K scherm.
Dat is hetzelfde als je op je huidige scherm, maar dan de lettergrootte 1,5 of 2 keer zo groot. Een TrueType/OpenType font blijft een vector die wordt rasterized. Omdat de pixels op een UHD-scherm 1,5 tot 2 keer zo klein zijn is het resultaat natuurlijk wel een scherpere letter :)
Microsoft is goed bezig met de 3:2 trend, met een beetje geluk komt dit zometeen ook naar monitoren toe.
Mijn Photoshop schaalt perfect mee, dus ik denk dat de schrijver een niet up to date versie heeft gebruikt
Ik heb hetzelfde als Pink667 dus ik begrijp jouw reactie niet helemaal. Zelf heb ik Adobe CC en dus altijd de laatste versie. Dit draai ik op een surface pro 3 en een full hd 24 inch scherm als 2e scherm. Het werkt niet fijn om photoshop te wisselen tussen de twee verschillende resoluties op de schermen.

Overigens heb ik de github client voor windows die op mijn surface pro erg scherp en goed uit ziet en waar de UI op bepaalde punten niet scherp is als ik deze op mijn full hd 24 inch scherm bekijk. Erg storend.

[Reactie gewijzigd door capsoft op 28 januari 2016 09:06]

Ik gebruik een 4K-UHD scherm met 125%. Er zijn bij mij geen problemen en hij schaalt keurig mee als ik nog groter ga.
Github of Photoshop? en heb je twee schermen met verschillende dpi en resolutie? en als je photoshop bedoelt, welke instelling heb je dan in photoshop? 100 of 200%?
photoshop. In Photoshop zelf heb ik niets aangepast. Enkel in Windows naar 125% gezet
Maar dus geen twee schermen met verschillende resolutie? dan loop je niet tegen dit probleem aan inderdaad.
Niet perfect. Er is een optie in de settings voor 200% schaling. Maar Photoshop respecteert niet de Windows schaling, dus perfect is het alleen als je je monitor op 200% in Windows hebt staan. Gebruik je 125, 150 of 175, dan is alles in Photoshop te groot. Getest op Surface 3 met laatste Photoshop CC.
Ik wil niet gelijk de pessimist uithangen, maar moet toch zeggen dat ik diep, zeer diep teleurgesteld ben op tweakers.net op dit moment.
4K... voor beeldschermen? Echt?
Jullie hebben het over "afwijkende resoluties", maar dat klopt niet helemaal he.
Als je zo'n diepgaand artikel schrijft, gebruik dan tenminste de correcte term. "UHD" of "4K UHD".
4K (4096 bij 2160) wordt alleen gebruikt in de professionele video industrie met 1.90:1 formaat.
UHD (of 4K UHD) (3840 bij 2160) is het 1.78:1 formaat dat door beelschermen wordt gebruikt.
Ik had gehoopt dat t.net tenminste door het hele artikel de echte goeie term zou gebruiken. Echt heel erg jammer.

Zowel de de "Philips BDM4065UC" en de "iiyama ProLite X4071UHSU-B" hebben beide een UHD paneel en niet een 4K paneel.

Sinds CES 2013 is al vastgesteld dat UHD panelen geen 4K meer heten maar UHD of 4K UHD. Dit vooral omdat 8K UHD er ook aankomt, en om nog meer verwarring tegen te gaan dat er nog een ander formaat bestaat, dat ook echt 4K heet.

Dus aub. Gebruik geen "4K" voor iets wat "UHD" of "4K UHD" moet zijn. Dit verwacht ik van een blog, niet van de beste tech site van Nederland.

Hier een paar linkjes voor meer informatie hieromtrent.
http://www.extremetech.co...hd-are-not-the-same-thing
https://en.wikipedia.org/...evision#Alternative_terms
https://en.wikipedia.org/wiki/4K_resolution#Ultra_HD
Volgens Wikipedia:
4K resolution, also called 4K, refers to a display device or content having horizontal resolution on the order of 4,000 pixels.[1] Several 4K resolutions exist in the fields of digital television and digital cinematography. In the movie projection industry, Digital Cinema Initiatives (DCI) is the dominant 4K standard. In television and consumer media, 4K UHD or UHD-1 is the dominant 4K standard.
4K UHD ofwel 3840x2160 is één van de 4K-standaarden. Het gebruik van de term 4K kan dus prima voor beeldschermen met deze resolutie. Dit artikel gaat immers algemeen over monitoren met een horizontale resolutie in de orde van 4000 pixels.
Ja, en als ik de bron in [1] volg, dan lees ik dit:
Technically speaking, 4K is not the same as 4K Ultra HD. The standalone term “4K” was originally used to describe Digital Cinema (4096 × 2160 px). Since Digital Cinema resolution is not available in a consumer television, the term “4K Ultra HD” (3840 × 2160 px) was invented — notice the slight reduction in 4K Ultra HD resolution to achieve a 16 × 9 aspect ratio.

4K Ultra HD is exactly four times the resolution of Full HD, which produces a magnificent image when viewed in person. You will be doing yourself a great injustice if you try to gauge the clarity of a 4K Ultra HDTV screen using your computer or current Full HDTV, you will not experience anything near the actual quality of 4K Ultra HD.
Ze hebben toch altijd gezegd dat je niet zomaar Wikipedia mag citeren, want er kan eigenlijk gewoon alles en niks in staan.
Ik weet niet hoor, maar uiteindelijk gaat het niet om 'wat is technisch de meest correcte term' maar gaat het juist om wat voor de gemiddelde lezer het best te begrijpen valt. En nóg een HD-gerelateerde term lanceren voor een resolutie die dermate ver van Full HD af staat (dit is niet meer het kleine verschil dat QHD of HD 'Ready' voorstelt, maar letterlijk een verviervoudiging van het aantal pixels) vind ik persoonlijk ook eerder verwarrend als duidelijk.

'Diep diep teleurgesteld'... iets met muggen en olifanten.

Er had misschien even een halve zin aan gewijd mogen worden dat 4K de algemeen gebezigde term is of lijkt te zijn, maar meer dan dat... ik vind het azijnpisserij. Valt wat mij betreft onder de categorie taalnazi en het jammeren over d's en t's op een website. Het is er niet de plaats voor.

[Reactie gewijzigd door Vayra op 28 januari 2016 10:43]

Het idee is dat als iedereen dezelfde term zou gebruiken voor dezelfde resolutie het juist het best te begrijpen valt voor iedereen. Ik ben het met je eens dat de standaarden niet altijd even duidelijk zijn, maar om ze dan maar verwisselbaar te gebruiken is nog onduidelijker.
Zo werkt helaas de ontwikkeling van taal niet en zo heeft het ook nog nooit gewerkt. Men kan daar als purist tegenin willen gaan, maar dat is vechten tegen de bierkaai. Taal ontwikkelt zich door datgene wat aanslaat bij de massa. Dat heb je maar te volgen en als je dat niet doet, ben je een zonderling die niet begrepen wordt.

Je kan er lang of kort over doorgaan maar zo werkt taal nu eenmaal. Technische termen kunnen er best naast bestaan, zo gebruiken wij ook nog 1080p en 720p vandaag de dag, en kun je ook prima 2160p gebruiken als 4K je niet exact genoeg is. Maar twee afkortingen in de spreek/gebruikstaal gaat niet werken.

[Reactie gewijzigd door Vayra op 28 januari 2016 10:56]

Voor de duidelijkheid: ik geef een neutrale reactie. Of je bedoeld 'men' waar je 'je' gebruikt? ;)

Het gaat hier om het juiste gebruik van afkortingen, niet zozeer om taal. Dat ontwikkelt zich heel anders, dat wordt namelijk simpelweg geïntroduceerd door een organisatie en dan ligt het eraan of de overige partijen dat goed of fout overnemen (met name in de beginfase).

Het is niet te vergelijken met het veranderen van woorden of overnemen van woorden uit een andere taal. Dat is inderdaad een 'organisch' iets.
Aangepast, 'je' was meervoud maar leest niet lekker inderdaad :)

Afkortingen kunnen onderdeel worden van de spreektaal, en worden daarmee ook onderdeel van het organisch proces van ontwikkeling. Niemand zegt '2160 pee' en UHD is verwarrend door alle reeds bestaande HD-afkortingen. 4K is dus in de spreektaal de beste en duidelijkste manier om de hogere resolutie aan te geven. Ga nu de straat op en ik geef je op een briefje dat meer mensen weten wat 4K is, dan wat UHD is.

Wat daarvan de oorzaak is, maakt helemaal niet uit, in dit geval is het de commercie die bepaalt, en dat is in veel meer taalontwikkelingen het geval.

[Reactie gewijzigd door Vayra op 28 januari 2016 11:01]

En nóg een HD-gerelateerde term lanceren voor een resolutie die dermate ver van Full HD af staat (dit is niet meer het kleine verschil dat QHD of HD 'Ready' voorstelt, maar letterlijk een verviervoudiging van het aantal pixels) vind ik persoonlijk ook eerder verwarrend als duidelijk.
QHD (Q van quad) is anders effectief Quad HD, Quad 720p. Exact dezelfde sprong die ze nu maken van FHD naar UHD, want UHD is eigenlijk ook QFHD.
Je hebt gelijk, maar...Op Hardware.info hebben ze dat ook opgegeven omdat het er in de volksmond al ingeslopen is. UHD=4K enz. Helaas maar waar, ik stoor me er ook aan. Maar je doet er niks aan.
UHD is onduidelijk. Het lijkt te veel op HD en FHD.

Met 4K weet iedereen direct wat je bedoelt. En als je 4096x2160 bedoelt dan moet je dat exact zo zeggen want die resolutie wordt bijna niet gebruikt.
UHD is onduidelijk. Het lijkt te veel op HD en FHD.
Dat is *omdat* het net hetzelfde is als HD en FHD: een benaming voor een schermresolutie.
Met 4K weet iedereen direct wat je bedoelt. En als je 4096x2160 bedoelt dan moet je dat exact zo zeggen want die resolutie wordt bijna niet gebruikt.
Neen, want met 4k (4K = vier Kelvin? Ik zal wel de kleine -k gebruiken, zoals het hoort) bedoelt iedereen altijd impliciet DCI-4k, de énige 4k-standaard die overigens bestaat.

UHD is gewoon quad-FHD, maar omdat QFHD minder goed bekt dan UHD hebben ze maar voor UHD gekozen. Helaas echter, want QHD is wél effectief quad-HD, dus ze breken met de traditie om er de Q van quad voor te plaatsen in geval van het verquadden van een resolutie.

Dat de TV-fabrikanten begonnen zijn met alle UHD-panelen '4k' te noemen heeft echt niet geholpen om Jan met de Pet op het juiste pad (zijnde: UHD, niet 4k) te helpen. Gelukkig komen ze daarop terug, maar ondertussen is het kwaad al geschied.
Onee? Niet gebruikt? Hier anders dagelijks hoor. ( filmstudio ) Zou fijn zijn als ze die termen gewoon op de juiste manier kunnen gebruiken.
En daarom heeft Lightmanone1984 het er ook over waarom het op een Techsite als Tweakers het niet goed voor mekaar heeft, dit is niet de blog van Truus op de hoek, maar een site van en voor gebruikers die meer kennis van zaken hebben om trend techniek en de benamingen daarvan.
Aan de andere kant zitten hier ook mensen die een hartverzakking krijgen als iemand "Linux" zegt ipv "GNU/Linux", of "FF" als afkorting gebruikt voor Firefox ipv "Fx", terwijl het uit de context heel duidelijk was wat er bedoeld werd. Hier ook, als je een artikel over 4K schermen ziet met de vraag of je hierin al moet investeren, dan kun je uit die context halen dat het om mainstream UHD 4K schermen gaat.

Wat dat betreft zul je altijd wel iemand vinden die iets te klagen heeft, juist omdat het hier wat dat betreft volzit met "puristen" die op hun tenen getrapt zijn als iemand het in hun ogen fout doet.

En Tweakers is al jaren geen echte Tech site meer, het is een gadget site met af en toe een artikel dat iets dieper ingaat op de achterliggende techniek.
Ben ik de enige die het toch nog vrij duur vind om te upgraden? Als ik naar de pricewatch kijk, is een monitor al snel ¤750 (zie pagina 1). Aangezien ik dual monitors heb, zit je met een upgrade al snel op ¤1500. 8)7

Natuurlijk kost een goedkoper scherm ongeveer ¤350 - ¤400, maar dan nog. Met nog maar weinig content op 4k (Netflix maar een handjevol, YouTube af en toe, NPO Gemist op 342p... Gruwel... En Twitch meestal op 720p) zie ik de reden nog niet, zeker omdat je voor ruim de helft een mooie dual 1080p opzet hebt (uitgaande van goedkope 4k monitor).

Voor mij hoeft het nog niet zozeer. :p
Ik ben juist wel overgestapt naar een 40" philips 4k monitor. Vroeger had ik altijd dual monitor, maar nu heb ik ervoor gekozen om maar 1 monitor te kopen. Je hebt dezelfde pixeldichtheid als 2x20" full-HD alleen zonder rand ertussen en je krijgt er ook nog eens gratis 2 monitoren bovenop ;)

Ik werk zeer zelden in fullscreen, ook films e.d. heb ik steeds vaker op maar de helft van mijn scherm draaien. Dan zijn ze nog steeds groter dan op mijn oude 24" full-hd scherm, maar ik kan er ook nog makkelijk dingen naast doen.

Ik wil iig niet anders meer, if anything dan is de resolutie en de monitor nog te klein. 2x20" is al jaren niet meer gangbaar, dus eigenlijk wil ik naar 2x27" en dus een equivalent daarvan in 1 scherm. Helaas zijn die er nog niet.

Mijn ideale monitor zou een gebogen scherm zijn met een (aanpasbare) buig-radius van ~1 meter, ongeveer 1,5 meter breed, een halve meter hoog en een pixeldichtheid van meer dan 200. Dat komt dan neer op een schermdiagonaal ~62", een 3:1 beeldverhouding en een resolutie van 11880x4320. Helaas lijken fabrikanten zich eerder op tv's te richten waar die resoluties niet nodig zijn dan op desktops waar dat een prima resolutie zou zijn.
Ik wil iig niet anders meer, if anything dan is de resolutie en de monitor nog te klein. 2x20" is al jaren niet meer gangbaar, dus eigenlijk wil ik naar 2x27" en dus een equivalent daarvan in 1 scherm. Helaas zijn die er nog niet.
Wel, toch? De monitor van Apple of Dell met een resolutie van 5120x2880, door onwetenden ook vijf kaa genoemd.

Of heb je het over afmetingen ipv resolutie?

[Reactie gewijzigd door RuddyMysterious op 28 januari 2016 21:54]

Ik heb het over beide, ik wil en een groot scherm en een hoge resolutie. Mijn CRT monitor en videokaart konden in 1999 al een hogere resolutie laten zien dan full-hd, wat dat betreft staan de videokaart- en monitormarkt al zo'n 20-25 jaar stil.
Waarom heb je niet een 4K full-led TV genomen dan? Ik vind 32" 4K UHD al echt aso, ik moet echt iets opzij schuiven met mijn stoel om of links, of rechts te werken.
Ik werk in het midden, en waar ik mee bezig ben schuif ik naar het midden van mijn scherm. Het helpt wel dat ik nog nooit fullscreen heb kunnen werken en altijd alles windowed heb.
Wat Kees zegt. Eén 4K monitor heeft 4x zoveel pixels als Full HD... Je vertelt niet wat voor set monitoren je nu gebruikt maar als je twee 4K monitoren zou nemen zit je dus naar 8 Full HD aan pixels te kijken. Dat moet iedereen voor zichzelf bepalen natuurlijk ;) maar je krijgt dan het probleem dat je je hoofd / nek fysiek steeds moet draaien bij het gebruik van het hele 'veld'.

Daarom (en omdat ik ook de 40' UHD van Philips heb) begrijp ik Kees zijn wens voor een gebogen scherm ook wel, dat zou nog mooier zijn omdat je dan minder last hebt van de scherpe kijkhoek aan de uiterste hoeken.
1 2 3 ... 8

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*