Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Asus onthult 4k-monitor met 144Hz, local dimming en hoge helderheid voor hdr

Asus heeft de ROG Swift PG27UQ geïntroduceerd. De 27"-monitor heeft een 4k-resolutie, een verversingssnelheid van 144Hz, full array local dimming en een helderheid van 1000cd/m². Ook is er ondersteuning voor G-Sync HDR.

De PG27UQ is een 27"-monitor met een ips-paneel en een DisplayHDR 1000-certificering. Dat laatste is een certificering van de VESA en betekent dat de maximale piekhelderheid 1000cd/m² bedraagt. Zonder hdr-weergave komt de maximale helderheid uit op 300cd/m².

Daarnaast vereist het voldoen aan deze hoogste DisplayHDR-standaard dat de monitor over een 10-bit scherm beschikt en minimaal 90 procent van dci-p3-kleurruimte kan weergeven. De kleurweergave wordt verder verbeterd door de toepassing van quantum dots. Het scherm beschikt over G-Sync HDR, al is niet duidelijk tussen welke verversingssnelheidswaarden G-Sync ook daadwerkelijk kan worden ingeschakeld. G-Sync HDR is een combinatie van Nvidia's G-Sync en hdr10-ondersteuning; het is de tegenhanger van AMD's FreeSync 2.

Volgens Asus biedt het scherm een hoog contrast en een goede hdr-weergave. Daarvoor zorgen onder andere de hoge maximale helderheid van 1000cd/m², de opgegeven minimale helderheid van 0,05cd/m² en het feit dat het scherm beschikt over fald in de vorm van 384 verschillende individuele zones waarvan het led-backlight dynamisch kan worden uitgeschakeld. De contrastverhouding zonder hdr komt uit op 1000:1, maar volgens Asus ligt deze verhouding bij hdr op 20.000:1. De responstijd bedraagt 4ms. Asus geeft in de specificaties niet aan welke displayport-versie wordt ondersteund, maar waarschijnlijk gaat het om versie 1.4, wat betekent dat in 4k de verversingssnelheid niet hoger gaat dan 120Hz, terwijl het scherm tot 144Hz ondersteunt.

Asus heeft nog geen officiële prijsstelling bekendgemaakt, maar de monitor concurreert met de vergelijkbare Acer Predator X27, die in de Verenigde Staten voor 2000 dollar kan worden gereserveerd. Waarschijnlijk gaat de PG27UQ ook minstens 2000 dollar kosten.

Door Joris Jansen

Nieuwsredacteur

24-05-2018 • 17:27

151 Linkedin Google+

Reacties (151)

Wijzig sortering
Snap niet dat ze dit ervoor durven te vragen.
Voor dit zelfde geld koop je een 49 inch Oled tv met alle toeters en bellen erop.
Dan is 2000 Euro voor een 27 inch naar mijn mening belachelijk.
Omdat dit een super high-end monitor is, terwijl een 49 inch Oled tv dat niet is.
Je betaald niet alleen voor het formaat natuurlijk.
Het is ook ietwat belachelijk, maar belachelijke prijzen zijn standaard met nieuwe technieken. Zover ik weet is dit het enige bestaande scherm met 4K, en 144Hz, en HDR, en G Sync. Een hele hoop verschillende technieken in een enkel monitor. Daar komt een hoofdprijs bij kijken.

Vergelijk het eens met toen de eerste OLED TV's uitkwamen. Toen had je de prijs ook kunnen bestempelen als belachelijk. Momenteel kan je OLED`s voor redelijk normale prijzen krijgen.

Dit scherm is dus niet voor de gemiddelde consument, maar voor de early adapter of gewoon iemand met een grote zak geld. Over een aantal jaren zullen dit soort schermen een stuk makkelijker te maken zijn, en een stuk goedkoper.
of gewoon iemand met een grote zak geld.
Dit inderdaad! Stel je voor je kijkt op je bankrekening en je ziet een miljoen staan, terwijl je net je nieuwe build aan het samenstellen bent. Welke onderdelen ga je op besparen dan? :Y)

Sommige mensen hebben het geld er gewoon voor dus tja.
Tja, mijn 55" LG OLED tv was 2 jaar terug ¤2500 en die is nu nog maar ¤1250. Nieuwe dingen kosten nu eenmaal een hoop geld.

Als je 2 jaar wacht zal dit scherm mogelijk ook flink in prijs zijn gedaald. (Ik zeg mogelijk, want ik dacht ook dat de Asus PG279Q flink in prijs zou dalen, maar dat had ik blijkbaar mis haha) Als je vroeg op de 1e rij wil zitten, zal je er voor moeten betalen.
Helemaal waar en dat wordt dus 2 jaar wachten :P
Voor iets over de 2000 koop je een 65(!!)inch OLED scherm. En ik begrijp dat TV’s in grotere oplages verkocht worden, maar dit is totaal niet in verhouding meer.
Dat klopt, je moet het ook niet vergelijken. Een televise is geen gaming monitor.
Kleinste Oled TV is volgens mij 55".. Maar goed, buiten dat zijn die TV's lang niet zo geschikt voor PC werk als deze monitoren, de specs zijn ook niet te vergelijken.. Bovendien was Oled bij introductie ook veel duurder.. De prijs van dit soort monitoren zakt echt nog wel zodra er meer aanbod komt en de techniek niet meer zo bleeding edge is, maar echt goedkoop zullen ze voorlopig niet worden, net zoals Oled TV's trouwens..
Snap niet dat ze dit ervoor durven te vragen.
Wet van vraag en aanbod. De concurrentie op dit (momenteel) high-end segment is 0. Er is geen andere 27" 4k monitor die 144 Hz kan. Het is dus wat de gek er voor geeft.
Is het mogelijk om nu een gaming rig samen te stellen waarmee je op ultra settings kunt spelen met deze monitor? Is de bandwidth niet te veel?
Nee, maar met deze monitor kun je denk ik ook wel even vooruit. Ik heb geen flauw idee wat voor stap Nvidia gaat zetten, maar 120 frames op 4k is niet iets waar mijn GTX 1080 ook maar enigszins in de buurt van komt.
Met andere woorden, je betaald nu de hoofdprijs wat voor iets wat niet geleverd kan worden door de videokaart.
Je betaalt inderdaad de hoofdprijs, maar een monitor is nou net een onderdeel dat lang meegaat. Zeker met dit soort specs. Ik durf te beweren dat deze monitor zeker 10 en wellicht wel 15 jaar mee kan. Er zal vast wel over de 4K heen gegaan worden uiteindelijk, maar als we kijken hoe lang het duurde van SD naar 720p naar 1080p dan gok ik dat van 4K naar zeg 8K nog wel even op zich laat wachten. Zeker omdat het relatieve verschil steeds kleiner wordt.

Dus deze monitor is voor je komende 3 PC's ook nog geschikt. En daarom mag een goede monitor best wat meer kosten.

* OddesE zou zelf wel iets lager gaan zitten dan deze, maar dat is uit geldgebrek
"Future proof" is altijd duurkoop. Eer dat de hardware beschikbaar is om UHD op 144Hz i.c.m. erg hoge settings te spelen is, zijn de prijzen van dit soort displays al enorm gezakt. Een dergelijk duur scherm aanschaffen om vervolgens op medium of lagere graphics te spelen doet ook niemand.
Tja future proof.... Ik zie het anders. Als je elke dag met een apparaat werkt kun je er voor kiezen om daar (veel) meer voor te betalen.

Het future proof is duurkoop argument klopt wel, maar als je het doorvoert moet je dus elke 3 jaar een cheap-ass chinese monitor kopen. Dan kun je voor 50 euro per jaar je hele leven lang nieuwe monitoren blijven kopen en over 15 jaar zal die wellicht betere specs hebben dan deze.... Maar dit zou wel betekenen dat je al 15 jaar lang hebt zitten werken op cheap-ass monitors. Koop je deze dan is dit vanaf dag 1 een vette monitor.

Of vergelijkbaar, het eeuwige wachten op het 'nieuwste model'... dat al verouderd is als het eindelijk verschijnt, want dan zijn er al weer opvolgers aangekondigd of geruchten er over... Op een gegeven moment moet je gewoon iets kopen.
Op zich heb ik geen moeite met je stellingen maar schermen die 15 jaar meegaan? Ga eens 15 jaar terug in de tijd en kijk eens wat toen een high-end monitor was. 15 jaar geleden stapte men net over naar digitale aansluitingen (DVI), werd net de 17 inch barriere doorbroken en was een resolutie van 1600x1200 whopping, werkelijk ongekend en alleen voor de happy few. Ja het beeldformaat was nog 4:3. LED bestond nog niet. En een contrast ratio van 500:1 was ongekend geweldig. En met die reactie tijden van net onder de 25ms, had je maar een klein beetje meer last van ghosting dan op een CRT.

Commentaren destijds op Tweakers:

'2000 euro is een behoorlijk bedrag voor de gemiddelde tweaker ja. Maar ik werk nu dagelijks met ULTIBOARD en dan is zo'n groot scherm echt wel handig wil je een beetje overzichtelijk bezig zijn. Mijn 19" CRT staat op het punt te overlijden en ik zit er serieus aan te denken om over te stappen op zo'n 20" LCD'

Daar zit je dan bijna 15 jaar later op je 1600x1200 resolutie met een refresh van 60Hz interlaced met een lightbleeding waar je u tegen zegt. Gordijnen dicht want met een 500:1 contrast ratio mag er niet teveel licht op het scherm vallen. Shooters speel je niet meer, je bent toch altijd als eerste dood want door de ghosting schiet je altijd mis. Gelukkig is het nu het laatste jaar, nog maar heel eventjes en je mag een nieuwe kopen. Een Asus ROG voor de komende 15 jaar.

15 jaar in ICT land is een eeuwigheid.
Ik gebruik nog steeds een Samsung Syncmaster 204B uit 2006 als 2e monitor. Ding doet het nog prima. En wordt iedere dag van sochtends vroeg tot savonds laat gebruikt. Het kan prima hoor, een monitor die lang meegaat, waarom vervangen als het nog werkt? (behalve dan wanneer specs je niet meer aanstaan, zoals bv beeldverhouding of resolutie of refreshrate).

En voordat men denkt dat het beeld blurry is of wat dan ook, niets van dat al, het is haarscherp, kleuren zijn ook prima. Tuurlijk is het een TN scherm en mn main monitor (hp zr2440w) heeft diepere kleuren etc. maar ik vind het wat overtrokken dat iets van 10-15 jaar oud nu absoluut onbruikbaar zou zijn.
Gebruik je iedere dag? Dan is je backlight inmiddels toch naar de vaantjes of niet?
Iedere dag ja :) Gaat sochtends aan, savonds weer uit. Nee werkt prima, nooit iets mee gehad ook.
Mijn vorige 2 monitoren waren Samsung Syncmasters, iets latere versies dan die van jouw (21" en 24"). De 21" heeft het lang uitgehouden, het pootje is helaas tijdens verhuizing gebroken maar hij doet het nog. De backlight van die 24" was echter na een wat zal het zijn 10 jaar veelvuldig gebruik wel redelijk dood. En recent is het hele ding overleden. Als je 15 jaar met een backlight doet dan ben je een uitzondering, en misschien heb je wel lage eisen qua backlight. Helaas kan zo'n scherm wel je ogen verpesten, en de DPI is ook behoorlijk laag waardoor een grote resolutie moet gebruiken. Het is maar net wat je gewend bent. Want als je het voor het geld & milieu doet: een iets groter scherm kun je zo bij de kringloop voor een prikkie op de kop tikken. Ik ben een vervent voorstander van hergebruik en langdurig gebruik, laat dat duidelijk zijn, maar bovenstaande euvels en nadelen zal een gemiddelde gebruiker toch ondervinden.
15 jaar lijkt me inderdaad lang om gebruik te maken van een scherm, al kunnen ze zeker zo lang meegaan. De Dell Ultrasharp 2005FPW die ik begin 2005 kocht, doet het nog steeds prima (na een kleine reparatie wegens onvoorzichtig gebruik door mijn kinderen). Na 10 jaar heb ik hem vervangen door een U3415W, die recent door Dell binnen garantie omgewisseld is voor een U3417W na een klein probleempje.

De 2005FPW doet nog altijd prima dienst.
Tja, ik werk zelf nog steeds precies op zo'n scherm dat je beschrijft. Ook kun je hem nog een tweede leven geven als 2e scherm ernaast.

Ik heb nooit gezegd dat 2000 euro een goede deal is. Alleen dat a) schermen lang mee gaan en b) sommige mensen gewoon veel geld hebben :)
Van het ene uiterste naar het andere uiterste? :?
Jazeker. Om te laten zien dat beide verdedigbaar zijn en beide ook nergens op slaan. Eeuwig wachten op het nieuwe model dat nog weer beter is is onzin en eeuwig de goedkoopste rommel kopen omdat de dure shit geen goede value for money geeft is ook onzin. Je moet voor jezelf bepalen welke zaken je belangrijk vind en hoeveel je daar voor over hebt. Voor de een is dat een snelle CPU. Of een grote SSD. Of een 4K monitor. Of vooral dat het allemaal niks mag kosten.
Nou, doe eens 1+1=2 dan... je bent er bijna!

Beide slaan inderdaad nergens op. Dus je kunt veel beter gewoon een mainstream paneel kopen op een mainstream resolutie, misschien doe je daar dan nog high refresh bovenop of je wil (ook) 1440p omdat gaming je ding is, en dan is er véél keus, op goede kwaliteit voor redelijke prijzen, zonder een achterlijk hoge PPI of een beelddiagonaal die totaal niet in een monitor-setting past.

Met andere woorden een paneel zoals wat Asus hier neerzet met deze prijs is achterlijk. 27 inch voor 4K is al zonder het prijskaartje een onzinnige keuze.

[Reactie gewijzigd door Vayra op 25 mei 2018 10:17]

Haha, wat een onzin verhaal, als je nu deze monitor koopt ben je een early adopter meer niet, en als je gewoon wacht tot de videokaarten dit wel aankunnen en een monitor met deze specs (inmiddels betere) 2-300euro kost ben je veel beter uit. Goedkoper en beter, dat cheap-ass slaat al nergens op, ja op je eigen comment.
Wonderbaarlijk dat dit +1 scoort zeg.... :?
Gek he, vindt t eerder gek dat jij +1 hebt, want jou vehaal klinkt niet als van een normale consument, meer een asus troll oid die hier mensen wijs probeert te maken dat ze maar monitors van 2000 euro moeten kopen en de rest cheap ass rommel is, wat een klinkklare onzin.
Mijn post was geen persoonlijke aanval.

Verder zou ik eens terug lezen want ik raad nergens mensen aan om hem te kopen (sterker nog, ik zeg zelfs dat ik hem niet zou kopen omdat ik er geen geld voor heb).
Ook mensen die het geld wel hebben zullen hem niet kopen, hooguit diegene die van gekheid niet meer weten wat ze metchun geld moeten doen..
Mooie flamewar heren. En maar reageren op elkaar en elkaars beoordelingen binnen enkele minuten diep in de nacht.

Heel relevant ook voor iedereen.

[Reactie gewijzigd door Jack Flushell op 26 mei 2018 09:51]

Twee posts noem ik nou nog geen flamewar hoor.
Waarom is het een keuze tussen een dure en een cheap ass? Als je een goed geprijsde monitor hebt kan je daar ook lang van genieten. Als je maar goed je research doet voor aanschaf. Het draait niet alleen om geld
Zeker. Het is geen keuze tussen die 2, er is een heel spectrum tussen die 2. Ik gaf 2 extreme voorbeelden, die allebei te verdedigen zijn maar ook allebei af te kraken. De ene is de 'alles zo goedkoop mogelijk' benadering, de andere de 'geld speelt geen rol' benadering.

Voor de meeste mensen is ergens in het midden het beste. Ik verbaas me gewoon over alle reacties over de prijs. Er zijn namelijk genoeg monitors die nog veel duurder zijn dan dit. Kijk eens wat men betaalt bij medische toepassingen bijvoorbeeld.
iedereen die ik ken met een 144hz 1080p scherm speelt het om multiplayer shooters e.d. op een hoger niveau te spelen, en die zetten op elke competative MP spel ALLE settings op het laagst mogelijk voor zo min mogelijk clutter, zo hoog mogelijke FPS en zo min mogelijk FPS fluctuatie. Denk dus dat zelfs een 1070 wel de 144hz voor de meeste spellen wel zou werken. Bijv LoL, Dota, CSGO, RSIX, Fortnite, ET, Quake Champions etc. Dan is het uiteraard wel weer de vraag waarom je in godsnaam voor een 4k scherm en niet gewoon een 1080p144 gaat :P
Idd, dit doe ik dus ook gewoon 144 fps op een 1080p monitor, mochten er ooit kaarten komen die 144 fps @4k doen kan je altijd nog upgraden, nou een monitor kopen van 2000 euro is gewoon onzinnig, iig voor competetive gaming...
De werkelijkheid is iets meer genuanceerd.

Mijn Asus Rampage 3 Extreme moederbord bijvoorbeeld gaat nog steeds prima mee, en de 12GB ram (6x2GB) die ik er ~10 jaar geleden inprikte ging ook mee tot 2 jaar geleden (ARK-Survival Evolved werkte niet soepel met minder dan 16GB).

Het ligt er erg aan hoe lang een onderdeel mee kan gaan. Kijk, als jij een superactieve gamer bent die soms zijn controller nogal 'ruw' neerlegt (lees: door de kamer gooit) dan kan je beter geen XBOX Elite controller kopen maar gewoon een standaard uitvoering.. en als jij vaak met vettige vingers typt en jou bureau omgeven is met (half)legen blikken energydrink dan kan je wellicht ook beter geen toetsenbord van 150 euro kopen.. maar sommige investeringen zijn zeer zeker wel het geld waar.

Ik weet nog wel dat ik vroeger mijn moeder moest overhalen om Nike schoenen voor mij te kopen (want die waren immers veel duurder dan de standaard 40-60 gulden Scapino schoenen) maar uiteindelijk toch zeer zeker geen duurkoop geweest want die schoenen zaten niet alleen véél lekkerder dan de goedkope meuk maar ze gingen ook véél langer mee waardoor ze op de lange termijn zelfs goedkoper waren dan elk half jaar een nieuw paar 'wegwerp' schoenen te moeten kopen.

Een 4k monitor is natuurlijk niet alleen voor gaming, maar kan ook erg helpen met productiviteit.
Als jij iemand bent die gamer is als hobby maar ook andere dingen doet op zijn PC dan kan een monitor als deze een prima eerste 4k-scherm zijn want dan heb je direct het voordeel van 4k in alle 'non-gaming' toepassingen en dan hoef je niet later (wanneer videokaarten sneller zijn) wéér een nieuw scherm te kopen omdat je een 500,- 4k-60hz-nonhdr scherm gekocht had.

[Reactie gewijzigd door Ayporos op 25 mei 2018 00:46]

LED backlight verkleurt op een begeven moment en wordt minder fel. 10-15 jaar vind ik wel erg optimistisch; zeker bij intensief gebruik.
Tuurlijk wel, behalve als je aan die ziekte leidt die sommige pc gamers hebben waardoor ze allergische reacties krijgen zodra de grafische settings niet op ultra staan en alleen de nieuwste games speelt.
Persoonlijk speel ik vaak iets oudere games, zie ik het verschil meestal niet tot nauwelijks tussen high en ultra en hoeft bijvoorbeeld anti aliasing voor mij niet zo (wat alleen maar meer gaat gelden met zo'n hoge pixeldichtheid). Mijn 1060 6GB geeft mij regelmatig over de 100 FPS op mijn QHD 165 Hz Gsync scherm. Ok, dat is QHD, maar een 1080 Ti is ook veel krachtiger dan mijn 1060.
Bovendien staat de nieuwe generatie van Nvidia in de startblokken volgens de geruchten.
Ik draai dan weer liever 60fps(of zo nu en dan lager) met de grafische instellingen zo hoog mogelijk(waar nuttig). Ik zou nooit grafische instellingen inruilen voor een fps boven 60(en dus ook niet een dergelijke monitor/tv kopen). Al geef ik wel toe dat ook(/juist) op die ververssingsnelheid een -sync techniek iets toevoegt(maar dat geld stop ik veel liever in een graka ;) )
Tuurlijk, het is allemaal een kwestie van smaak :)
Is ook niks mis mee, mijn reactie was vooral omdat ik me stoor aan mensen die altijd roepen dat je per se elk jaar moet upgraden naar de duurste kaart en compleet voorbij gaan aan dat je ook gewoon de settings iets lager kunt zetten wat voor veel mensen geen probleem is.
Als je wel echt kunt genieten van extra eye candy dan is dat ook cool. Ik zie dat niet maar het valt me dan wel weer op als mijn framerate naar rond de 60 zakt, dat vind ik dan alweer bijna hakkelig worden :P
Er is sowieso geen moeten. Ik vind het ook fijn als een game(met replayability) zo schaalbaar is dat geen enkele huidige kaart het trekt(en je dus wel concessies moet maken). Dan kan je hem een paar jaar later nog eens spelen, voelt ie nog steeds vers en is er ook geen remaster nodig. Ik bedoel natuurlijk geen inefficiënte coding, maar assets en functionaliteiten die op de groei gemaakt zijn, maar wel goed schaalbaar.

Ik ben dan wel weer zo dat ik liever een high-end kaart koop waar ik jaren mee verder kan, dan vaker een goedkopere midrange wat op de lange termijn voordeliger is. Dat dat betekent dat ik na x-aantal jaren een tijdje onder het niveau van de dan geldende mid-range zit vind ik niet erg.
Ik hou overigens ook wel van goede graphics hoor, maar ik kom bv toevallig net deze DF video tegen die goed demonstreert dat sommige ultra settings het soms gewoon ook niet waard zijn: https://www.youtube.com/watch?v=A8VrFUi79yo
Helemaal mee eens. Ik ben er ook vrij precies in hoor. Ambient Occlusion heeft bijvoorbeeld bij enkele games bijwerkingen(bijvoorbeeld een lichtere 'aura' om je personage) die erger zijn dan het mooie effect wat het wil creëren. En daarom hoe meer instellingen hoe beter, dan kan ik zelf kiezen. :)
Speel je zeker geen competetive games online...want het verschil tussen 60hz en 144 hz is enorm..
Nope, interesseert me totaal niet, behalve simracing dan en daar kan ik prima meekomen. :)
Die 'gamers' met die ziekte zijn voornamelijk sp spelers denk ik zo, speel je competetive online mp games dan speel je nl niet op ultra want dan ben je vaak in het nadeel want dan zie je veel minder...
Games van 2 jaar oud kan je met gemak op 4K draaien en 60FPS met een enkele 1080P. Een 1080TI doet daar nog een aardige stap bovenop en met SLI haal je het sowieso. Dus het valt allemaal wel mee. Het is wel de top voor de mensen die het geld hebben. Daarnaast is deze monitor op non gaming vlakken ook erg goed.
Ach, het is goed voor de economie. Mensen kopen wel vaker spullen die ze niet nodig hebben. Net als auto's met 400+ PK en een topsnelheid van 350 KM/h. Het ziet er leuk uit en je hebt wat om over op te scheppen tegen je vrienden, maar je hebt er in de meeste gevallen geen klap aan.
Je bent wel altijd als eerste weg bij het verkeerslicht ;)
Of de eerste om te toeteren als het al 0,1 seconde groen is op de wagen voor je :+
Als je vooraan staat sowieso en als er iemand voor je staat niet. Vermogen maakt daar niets uit. Zelfs als je sneller weg bent dan diegene die naast je staat; je hebt er niks aan.
De topsnelheid van een Ford Ka ligt slechts op 140 km/u
Mijn Ti ook niet. Misschien in SLI als je de bijkomende problemen voor lief neemt. Anders misschien nog een generatie (of 2) wachten.
Nee, maar met deze monitor kun je denk ik ook wel even vooruit. Ik heb geen flauw idee wat voor stap Nvidia gaat zetten, maar 120 frames op 4k is niet iets waar mijn GTX 1080 ook maar enigszins in de buurt van komt.
Precies. Meestal als je een monitor koopt, koop je hem om lang mee te kunnen doen, misschien wel 8-10 jaar. Over 4 jaar kunnen de videokaarten die 4k resolutie waarschijnlijk al op die snelheden draaien, en kun je nog 4 jaar goed met je monitor vooruit; en tijdens die eerste 4 jaar heb je nog steeds gewoon een monitor met uitstekende specs waar je goed op kunt gamen e.d. Natuurlijk komt er ieder jaar wel weer iets beters of nieuwers, maar ja, dat heb je met alles in PC land.
Probleem is dat als je deze voor de toekomst gaat kopen, je mis gaat lopen wat er in de tussentijd allemaal gedaan wordt. Leuk dat het 10 jaar meegaat, maar als je een monitor koopt, die te groot is voor je PC, is dat dit nooit de investering waard is voor "later."

Wanneer je dan wel hardware hebt die het aankan, is het scherm verouderd. Er zijn dan voor scherpere prijzen, betere monitors aanwezig, en wellicht met technieken die veruit beter zijn dan Free/G-Sync, waardoor je op 8K+ op een acceptabele framerates kan spelen.

Op een gegeven moment moet je je realiseren dat dingen afgeschreven zijn. Het is veel economischer om per build een scherm te kopen die erbij hoort, dan 1x een titaan van 2000-3000 euro waar je in de eerste instantie niets aan hebt over een soortgelijke monitor van een paar 100 euro.

Als je nu enkel een 1060 hebt, kun je beter voor full HD 60+Hz gaan, met een enkele 1080 voor quad-HD 100+ Hz en met een 1080 in SLI of 1080 Ti pas richting de 4K boven de 100hz. Scheelt je letterlijk 2000 euro.

Als je gaming monitor duurder is dan je build, dan is het waarschijnlijk enige verspilling van geld.

[Reactie gewijzigd door ItsNotRudy op 24 mei 2018 19:26]

Mijn ervaring met mijn 1060 is dat QHD uitstekend te doen is hoor, en haal ook geregeld 100+ FPS afhankelijk van de game (mijn oude 2500K zal daar eerder limiteren dan de GPU denk ik).. soms moet je misschien even wat settings terug draaien, maar dat zie ik nauwelijks. Maakt naar mijn idee veel minder verschil dan de resolutie.
Het hangt natuurlijk van je wensen af. Als je per se ultra wil op de nieuwste games, ja dan gaat een 1060 het moeilijk krijgen op QHD. Speel je niet direct alle nieuwe releases maar lig je vaak een beetje achter en/of vind je het niet erg om een klein stapje terug te doen (en high naar ultra is vaak nauwelijks te zien imho) dan kan een QHD 100+ Hz scherm echt wel de moeite waard zijn.
Een monitor is hét apparaat waar je voortdurend naar loopt te staren. Lijkt mij dat dit een stevige investering waard is en dus nooit verspilling van geld is.

Er komt elk jaar wel nieuwe tech uit, of een verbetering van een bestaand concept. Onderin deze draad meldt iemand het ook al: je kan dan wel ieder jaar een nieuwe, goedkope monitor kopen die dan op alle fronten onderdoet voor zo een als deze, en dan het volgende jaar nog steeds, maar iets minder enzovoorts, maar dan zit je na, heel optimistisch gezien, minimaal 4 jaar pas op het niveau wat deze monitor nu al heeft.
En ieder jaar komen er nieuwe grafische kaarten uit. De 1180 die in juli uit gaat komen gaat al boven de prestaties van de 1080ti en nieuwste Titan uitkomen, het jaar daarop komt er dan een Ti versie van die kaart, en die doet daar nog rustig een schepje bovenop. Dan kun je dus misschien dit jaar al (afhankelijk van de game), of iig na 2 jaar de ondersteunde framerates ten volste benutten, en tot die tijd heb je nog steeds een uitstekende monitor die een stuk prettiger is om naar te kijken dan een goedkope. Je kan de eerste 2 jaar dan misschien geen 144fps draaien op de hoogste grafische stand, maar al doet hij 'maar' 80fps, dan heb je nog steeds baat van alle pluspunten die deze monitor biedt.

En ook na 4 jaar is het ook nog steeds een uitstekende monitor, ook al komt er nieuwe, verbeterde tech op het gebied van monitors.

En qua afschrijving, daar moet je niet over nadenken, want zodra je iets koopt voor je PC is het eigenlijk al in waarde gehalveerd omdat het alweer verouderd is. Nieuwe tech staat altijd om de hoek.
Een monitor is hét apparaat waar je voortdurend naar loopt te staren. Lijkt mij dat dit een stevige investering waard is en dus nooit verspilling van geld is.
Wel als je PC de monitor niet kan bijhouden. Waarom voor 144Hz 4K betalen als je een 1050 hebt, die nog geen 30FPS in 4K trekt? Dan had je net zo goed voor een paar 100 euro een 2K/4K 60Hz scherm van degelijke kwaliteit (Dell heeft er genoeg) kunnen kopen.
Waarom ga je er vanuit dat degenen die deze monitor kopen een 1060 of 1050 zullen hebben? Als je een 1060 of 1050 hebt als grafische kaart zal deze monitor vast en zeker ook wel buiten je budget of interesse liggen.

[Reactie gewijzigd door Kubrix op 26 mei 2018 10:52]

Sorry, maar lezen mensen hier nog waar ze op reageren, of is eigen retoriek pushen belangrijker? De hele discussie waar je op reageert gaat over of de monitor het waard is op het moment dat je een PC hebt die geen gebruik kan maken van de functies die het biedt. Iets wat zonder een 1080 Ti (SLI) duidelijk niet gaat lukken.

Het was jouw eigen conclusie dat het niet uitmaakt, omdat je dan 10 jaar met zo’n ding kan doen. Nu is je argument dat als je geen PC hebt die deze kan aansturen, je het toch niet kunt betalen.

Al die onzinnige discussies met non-argumenten hier ook altijd. Kansloos.
Ik heb het zeker gelezen. Lees je zelf eigenlijk wel waar je op reageert? Jij reageert namelijk op mij, en ik reageer weer puur op de volgende zin (ik had hem zelfs geciteerd):
Nee, maar met deze monitor kun je denk ik ook wel even vooruit. Ik heb geen flauw idee wat voor stap Nvidia gaat zetten, maar 120 frames op 4k is niet iets waar mijn GTX 1080 ook maar enigszins in de buurt van komt.
De zin waar de bovenstaande quote een reactie op is luidt:
Is het mogelijk om nu een gaming rig samen te stellen waarmee je op ultra settings kunt spelen met deze monitor? Is de bandwidth niet te veel?
Het antwoord daarop was dus "Nee, nu niet, maar met deze monitor kun je denk ik ook wel even vooruit" en dat was dus precies het punt waar ik op voortborduur. Volgens mij is dat niet verboden, ook al is dat een side-track van de oorspronkelijke vraag. En dan begin jij vervolgens te blaten over kansloze 1050's en 1060's, om je eigen punt door te drijven, terwijl zelfs de persoon die vraagt of je er nu het maximale uit kan halen daar niet eens over begint 8)7 .

Dus ja, iemand die een monitor van ¤2000 overweegt zal daar sowieso de beste grafische kaart bij gaan halen als hij hem niet al in bezit heeft. De 1080Ti doet geen 144fps op 4K, maar de binnenkort uitkomende 1180 wellicht wel, afhankelijk van de game, en de Ti versie daarvan zal het ongetwijfeld wel gaan lukken om de meeste games boven de 100fps te draaien op 4k . Dan heb je het over maximaal anderhalf jaar voordat je nagenoeg optimaal gebruik kan maken van deze monitor. En zelfs al haal je maar 80 fps tot die tijd dan heb je nog steeds profijt van alle andere functies die die monitor biedt.

Dus inderdaad, het maakt niet uit, want (argument) je kan 10 jaar met zo'n monitor doen, en je hoeft alleen maar de grafische kaart te vervangen, en (aanvullend argument) degenen die voor deze monitor in de markt zijn zullen sowieso niet degenen zijn die vanwege budgetproblemen een schrale 1050 of 1060 in hun rig moeten stoppen.
denk het wel hoor. 1080Ti SLI kan dit echt wel
Ja, net even wat filmpjes gekeken op YouTUbe en de 1080 Ti in SLI komt inderdaad een heel eind.
Niet in ultra...en dan nog 2000 euro voor die monitor en nog eens 2000 voor die kaarten, nee das geen logische koop.
Niet in ultra? Uit je eigen ervaring? Ik heb ervaring met 1080 SLI op 4K en dat is al niet verkeerd. Het gat tussen de 1080 en de Ti is best aardig
Ik snap niet waarom mensen altijd zeuren over ‘blabla deze resolutie en refresh rate is veel te hoog voor een gangbare high end PC’.

1. Hogere refresh rate betekend ook als je niet de 144fps haalt een veel vloeiender beeld hebt (en minder tearing zelfs op lagere fps) Sowiezo in Windows. Verder ben je dan voorlopig weer future proof.

2. 4K is heus niet alleen voor gaming. Alsof gamers alleen hun PC booten en direct een game starten. Ik ben gamer en zit toch ook regelmatig te browsen e.d. Dus je hebt optioneel prachtig scherm, hoge pixel dichtheid en als je meer FPS wilt en minder kwaliteit speel je toch gewoon alsnog op 1920x1080? 4K naar 1080p scalen gaat prima.

m.a.w. Je krijgt een beetje best of both worlds.

Kan niet wachten op een 32” versie om m’n XB321HK mee te vervangen :P

[Reactie gewijzigd door Marctraider op 24 mei 2018 20:46]

Is dat de nieuwe trend, als iemand gewoon iets vraagt dat dan maar gelijk te kwalificeren als gezeur?
Jij gaat die monitor kopen in 32" ? Ja als die 250 euro kost, wat een grootpraat en ondertussen anderen wegzetten als zeurders...
Ik heb hier en 4K monitor van Acer (XB280HK) en sorry 1080p op deze 4K monitor ziet er zo blurrig en slecht uit..(helaas)
De 3100 euro kostende Titan V kaart doet aardige frames. Maar je hoeft idd niet te verwachten dat je 144hz alles max kan draaien. Maar als je bereid bent om wat settings terug te zetten is 100 fps al vrij vlot gehaald hoor.
Ja met een GTX 1080 Ti dp1.4 60 fps, soms hogere en lagere fps. Door de 144hz zal het al een stuk vloeiender ogen.

[Reactie gewijzigd door Gekke Jantje op 24 mei 2018 19:42]

Sinds wanneer noemen we een statisch contrast van 1000:1 hoog?

Dat stukje tekst is waarschijnlijk een copy&paste van de marketing slide?
1000:1 is gewoon middelmatig.
Ik ging van een PVA scherm terug naar IPS en het contrast van IPS valt dan zwaar tegen. En met plasma hoef je het al helemaal niet te vergelijken. Ik heb liever een scherm dat standaard 3000:1 doet dan een scherm dat alleen met truukjes als local dimming 1000000:1 haalt en standaard 1000:1 heeft.

Maar ja, HDR is de nieuwe hype.
Bij MVA is 1:3000 idd heel normaal.
Kan iemand mij het rare getal 144 Hz uitleggen, waarom niet 120 Hz of 100 Hz. Is er wel een optisch verschil tussen 120 en 144 Hz ?
Omdat films worden afgespeeld in (bijna) 24 FPS -> 120/24=5 & 144/5=6. Dit voorkomt dat je rare frametimes krijgt, dat sommige shots 5 frames in beeld blijven en andere 6. Dit is alleen het geval als je afwijkt van de 24 staps norm.
Zo, dat mag even wat kosten als je dus een volledige uitvoering wel hebben van de grote standaard technieken (zelfs fald), vraag me af hoe de prijs anders zou zijn geweest met een FS2?

Al mogen ze voor mij die nieuwe DisplayHDR rating ook meteen op televisies gaan toepassen, geen blanco HDR10, maar met aanduiding van de nits erbij (al lijkt fald geen vereiste binnen deze termen?). Goed, zit je nog steeds met DV en straks 10+, maar enige vorm van duidelijkheid (zeker de semi-neppe zut van HDR400, wat bijna niveau 'HD-ready' is in HDR gebie)

Grappig detail, 144hz 'rapid refresh rate', was is dan 60hz? 'slow refresh rate'? :P
Hoop dat dit betekent dat de prijs van de 2K 144hz Gsync schermen nu nog wat verder dalen (de Acer Predator XB271HU (IPS) is onlangs al wat gezakt) want die schermen zijn mij momenteel nog net iets te duur. Deze 4K schermen met 144Hz zijn leuk en aardig maar er zijn nog maar weinig PC's die uberhaupt de power hebben om een game met 4K resolutie op meer dan 60 frames/seconde te kunnen draaien dus die noodzaak is er nog niet.
Ik zit te wachten op de UW38" versie van deze monitoren (3840*1600 G-Sync/Freesync HDR1000 120Hz+), en die zouden volgens de geruchten rond de ¤ 1500/1750,- gaan zitten, maar als deze al rond de ¤ 2000,- zitten vrees ik dat ik van het 1tje wel een 2tje mag maken....

Nou ja, het is iig mooi dat het eraan zit te komen (eindelijk!, eerste aankondiging was al CES2017), en nadat de "early adopters" ze hebben gekocht zullen ze wel redelijk snel in prijs zakken.

Voor deze monitoren heb je evengoed next-gen videokaart nodig, dus kunnen we nog even doorsparen :).
En ik maar denken een jaar terug dat ik zou gaan wachten op de PG35VQ die er nog steeds niet is. Onderhand een PG279Q waar ik erg blij mee ben. Als ik de prijs van deze alleen al zie, dan ben ik blij dat ik niet heb gewacht :P
Ben er nog steeds op aan het wachten, want hoewel ik best 4K wil, wil ik dat niet op 27"; dat is te klein. :Y) Die spuuglelijke voet vervang ik dan wel voor een VESA mount. De achterkant ziet toch niemand :D
Het verbaast me dat niet meer mensen hierover beginnen. Wat heb je aan 4K als het maar op 27' is? Dan moet je onpraktisch dicht op je monitor gaan zitten om er maximaal profijt van te hebben.

Er zijn monitoren van 40' op 4K, dat is een stuk logischer.
Ik zat al een tijd te wachten op deze monitor, en vond ~¤1500 euro als startprijs wel "misschien", maar tenminste ¤2000 is me toch echt te veel.

Maar tegelijkertijd heeft Asus mij ook klote support geleverd... geen reparaties of vervangende onderdelen bieden bij schade door eigen schuld (kras op paneel; ook niet tegen betaling), dus ik zou niet zomaar nog eens een duur scherm van ze halen.
Ik las toevallig dat de nieuwe Eizo super LCD monitor, Prominence CG3145, ook een IPS panel, maar wel mooi 1.000.000:1 native contrast ratio, begin april op de markt kwam. Wel mooi $30,000.
http://www.eizoglobal.com/support/db/products/manual/CG3145

Ook die Super Samsung LCD die op de markt gaat komen, 85'' Q9S 10.000 zones zal vergelijkbaar duur zijn. De beeldkwaliteit van deze Asus zal daar echt niet bij in de buurt komen. Als je een OLED-eske LCD wilt maken dan gaat dat belachelijk veel geld kosten.
Volgende keer wat nauwkeuriger lezen op de EIZO site. Er staat daar nergens dat die 1.000.000:1 ratio "native contrast ratio" is. Er staat "typical"
M.a.w best case scenario, net zoals bij deze Asus.

Het is nog steeds een IPS scherm en de IPS techniek kan nou eenmaal geen hoge contrastwaardes geven. IPS zal altijd in de orde grootte van 1000:1 blijven zitten.

Wat wil interessant is op hun site is dat ze aangeven dat de prominence geen last van "halo's" heeft bij local dimming. Als dat werkelijk waar is, dan word zo'n dynamisch contrast ratio ineens interessant. Helaas zie ik nog niet hoe ze dat voor elkaar spelen en of het werkelijk goed werkt.
Tja..., ik ben geinformeerd door de link naar EIZO die JIJ gaf en die GEEN 1.000.000:1 native contrast claimt. :)
Maar ik ben erg blij met de extra info die je nu gegeven hebt. Dit is eigenlijk een soort "per-pixel local dimming" en dat is veelbelovend.
Helaas kan ik nog geen onafhankelijke review vinden. Hoewel ik wel vertrouwen in EIZO heb dat ze waar kunnen maken wat ze beweren. Helaas durft EIZO geen prijs op de website te zetten.
In fora zie je prijzen van 5 cijfers voor de komma, wat een tikkie buiten mijn budget is. Hopelijk is het mogelijk de technology betaalbaar te maken. Maar dat lijkt niet iets dat we op korte termijn kunnen verwachten.
Je kunt er redelijkerwijs van uitgaan dat de gebruikte methode IPS met een contrast verrgelijkbaar met OLED gaat leveren.

De prijs staat gewoon op de website $30,995
https://www.eizo.com/news...145-dci-4k-hdr-reference/

De gebruikte methode maakt dat de monitor erg dik is..niet echt iets waar men op staat te wachten.
http://www.macotakara.jp/blog/report/entry-32614.html
Eizo.nl en eizo.be vermelden geen prijs.

Inderdaad erg dik, maar dat boeit mij totaal niet. Een computerscherm zet je toch niet tegen de muur. Bij iedereen die ik ken zit er genoeg ruimte achter hun huidige scherm om die dikte van dat eizo scherm makkelijk kwijt te kunnen.
Ik vraag me wel af wat die dikte veroorzaakt. Die extra filmlaag die achter de IPS gezet word kan toch nooit zo dik zijn? Zou het de verlichting zijn die zo dik is voor de extra lichtsterkte die ook super uniform moet zijn? (ook de nodige fans voor koeling trouwens. Lijkt wel een plasma :))
Ik heb drie Eizo FG2421 monitors gekocht, voor ¤750, voor de komende 10 jaar of zo. Hebben veel betere zwartwaardes dan de meeste monitors daar kan ik dus lekker in het donker op kijken...net zoals op mijn Pioneer Plasma's.

Er is trouwens nog zo een als de Eizo Prominence CG3145 maar dan van een ander merk en er zullen nog wel meer komen..ook heel duur ¤45,000..ze noemen zoiets trouwens een ''dual layer LCD''
http://flandersscientific.com/XM310K/
Da's inderdaad vrij dik, maar maakt dat voor de meeste vormen van gebruik echt veel uit?
Voor de professionele markt zal het minder uitmaken maar consumenten willen dunne schermen, beeldkwaliteit doet er minder toe. Stel dat dit soort schermen ooit betaalbaar wordt dan gaat het moeilijk worden om mensen zo ver te krijgen om ze te kopen vanwege de dikte. Een van de problemen bij Plasma TVs was ook dat ze wat dikker waren. En laten we het helemaal maar niet hebben over CRT TVs.
Over CRT TV's moeten we inderdaad het niet hebben, want dat is een andere categorie van vormgeving.

Bij platte TV's is het alsnog vaak zo dat ze met hun rug naar een muur of ander object staan. De voet steekt dan dieper dan de behuizing. Die ruimte kan je dus in principe gewoon benutten. In elk geval voor het gebruik maakt het niet uit, dus daar blijf ik achter staan en voor het aanzicht maakt het alleen uit als je er een duidelijke zichtlijn van opzij op hebt.

Bij vrijstaande toestellen en toestellen die aan de wand hangen, kan het qua uiterlijk ook minder gepast zijn en bij toestellen die aan de wand hangen in zeldzame gevallen ook minder practisch.

Van alle problemen met plasma TV's, heb ik eigenlijk nooit wat meegekregen over de dikte. Vooral over het verbruik werd moeilijk gedaan. Ze waren misschien iets dikker dan een LCD maar het elk modeljaar dunner worden ging wel gelijk op.

Om tenslotte weer bij de getoonde Eizo terug te komen: hij oogt lomp door handvaten, en een deel van de dikte komt door de plaatsing van ventilatoren. Die kun je ook anders plaatsen waarna hij al wat slanker kan worden vormgegeven. Vrij dik, maar niet zo onpractisch dat mensen hem massaal in de winkel zouden laten staan, denk ik.

[Reactie gewijzigd door mae-t.net op 27 mei 2018 14:06]

De laatste Panasonic ZT60, 2013, was nog altijd 5cm dik. LCDs met zonedimming zijn ook vrij dik maar daar worden er ook maar relatief weinig van verkocht vergeleken met de vrij dunne Egde Lit LED LCDs, verreweg het meest verkochte soort TVs op de markt.

Ik denk dat je dat niet moet onderschatten. Net als Plasma heeft OLED burn-in probleem. Dat OLEDs zo dun/het dunst zijn zal zeker helpen bij verkoop. Zijn ook verreweg de beste verkochte TVs in het high-end segment.

[Reactie gewijzigd door 8mile13 op 27 mei 2018 15:38]

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True