Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties

AOC heeft de U2477PWQ aangekondigd. De monitor combineert een beeldschermdiagonaal van 23,6 inch met een resolutie van 3840x2160 pixels. Het scherm met pls-paneel krijgt een adviesprijs van 499 euro.

De pixeldichtheid van het 23,6"-scherm ligt dankzij de uhd-resolutie op 187ppi. Het scherm bevat een paneel dat 100 procent van het srgb-kleurenspectrum kan tonen en dat van het pls-type is, waarmee duidelijk is dat Samsung de producent van het paneel is. AOC heeft de U2477PWQ van hdmi 2.0 en displayport 1.2 voorzien. Ook is er ondersteuning voor mhl 3.0 aanwezig, waarmee beelden vanaf een smartphone of tablet weergegeven kunnen worden.

De maximale helderheid ligt op 300cd/m² en de grijs-naar-grijs-responstijd ligt op 4ms. Gebruikers kunnen het scherm 130mm in hoogte verstellen en daarnaast is het vijf graden naar voren en 23 graden naar achteren te kantelen. AOC rekent een adviesprijs van 499 euro voor de U2477PWQ. In deze maand moet het model beschikbaar komen.

AOC U2477PWQAOC U2477PWQAOC U2477PWQAOC U2477PWQ

Moderatie-faq Wijzig weergave

Reacties (59)

Er zullen genoeg mensen zijn die het nut niet inzien van UHD op nog geen 24", maar ik vind dit een mooie zet.
Door de hoge pixeldichtheid is alles scherp, ik merk vaak genoeg dat mijn 1080p schermen niet scherp genoeg zijn.
Inderdaad, veel mensen spreken hier altijd over vanuit hun eigen perspectief, terwijl ze gewoon niet weten hoe scherp een ander kan zien.

Interessant artikeltje over 'true retina', waarin Apple's Retina wordt afgezet tegen de scherpte van het menselijk oog:
http://www.cultofmac.com/...tina-isnt-enough-feature/

Een 21" scherm met een kijkafstand van 28", zou pas gelijk staan aan het menselijk oog met perfect zicht, als de resolutie 7408 x 4168 was.
Misschien heeft het voor het overgrote deel van de bevolking weinig nut, maar tot we bij dergelijke resoluties zijn aanbeland, kan het nut hebben.
Er zit natuurlijk een enorm verschil tussen 'waar je oog het verschil tussen ziet' en 'wat prettig is om te gebruiken'. Ik heb een 4k 28" monitor op mn snufferd staan en ik vind dat haast te scherp, mits ik de boel native laat dan.

Ligt natuurlijk ook een beetje aan bepaalde Windows apps, zolang deze moeite blijven hebben met schalen en alles native moet blijven, is dit een probleem. Met OS X is zo'n monitor al veel interessanter.

Dan nog zou ik niet weten waarom je niet gewoon Samsung's al verkrijgbare 24" 4k model zou halen :) goedkoper, met freesync...
Ik heb een 4k 28" monitor op mn snufferd staan en ik vind dat haast te scherp, mits ik de boel native laat dan.

Het is onwaarschijnlijk wat je hier zegt, volgens mij ook niet wat je bedoelt. Het lijkt me onwaarschijnlijk dat je het beeld te scherp vind. Je bedoelt waarschijnlijk datgene wat je hierna zegt; dat characters en vormen te klein zijn doordat de schaling niet is aangepast. Maar dat is echt wat anders.

En laten we dat niet als argument gebruiken om te zeggen 'dat men niet zit te wachten op een monitor met dergelijke ppi'. Het gegeven dat bepaalde software niet om kan gaan met bepaalde schaling is geen reden om een innovatie op hardwaregebied als zinloos te bestempelen.

Dat dergelijk scherm niet voor iedereen een even goede aankoop is, bijv. vanwege het gebruik van bepaalde software, minder goede ogen of desnoods gebrek aan motivatie om hebben de schaling goed in te stellen, dat is best. Maar voor heel veel mensen (volgens mij) hoeft dat dan ook niet op Tweakers dienen te worden gepost. Daar zijn we ondertussen wel klaar mee.
Wat je zegt is precies wat ik bedoel. Mijn enige tegenreden is juist dat software niet goed schaalt, waardoor ik verplicht ben om alles gewoon op 100% te zetten. Dan is het te scherp; te klein om lekker te gebruiken.

Was de scaling wel goed, zoals dat bij OSX is, zoals in de tweede alinea ook staat, dan is zo'n scherm natuurlijk veel nuttiger.

Dan nog is dat cultofmac-propagandabericht natuurlijk een beetje overtrokken. Dat het menselijk oog verschil ziet op zo'n ontzettend hoge 'resolutie' is natuurlijk wat anders dan dat we op die resolutie nog daadwerkelijk wat hebben aan dat verschil.
Van 480p naar 1080p was een grote belangrijke stap, maar van 1080p naar 4k is veel minder zichtbaar.
Er zullen genoeg mensen zijn die het nut niet inzien van UHD op nog geen 24", maar ik vind dit een mooie zet.
Alles ziet er een pak scherper uit waardoor ergonomie en leessnelheid omhoog gaan, evenals het feit dat er vl meer op het scherm past als de schaling lager staat dan 200% waardoor workflow verbetert.

Dus: mensen die zoiets beweren zijn fout.

[Reactie gewijzigd door IveGotARuddyGun op 17 november 2015 15:04]

Nou ja, fout... of ze hebben slechtere ogen, waardoor het voor hun geen nut zou hebben zo'n scherm te kopen i.v.m. extra kosten die dan dus weinig opleveren.
Nou ja, fout... of ze hebben slechtere ogen, waardoor het voor hun geen nut zou hebben zo'n scherm te kopen i.v.m. extra kosten die dan dus weinig opleveren.
Zlfs voor hen (niet hun) is het effect van meer pixels merkbaar, volgens dit artikel op cultofmac, hieronder aangehaald.
But there’s another reason why everyone should care. Back in 2010, Japan’s NHK Science & Technology Research Laboratories discovered that across the board, the smaller the pixels, the more real an on-screen object seemed to the person viewing it, even if they didn’t have perfect vision. In fact, this effect is so profound on individuals that it eventually reaches a point where you have pixels small enough that on screen objects are completely indistinguishable from real objects.
Ondanks dat ik het grotendeels met je eens ben, zal "cultofmac" natuurlijk nooit zeggen dat het niet beter is. Er zitten ook genoeg nadelen aan verbonden die ze je niet vertellen. Ik zou er overigens wel graag 1 willen ipv mijn u2412m die het overigens uitstekend doet op alle vlakken :)
Pas als Windows EN de programma's die ik veel gebruik consequent en goed met scaling omgaan zie ik er (voor mijn gebruik) pas nut in.
Gelukkig bestaat OSX ook nog. Ik heb een 24" 4K monitor van Dell met 200% scaling (dus 1920x1080 met 4 pixels per punt). Haarscherp en makkelijk leesbaar. Software schaalt feilloos,

In Windows is het inderdaad echt drama. Zelfs zo erg, dat ik in Windows maar gewoon 2560x1440 draai omdat het anders teveel gezeik geeft en native 4K veel te klein is. In games draai ik wel 4K: Meeste games schalen wel prima :)

[Reactie gewijzigd door Gamebuster op 17 november 2015 15:47]

Draai je dan wel Windows 10? Zo nee: dan heb je daar waarschijnlijk je antwoord. Windows 10 schaalt heel goed.
Ik draai Windows 10 en het schaalt net zo bagger als Windows 8.1 en 8.0. Of tenminste vergelijkbaar zo bagger, ik heb ze niet naast elkaar gezet.

Zelfs als -Windows- het goed doet (en dat is niet zo), heb je ook nog apps die allemaal anders erop reageren. De ene doet netjes scaling (maar faalt hard met een kleine selectie aan UI elements, zoals knopjes ofzo), de volgende draait gewoon native pixels (mini vensters), de volgende doet gewoon in eigen resolutie draaien en wordt geupscale't (blokkerig).

Dit laat mij gewoon denken dat er maar 1 manier is om het goed te krijgen en dat is je strict houden aan bepaalde system calls o.i.d., terwijl er schijnbaar 300 manieren zijn om hetzelfde te realiseren die allemaal anders geimplementeerd zijn.

Eigenlijk ken ik zeer weinig non-games, van Microsoft zelf of 3rd party, die perfect werken. Dat, terwijl, 99% van de software van Apple of van 3rd party's voor OSX perfect (zeg maar, foutloos) schaalt in OSX.

Vermoedelijk draaien wij veschillende versies van Windows 10, want Windows 10 schaalt bij mij echt waardeloos. Volgens mij heb je zelfs betere scaling in Linux Ubuntu dan in Windows 10. Het is echt belachelijk dat Microsoft dit nog steeds niet op orde heeft.

[Reactie gewijzigd door Gamebuster op 17 november 2015 16:56]

Scaling in Windows 10 werkt goed, maar programma's hebben ook opties (vanuit de maker) , sommige van die opties zorgen dat specifieke programma's slecht schalen. (ligt dan dus aan de dev!)

Met voor elk 'stout' programma een manifest bestand in de map van de .exe plaatsen lost dat op door die slechte Scaling opties weer uit te zetten danwel de goede opties aan te zetten.

Zo'n bestandje is universeel alleen moet je de bestandsnaam gelijk hebben aan de. Exe
Dat is wel heel naief, de developer de schuld geven. Waarom komt het bij Windows dan zo vaak voor dat het niet goed werkt en bij Mac niet? Alle "slechte" developers werken aan Windows apps en alle "goede" developers aan Mac apps?

Weet je wat ik als OSX/iOS developer moet doen om mijn apps te laten werken met high-DPI schermen zodat scaling feilloos werkt?

Hint: Niets. Het werkt gewoon. DPI scaling op onjuiste manier realiseren moet je echt expres doen. "Sane defaults" zou ik dat noemen.

De rede dat het voor Windows een stuk pittiger is, is omdat ze bij Microsoft de fout hebben gemaakt om met DPI scaling te werken: Microsoft apps moeten hun eigen components DPI-aware renderen. Dit heeft als voordeel dat er nooit meer pixels dan nodig getekend worden en dat ieder component zichzelf kan optimaliseren per DPI. Het nadeel is dat je ieder component DPI-aware moet zijn, anders breekt het.

In OSX/iOS hoeft dat niet; vanuit het perspectief van de code is een component altijd evenveel pixels, ongeacht de "DPI scaling" setting van het OS. OSX kijkt naar je scaling-setting, rond deze af op een hele multiplier naar boven, rendert het geheel en gaat tot slot deze downscalen naar schermresolutie.

Dat wil zeggen dat als je een 1000x1000 pixels monitor hebt en je wil een "virtuele" schermresolutie van 750x750 pixels, dan zal OSX renderen op 1500x1500 pixels (200% 750x750) en dit samplen naar 1000x1000.

Alle niet-perfecte scaling settings (anders dan 1x, 2x, 3x, 4x, enz) zullen daarom extra performance hit nemen en kan geen gebruik maken van LCD-specifieke "clear-text" rendering, maar het is qua implementatie wel een heel stuk simpeler.

Alle iOS en OSX devices hebben schermresoluties die fijn werken op 2x (alles behalve iphone 6 plus) of 3x (iphone 6 plus) scaling. Zo worden er niet meer pixels dan nodig verwerkt en zal tekst haarscherp zijn. Dat is ook de rede van de 27" 5K iMac: Die is precies 200% van 2560x1440. 4K op 27" is voor goede Windows-like DPI scaling waarschijnlijk ruimschoots scherp genoeg, maar op OSX zit je dan met 200% 1080p (mega-tekst) of iets van ~160% scaling, wat fuzzy tekst geeft. 5K is precies 200%, wat de meest ideale situatie is in OSX.

[Reactie gewijzigd door Gamebuster op 17 november 2015 19:12]

Wellicht wat kort door de bocht maar de developer kan het oplossen, legio aan programma's van dev's die volgens Microsoft protocol werken of juist helemaal niet (en dus niet halfbakken) en zodoende geen last hebben.

Of Microsoft's systeem meer voordelen of nadelen geeft doet daar verder helemaal niks aan af.

Net als een app waarin bepaalde functies pas later naar de Android port komen als het origineel van IOS is. Je kiest er voor te developen voor een platform en als je dan een goed resultaat wilt bewerkstelligen zal je de quirks van dat platform moeten respecteren of proberen de beheerder van het platform nadelige zaken te veranderen.

Groot voorbeeld: Adobe

Het kost mij 1 instelling binnen Windows om Adobe perfect te renderen. Zeker omdat het ook al voor Windows 10 (8 8.1) zeer gelijkwaardig werkte voor zover ik zie heeft Adobe toch voldoende tijd gehad dpi aware te ontwikkelen? En als ze dat niet willen gooi dan zelf die optie aan voor enkel Adobe programma's zodat de gebruiker daar niet meer voor hoeft te stuntelen op zijn high dpi scherm (iets wat juist bij eigenaren van Adobe software vaker voor komt dan gemiddeld) of zet de optie ergens in de instellingen.

Maar nee Adobe kiest er voor alles te laten zoals het Is en zelfs niet de klant er op te wijzen dat het directe probleem heel simpel op te lossen valt, die zal er na uren Google achter moeten komen hoe er wel productief te werken valt met Adobe software op high dpi schermen binnen Windows.

Het probleem komt bij mij overigens echt zelden voor, momenteel op mijn laptop en workstation valt het op 1 hand te tellen tegenwoordig

[Reactie gewijzigd door TWeaKLeGeND op 17 november 2015 19:30]

Maar de applicaties die je daarop draait vaak niet. Fijn dat je OS goed schaalt maar als de menubalk van je app onleesbaar klein is en de buttons nauwelijks te raken zijn, dan heeft het weinig zin. Ik draai op mn Lenovo Yoga 2 pro (13'', 3800x1800) een resolutie van 1600x900, omdat het anders onwerkbaar is. Windows 10 pro, build 10586.
Wat zonde zeg, er zijn bij mij echt weinig programma's die last hebben en die kan je dan handmatig nog omhoog schalen m.b.v. Manifest bestand. Google op yoga 2 pro manifest en succes met voortaan wel high res draaien ;)

[Reactie gewijzigd door TWeaKLeGeND op 17 november 2015 18:31]

Voor lokale applicaties kan dat. Maar ik heb veel machines via rdp te beheren. 2012+ neemt scaling over, maar een rdp sessie naar 2008r2 niet. En die zijn er nogal wat. Dus voor mij is dat slechts een gedeeltelijke oplossing. Feit blijft dat dat voor een tweaker wel te doen is maar dat er in de basis (OS/applicaties) iets verkeerd gaat bij tveel applicaties. Ik ben alles behalve een Apple fan, maar dr werkt scaling wl goed.

Anyway t ging over n monitor ;)
Die schaalt niet-meewerkende applicaties gewoon op rasterniveau. Zelfs tekst, die door datzelfde OS gerenderd wordt!!
Dat is lui, dom, lelijk, onhandig, en een stap terug t.o.v. Windows 7.

[Reactie gewijzigd door _Thanatos_ op 17 november 2015 21:14]

Het falen van een OS heeft feitelijk niks te maken met het nut van een scherm. Dat jij zo'n scherm momenteel niet nuttig kunt inzetten is iets anders, maar nuttig zijn UHD-schermen sowieso.
beetje nuance, er is natuurlijk wel een limiet aan het formaat van het scherm versus de pixeldichtheid gecombineerd met de gebruikelijke kijkafstand. UHD op 23 inch znder schaling op een normale monitor zal weliswaar meer kunnen weergeven op het scherm, maar je moet er maar erg dicht opzitten om er gebruik van te maken waardoor je workflow verbetert. Als je de hele tijd met je neus op het scherm gedrukt moet zitten zal het de 'workflow'ook niet per se ten goede komen.
Maar met schaling is het natuurlijk wel een verbetering. Mits goed toegepast in de software.
Het scheelt enorm hoe goed de ogen zijn, ik heb prima zicht en ik zie op normale werkafstand de individuele pixels op een Full HD scherm. Ik ga is een keer in een pc winkel kijken hoe dit eruit ziet maar ik denk niet dat ik het dan kan zien op Ultra HD.
Mijn ogen zijn ook goed. Op kantoor heb ik een 24" HP op 1920 x 1200 en thuis een 22" Eizo met dezelfde resolutie. Deze is toch behoorlijk fijn hoor. Daar zie ik geen pixels meer.
Wat natuurlijk niet wegneemt dat meer niet nog mooier kan zijn.
Ik ga niet zeggen dat het geen nut heeft.

Wat ik me afvraag als leek, belast deze hoge resolutie het systeem veel extra?
Ik heb ook 1920x1200 op 24" maar ik zie elke pixel dus echt wel op 70cm afstand.
Eens 4/5K en je wil nooit meer terug.

En ja het belast de GPU idd 4x zo heftig
Ik ook, maar op mijn 22" met dezelfde resolutie niet.
Misschien heeft het ook te maken met de kwaliteit van mijn thuis scherm. Eizo levert heel mooie dingen.
Ik zit ook op een Eizo
Ja, de GPU (beeldprocessor) word veel zwaarder belast op zo'n hoge resolutie, en niet alle videokaarten kunnen dit ook aan. Echter zal je hier niet veel last van hebben, behalve als je gaat gamen. Dan is n videokaart niet voldoende meer op deze resolutie.
Dit was ook een probleem toen Lightroom op de 5K iMac's werd gebruikt. Door slechte optimalisatie was er bijna niet te werken als Lightroom full screen in de ontwikkelmodes gebruikt werd.

Door Adobe werd er geadviseerd om het venster flink te verkleinen.
De Videokaarten konden niet overweg met het renderen met zo veel pixels.
Men voelt zich altijd zo superieur en uniek, echt prachtig. Het helpt zeker in de marketing statements, want dit is gewoon de zoveelste mogelijkheid om mensen weer te motiveren om een nieuwe tv of monitor te kopen.

Graag kijk ik hier altijd kritisch naar en luister ik graag naar mensen die hier meer verstand van hebben en goede logische standpunten hier in hebben.
Dit vind ik zelf over het algemeen wel een goede pagina om naar te refereren: http://carltonbale.com/does-4k-resolution-matter/

Het verhaal ging overigens in het full hd tijperk ook al op, al moet ik zeggen dat het met de kijkafstand van tv's natuurlijk wel een ander beeld schetst.
Het mooiste voorbeeld was nog wel toen een collega verkoper aan een klant aan het uitleggen was was het verschil tussen de marketing termen full hd (1080p) en "maar hd-ready" (720p) was.
De klanten kijken vervolgens naar 2 naast elkaar hangende philips tv's (waarvan het 1080p model ook nog eens 1500euro duurder was) beiden aangesloten op een hd demo generator (wat ze beiden echt schitterend beeld liet tonen) en de klant zei over de goedkopere 720p televisie: "dan is die dus zeker full hd."

Dit was niet alleen de opvatting van de klant, maar eigenlijk was iedereen het hier wel over eens. Die resolutie is niet zaligmakend en zelf helemaal niet nodig in de meeste gevallen.
Laat je dus aub. niet gek maken door makreting termen en de boodschap dat het echt veel beter is, maar ga het aub. zelf bekijken en oordeel zelf.
En indien je er ook op wilt gamen, hou er dan aub. rekening mee wat voor monster van een systeem je er ook nog voor nodig hebt (liever native dan geinterpoleerd imo)

P.s. niet iedereen is een grfisch ontwerper o.i.d. mensen. En als je hier bijv. een professionele Eizo naast zet in 1080p denk ik dat die de slag nog steeds wint.

[Reactie gewijzigd door xSNAKEX op 17 november 2015 22:37]

Videobeeld is wel heel anders dan een strak afgelijnde gebruikersinterface en gerenderde tekst, dus je argumentering gaat niet helemaal op.

Ik geloof niet dat iemand absoluut geen verschil merkt tussen FHD en UHD op een computerscherm. Enkele mensen die slecht bedeeld zijn qua zicht misschien, maar de overgrote meerderheid zou er wel bij varen.
Je kan een TV, waar je op enkele meters zit en bewegend beeld op bekijkt, niet vergelijken met een computerscherm, waar je in principe minder dan een meter vanaf zit en dikwijls statische tekst bekijkt. Je verhaal is niet van toepassing: hoge DPI op een computerscherm is in elk geval ZEER ZICHTBAAR en FHD op een 24" scherm is een aanslag op de ogen. Dat besef je ten volle wanneer je het geluk hebt op betere schermen te kunnen werken en plots moet "terugschakelen".
Komt misschien door Windows, ik vind de text rendering in Ubuntu ook veel mooier/scherper.
Heb al alles geprobeerd van cleartype aanpassen, geen verbetering helaas.
Ja, maar Ubuntu geeft het niet in alle applicaties even strak weer, web / hier op Tweakers zeer zeker wel.
Bij deze een 1:1 vergelijking, die ik al eerder wou doen om het goed te vergelijken.

Ongewijzigde standaard weergave op OS @ Firefox: Windows 7(bovenste) vs Ubuntu 14.04 (onder)
Wel beide scroll-zoomed merk ik te laat op.
http://www2.pic-upload.de/img/28878996/Clipboard01.png

[Reactie gewijzigd door Canule op 18 november 2015 15:33]

Ik vind mijn 1440p anders al klein zat op 27 inch. 4k is teveel van het goede, vooral met poep scaling van windows. 4k op 40 inch, nou dat zie ik wel zitten. Kan je alles lekker 1:1 draaien zonder scaling op een giga grote desktop.
Weet iemand eigenlijk wat je minimaal voor videokaart nodig hebt om 2D goed uhd weer te geven? Ik heb geen interesse in gaming of meer serieus 3D werk, maar sec iets om zo'n scherm of twee van dit soort schermen aan tw sturen.
Je hebt weinig bijzonders nodig om 4k aan te sturen. Een videokaart (of moederbord) met displayport 1.2 is wel fijn, zodat je 3840x2160 pixels met 60Hz kan weergeven. Via hdmi haal je maximaal 30Hz en dan oogt het bewegen met de muis in Windows niet lekker soepel. Voor Office-werk wel te doen, maar 60Hz oogt gewoonweg rustiger.
Dat is kennelijk toch niet helemaal waar.

http://danielpocock.com/how-much-video-ram-for-a-4k-monitor
I've been relatively happy with [my 4k monitor] except for one thing: I found that 1GB video RAM simply isn't sufficient for a stable system. This wasn't immediately obvious as it appeared to work in the beginning, but over time I've observed that it was not sufficient.

I'm not using it for gaming or 3D rendering. My typical desktop involves several virtual workspaces with terminal windows, web browsers, a mail client, IRC and Eclipse. Sometimes I use vlc for playing media files.

Using the nvidia-settings tool, I observed that the Used Dedicated memory statistic would frequently reach the maximum, 1024MB. On a few occasions, X crashed with errors indicating it was out of memory.

After observing these problems, I put another card with 4GB video RAM into the system and I've observed it using between 1024 MB and 1300 MB at any one time. This leaves me feeling that people with only basic expectations for their desktop should aim for at least 2GB video RAM for 4k.
Volgens radeontop gebruik ik momenteel ~650M VRAM (~32%) op n UHD-scherm.
Iets als dit moet er volgens de specs (download het datasheet) drie kunnen aansturen.

[Reactie gewijzigd door mashell op 17 november 2015 18:04]

Thanks. Scheelt mij een hoop uitzoekwerk! :) :)
16:9 verhouding. Waar zijn de 3:2 of 16:10 monitoren met UHD resolutie?
Alhoewel 16:10 etc erg interessant waren met lagere resoluties, is het met zo'n hoge res. niet zo belangrijk meer. Je kan al meer tekst kwijt dan de grootste 16:10 resoluties atm, 2560x1600.
Dat ligt er maar net aan, als alles x2 gedaan word zoals bij de Apple retina computers dan word een 15" MacBook bijvoorbeeld 1440x900 kwa grote van alles op je scherm.

Als je 1200 pixels hoog wil hebben zul je dus een hoogte moeten hebben van 2400 pixels als je hetzelfde wil maar dan in een hoge resolutie.
Alles x2 is dan ook eigenlijk een artefact van achterhaalde technologische beperkingen. Wat ik doe is content x1.8 tot x2, menu's e.d. x1.4.* Dat was altijd al mijn droom, enkel was kleiner dan 10px onleesbaar vanwege te weinig pixels en eigenlijk was kleiner dan 12px behalve met bitmap fonts sowieso al niet geweldig om dezelfde reden. Maar met 16px op dezelfde grootte als 8px gecombineerd met betere leesbaarheid dan 12px is dat alles opeens geen probleem. Op mijn 24" vind ik 16:9 niet storend meer, terwijl ik dat in het verleden wel altijd zo heb ervaren. Op een 15" zal het natuurlijk nog steeds storend zijn i.v.m. 16:10 of 4:3.

* In de praktijk betekent dat dat ik mijn DPI op 130 heb gezet en verder per applicatie nog wat aanpassingen heb gedaan; zie voor tips bv. de Arch Wiki.

Edit: typo.

[Reactie gewijzigd door Frenziefrenz op 17 november 2015 18:32]

Kudo's voor je uitleg!
Dacht zelf dat je het wel zou redden met 970 GTX aangezien het geen 27 inch monitor is maar bedankt voor de info.
Pixels is iets anders dan inches ;)
Een 27inch 900p monitor is minder zwaar dan deze :P
Geloof mij , met een gtx 970 ga je niet lekker (boven de 40 fps) op 4k kunnen game. Tenzij je lichte game's speelt zoals mmo's of oudere goed geoptimaliseerde game's enz.
En het gaat enkel om de resolutie ( het totaal aantal pixels die door je kaart aangestuurd moeten worden ) en niet om het aantal inch ;)
als op ultra wilt game nau dan moet je aardig wat voor over hebben. met 2 x een r9 390 zou het misschien nog enigszins betaalbaar / haalbaar kunnen zijn. ( 2x een gtx 980 kan natuurlijk ook maar dan moet je er wel echt wat voor overhebben)
Ik zou voor nu naar een leuke 1440p monitor kijken, dat is met 1 gpu nog wel te doen. :)


ontopic

Dit scherm heeft helaas geen Freesync, wat ik wel jammer vind aangezien het er zo goed als standaard ( met wat frimware aanpassingen ) in had kunnen zitten wanneer ze een display port versie 1.2a hadden genomen.
nu kun je beter voor deze , vergelijkbare monitor gaan : http://tweakers.net/price...lver-zwart/specificaties/

[Reactie gewijzigd door holhuizen op 17 november 2015 18:30]

Lijkt me heel tof, vooral voor gaming.
Als je een sterke GPU hebt + die monitor zou dit zou mooi zijn in sommige games.

Bijvoorbeeld bij the Witcher 3, ja je hebt wat meer power nodig maar damn ik zie het nu al gebeuren.
Misschien toch maar is kijken of ik er eentje kan aanschaffen, vind ze alleen nog een beetje prijzig. :p
Dit zal in de toekomst gewoon standaard worden, kijk maar naar Full HD en HD ready van een paar jaar terug en die van nu. Ben benieuwd hoe dat zich gaan ontwikkelen. :D
Das inderdaad waar ja, daarom wacht ik nog wel even..
Vind het heel leuk maar mijn 1080p monitor laat ook alles nog prima zien. :d
Klopt!
De meeste games zijn ook alleen geoptimaliseerd voor 1080p en moet je toch echt een zwaardere GPU hebben om het met 30-60 fps te kunnen draaien.
Dus om nu al een 4k scherm te nemen terwijl de markt niet heel groot is ervoor ... tja.
Maar het staat ook op mijn wishlist :p Afwachten maar.
Als ik de monitor zal halen welke videokaart zou ik moeten hebben om alle games in ultra te spelen?
Minmaal een GTX 980. Ultra op 4k is wel extreem hoor :X
Nou, als je 4K wil kan zelfs een 980Ti dat nauwelijks bijbenen op ultra, dus doe maar een 980Ti SLI setje...
Een 24" monitor met 4K is zeker 500 waard. Eens je gewoon bent aan een scherper beeld wil je nooit meer terug!
Exact, ik edit soms mijn beelden bij anderen die een 5K scherm hebben, en na 8 uur gewerkt te hebben merk ik dat het wel rustiger is voor mijn ogen.

Als ik na een sessie op die DPI terug ga naar mijn eigen 1920x1200 24" stoor ik me best wel aan mijn scherm. Zie het als van een high end telefoon ineens een cheap modelletje in je handen te hebben. Ineens merk je dat pixels zien helemaal niet fijn is.
Momenteel vind ik een beeldscherm met UHD resolutie geen 500 waard. Het ziet er wel veel strakker uit. tv's zijn al aardig gedaald in prijzen, hopelijk worden dit soort producten binnenkort ook goedkoper.
Prima stap voorwaarts, maar alleen jammer dat schermen nog steeds 8 bits per pixel / kanaal weergeven. Foto's (RAW / TIFF dan) hebben 14-16 bits. Daar kun je nog veel meer voordeel uit halen.
Verdubbeling resolutie == 4* zoveel pixels per oppervlakte, met 2 bits extra heb je hetzelfde effect. En zeker met 6 bits(14-8) extra.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True