Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door

Nieuwsredacteur

Monitor-innovatie op CES 2018

5k-ultrawide, hdr, oled en BFGD's

Asus Bezel-Free Kit

Een van de interessantste producten als het gaat om beeldschermen op deze CES is ook een erg eenvoudig product. Asus demonstreert een Bezel-Free Kit, een setje van accessoires waarmee je de randen van een opstelling van meerdere monitoren kunt verbergen. Het werkt met dunne platte lenzen, die over de schermranden worden geplaatst. Volgens Asus wordt er gebruikgemaakt van optische microstructuren die het licht zo buigen dat de bezels niet meer zichtbaar zijn. De fabrikant zegt samengewerkt te hebben met een van zijn backlight-leveranciers, een specialist in optische materialen.

In de praktijk blijkt de kit verrassend goed te werken. Het is niet helemaal naadloos en het beeld loopt niet perfect over, maar toch ogen de drie schermen met de 'bezelverbergers' veel meer als een geheel. De lenzen zijn gemaakt van acrylaat en laten volgens Asus negentig procent van het licht door. In de praktijk is wel duidelijk te zien dat het stuk waar de lenzen zich bevinden donkerder is dan de rest van het scherm. Toch is dat minder storend dan een daadwerkelijke schermrand in het beeld. Volgens Asus zouden de lenzen te fragiel worden als ze zo gemaakt worden dat ze meer licht doorlaten.

De bezelverbergers werken alleen als je drie monitoren opstelt met de buitenste twee in een hoek van 130 graden. Ook moeten de monitoren een bepaald formaat hebben, de accessories zijn niet te verstellen. Asus zegt dat de versie die getoond wordt op de CES past op de ROG Swift PG258Q en Strix XG258Q, maar ook op andere monitoren. Waarschijnlijk werkt het op schermen die vergelijkbare afmetingen en schermranden hebben. De demo-opstelling bestaat uit drie PG258Q-schermen, dat zijn 25"-monitoren.

Asus heeft nog geen concrete plannen om de Bezel-Free Kit uit te brengen. De set getoond zoals op de CES is een prototype en Asus wil eerst reacties aanhoren. Wat een dergelijk setje zou kosten, is niet bekend. Het product lijkt echter vrij eenvoudig om te maken en de productiekosten zullen waarschijnlijk niet erg hoog zijn.

Reacties (112)

Wijzig sortering
Een 65" monitor met een kijkafstand van nog geen halve meter. Dat gaat pijn aan je nek doen. Dat is hetzelfde als helemaal vooraan zitten in de bioscoop. Natuurlijk een goede ontwikkeling. Ik denk dat sweetspot rond de 35-45" zal zijn?
65" op een halve meter is inderdaad wel heel groot, maar het zou me niet verbazen als de gaming industrie ook de 100° horizontale beeldhoek op wil gaan die de Rec. 2020 standaard specificeert voor 8K en daar zit dit toch niet zo heel ver vanaf. Met 65" kom je dan op een kijkafstand van 60 cm uit:

65 ∙ 16 / √(162 + 92) ∙ 2,54 / 2 / tan(100° / 2) = 60,4 cm

De games moeten daar natuurlijk wel op worden aangepast, net zoals dat voor films geldt die met zo'n brede beeldhoek bekeken worden. Belangrijke informatie moet dan echt in de middelste 50% van de hoogte en breedte worden weergegeven. De buitenste 25% rondom is dan echt voor de zogenaamde immersive viewing experience.

Een curved scherm is overigens wel vrijwel noodzakelijk met zo'n beeldhoek, want anders kijk je onder een hoek van 50° naar de randen van het scherm (in het midden van de hoogte, in de hoeken nog scherper). Onder die hoek neemt zelfs met VA en IPS beeldschermtechnologieėn de helderheid al met meer dan de helft af. Met IPS resulteert dat ook nog eens in een dramatisch contrast, want door IPS glow worden donkere kleuren onder een hoek juist veel helderder. Het contrast zou dan onder die hoek minder dan kwart van het contrast recht van voren kunnen zijn.

Bijkomend voordeel van de curve is dat je dan verder van het scherm af kan zitten (midden) om tot dezelfde horizontale beeldhoek te komen (omdat de randen van het scherm verder naar voren uitsteken dan het midden). De scherpste curvestandaard die er nu is, is een curveradius van 1800 mm. Voor een horizontale beeldhoek van 100° zou je met een 65" scherm dan op een afstand van 73 cm van het midden moeten zitten. Je kijkt dan nog maar onder een hoek van 27° naar de zijranden van het scherm i.p.v. de 50° die je met een plat scherm zou hebben voor een horizontale beeldhoek van 100°.
Voor mij is sweetspot maxima 30-35" op een halve meter. Zit 1 meter van een 40" en was eerst al wennen voor mijn ogen voordat ik terug lange speelsessies aankon.
Nou dat zal je nog verbazen: De kijkhoek in de meeste games zit rond de 90 graden. Als dus bij een scherm het optimale perspectief wilt hebben, moet de afstand tussen jou en de tv dus de helft zijn van de breedte van de tv.

Dus als je een halve meter van je scherm af zit, heb je optimaal perspectief bij een scherm van 1 meter breed, wat neerkomt op tussen de 49 en 50inch diagonaal.

Ik snap dat "pijn in je nek"-praat ook niet.. dat heb jij bij VR toch ook niet? Waarom zou je niet een beetje rond mogen kijken in een game.

[Reactie gewijzigd door paltenburg op 11 januari 2018 11:42]

Ik zeg toch nergens pijn in de nek. Ik zeg vermoeidheid/hoofdpijn bij lange gamesessies. Maar kan ook aan mij liggen want 3D in de cinema is voor mij ook lastig zeker bij films zoals Transformers en Avatar.
Nee ik bedoelde ook meer in z'n algemeenheid, deze keer in het bijzonder van Munitqua.

En: Oke, ja he? Ik had nog niet gehoord van het verband tussen grote schermen en last bij lange gamesessies. Mja goed idd, iedereen moet natuurlijk doen wat voor hem/haar het meest comfortabel is.
Het lijkt me dat dat puur een beperking van de demonstratie ruimte daar is, zo'n ding zet je natuurlijk gewoon op de plek van de tv neer.
Ik denk echter dat je wel heel erg committed op pc gaming met Nvidia moet zijn om voor zo'n big fucking gaming display (;)) te gaan. Ze zijn erg cool, maar bij gewone monitoren is het al een flinke investering voor iets dat alleen optimaal werkt met Nvidia. Bovendien denk ik dat veel mensen de tv tuner toch gaan missen, dan zit je dus vast aan een externe decoder of je moet via de web versie kijken of zo als je toch nog regulier tv wil kijken (voor mij geen punt maar veel mensen willen de zenders toch nog wel).
"Ik denk echter dat je wel heel erg committed op pc gaming met Nvidia moet zijn om voor zo'n big fucking gaming display (;)) te gaan."

Ik vind het wel iets zoals uit een Black Mirror aflevering: Stel je voor, je hebt je buro, en vanaf de achterkant van je buraublad, over de hele breedte, rijst een scherm omhoog tegen de muur aan, als een venster in de muur naar de game-wereld.
Nou, ik moet zeggen dat ik daar al een tijdje op zit te wachten. Niet voor op het bureau, maar om de TV in de huiskamer te vervangen. Een zelf gebouwde HTPC/Steambox en de audio receiver er aan hangen en gamen/streamen maar.
Functies als televisie ontvanger, smart tv en audio zijn van de huidige televisie behoorlijk overbodig. En als die opties er niet op zitten, zijn ze volgens mij verplicht om het een monitor te noemen (in plaats van een televisie).
Eigenschappen van een gaming monitor, zijn daarentegen van harte welkom in de huiskamer.
De demo-opstelling van Asus was wat krap inderdaad, maar dat zal komen door de kleine ruimte die ze hadden. Met het scherm recht voor je neus gamen is niet echt comfortabel. Het is ook meer bedoeld als tv voor fanatieke gamers lijkt mij. Al zet Nvidia hem ook op een bureau in pr-foto's.
Hier zit ik (gelukkig) niet op te wachten maar wat ik zo teleurstellend vind (aan ces?) is dat ik nog steeds zit te wachten op de monitors van ces 2017 die ik wel interessant vind.....

(voorbeeld pricewatch: Asus ROG Swift PG27UQ Zwart en https://rog.asus.com/arti...s-latest-gaming-monitors/)
Die panelen moeten dit jaar in monitoren verschijnen. Ik was enthousiast over die panelen, maar ik begin toch te twijfelen of het niet beter is om te wachten op een OLED of MicroLED monitor. Mijn reden van twijfel is de prijs, maar ook dat ik er niet zeker van ben of de FALD opstelling afdoende fijnmazig is (i.e. dat de dichtheid van de LEDjes hoog genoeg is in relatie tot kijkafstand). Als de blooming op die monitoren net ze erg is als bijvoorbeeld hier weergegeven, dat is het overwegen waard om in de tussentijd voor een edge-lit monitor te gaan, en geduld te hebben voor OLED of MicroLED monitor. Dit is allemaal speculatief en hoe ik er over denk. Hopelijk heb ik het mis en zijn die FALD monitoren gewoon fantastisch.
Mijn reden van twijfel is de prijs...
Want een OLED of mOLED paneel zal goedkoop zijn?
Dat ik aan de prijs twijfel heeft betrekking op of het product zijn geld waard is; niet dat ik claim dat OLED of MicroLED goedkoper zal zijn.

Maar nu je er toch over begint: ja, ik denk dat in ieder geval OLED heel snel goedkoop kan worden... tenminste goedkoper dan FALD. Natuurlijk niet direct op launch, maar wel redelijk snel. Zodra alle OLED fabrikanten over zijn op productie via inkjet printing, dan wint OLED het op prijs no contest.
Zit in dezelfde boot. Ik zit ivm het uitstel van die schermen nog steeds op 2 1080 60hz panelen. Nogal frustrerend dat ik mijn 1080 TI niet maximaal kan benutten op het moment.
Meh, ik zit nog steeds op 2x 1680x1050 schermen met de kleur echtheid van een Milka koe.

Die monitoren wereld blijft maar in beweging. Ik wil goede HDR support en het liefst ultrawide met hoge resolutie waar je ook nog een beetje op kunt gamen. (Liefst G-Sync) Als het even kan met USB-C aansluitingen om op de toekomst voorbereid te zijn. Dan heb je voor content weer HDCP 2.2 nodig. Voor de hoge res DP1.4 of HDMI 2.1. En tegen de tijd dat er een goede optie is, komen er weer een paar eisen bij op m'n lijstje.

Wel lekker goedkoop zo...
Tja, wachten op de ideale oplossing die de komende 10 jaar niet vervangen hoeft te worden heeft denkelijk weinig zin... kijk liever wat je van je eisen echt nodig hebt en wat eerder in de "nice te have" categorie valt.
persoonlijk - maar daar zit ik hier op het verkeerde forum, zou ik eerder niet voro "latest en greatest" gaan maar heel geod kijken wat ik voor "een redelijk hoeveelheid centen" kan krijgen en daarmee doorgaan tot kapot of tot het verschil echt groot genoeg is. Bij jou "Milka" monitoren lijkt me dat het geval...
Snap je frustratie, maar over een luxe probleem gesproken :P
Consumerisme op zijn top... Chapeau! 8)7 e
Als die er komt, dan gaat ie zeker meer dan 1000euro kosten. Een 27" IPS paneel met een resolutie van 2560x1440 met G-Sync op 144Hz. kost nu ook al rond de 700 a 800euro. Ik heb vorig jaar toch maar ene gekocht met deze specs (Acer Predator) want ik kon niet langer wachten met 1080p monitor en een GTX1070 wil je ook meer dan die 1080p. Helemaal vanaf 27" en hogere beeldformaten.
Grappig dat je aangeeft meer te willen dan 1080p met een GTX 1070. Ik heb juist een GTX 1080 en daarbij een 144hz 2560x1080 scherm gekocht. Dat gezegd te hebben: ik vind het halen van die 144hz belangrijker dan een haarscherp beeld.
En opvolgend eens een test hoe een aantal videokaarten presteren als je van normaal naar ultrawide gaat.

Schalen de prestaties rechtevenredig met de toename in het aantal beeldpunten of kunnen die kaarten daar minder goed mee overweg?
Er zijn best veel benchmarks die het verschil laten zien in fps tussen 1080p, 1440p en 4k.
http://www.legitreviews.c...ozen-video-cards_187267/3

Stabiel 60 fps halen met 4K vergt serieus veel GPU prestatie. Op dit moment heb je een GTX1080 of beter nodig.
Bij mij heerst de vraag of beeldverhouding ook een bottleneck kan zijn of dat het puur alleen pixels tellen is als je grafische rekenkracht moet verdelen?

Vaak staat bij videokaarten een maximale resolutie bijv. 3840 x 2160 pixels. Tegenwoordig vaak al veel hoger, maar ok.

Een 1440p scherm heeft 2560x1440 = 3,83k pixels
Bij een theoretische resolutie van 3840x1080 'ultrawide' (2xFHD) = 4,14k pixels (ca. 7% meer)

Krijg ik bij deze 'ultrawide' beeldverhouding dan ook ca. 7% minder frames? Of omdat ik in het dit geval het complete horizontale bereik van de kaart gebruik gaat deze dan in een soort van "3840x2160 pixels modus" en wordt de halve rekencapaciteit capaciteit weggegooid/niet gebruikt? Zodat het aantal frames wel 40% zakt ...

Is zoiets al eens getest ergens?

[Reactie gewijzigd door BenVenNL op 11 januari 2018 10:37]

Render technisch maakt dit helemaal niets uit. Je mag er dus redelijk vanuit gaan dat de performance gelijk blijft met het aantal pixels ongeacht de aspect ratio.

Enige heel kleine factor die uit zou kunnen maken is als er grote verschillen in complexiteit tussen verschillende delen van het beeld zitten. In bijvoorbeeld een race spel krijg je met een vierkantere aspect ratio vooral lucht en plat asfalt boven en onder er extra bij. Met een bredere aspect ratio krijg je daarentegen mogelijk meer concurrenten en track details langs de baan in beeld die wat complexer kunnen zijn qua shaders etc. In dat geval zou er een meetbaar verschil kunnen zijn. Maar dit is dus super applicatie afhankelijk en waarschijnlijk is de invloed zelfs in zo'n extreem geval miniem.
Render technisch maakt dit helemaal niets uit.
Is dat zo?
FoV gaat omhoog, er moet dus meer gerenderd worden..
Het aantal pixels is inderdaad belangrijk maar het is niet het enige.
Kanttekening dat meestal een high of ultra preset wordt gekozen voor die 60fps 4k test. Terwijl je realworld best dingen uit kan zetten of lager zetten omdat het vanwege de resolutie er toch beter uitziet dan qHD of full HD.
Schaalt perfect naar verwachtingen. Het enige waar je op moet letten, zoals bij alle resolutieveranderingen, is dat de instellingen van je applicatie niet tegen de max van je GPU geheugen zitten. (bvb 4K textures op een 2GB GPU).
Veel ultra wide tests zijn er niet. Zo'n beetje alle tests zijn 1080p, 1440p of 4K allemaal in 16:9.

Zelf heb ik een Asus X34A. Dat is een 21:9 (3440x1440x100Hz) en dat lijkt keurig tussen 4K en 1440p in te zitten qua prestaties. Maar veel benchmarks vind je niet voor die resolutie.

Uit eigen ervaring met iets overgeclockte 1080ti op ~1950MHz/11,9GHz:
Titanfall 2: 100fps stabiel;
Doom: 100fps stabiel;
Witcher 3: (geen hairworks): ~100fps, met zo nu en dan een dip naar 90fps.

Op een 4K scherm had je die framerates niet gehaald, dus voor dit moment een mooie sweet spot qua resolutie.
Die Big F*cking Giant Displays, ga je die echt op je bureau zetten? Voor feauteuil-gamers zoals ik met een PS4 of XBOX snap ik hem nog wel, maar zij adverteren hem met een PC eraan vast. Ik ben al een tijdje geen PC-gamer meer, maar kan iemand mij hiervan de use case uitleggen? (geen cynisme, oprecht benieuwd)
Is inderdaad echt gigantisch groot om voor je snufferd te zetten.

Mijn vader werkt op kantoor op een 40" UHD scherm, ook een halve meter afstand, ik kan het niet.. heb zelf nu 28" UHD en ik merk nu al dat ik meestal al me vensters in het midden van het scherm sleep zodat ik minder op en neer hoef te kijken..
Je moet ook niet proberen het hele scherm in een keer te overzien. Dat doe je ook niet met papieren die je op je bureau legt: ik heb een groot bureau, dus ik print alles op A0 ;). Software als Aquasnap of Winsplit Revolution kan hierbij helpen.
Zelf heb ik ook een 40" 4k, en verdeel die effectief in twee delen. Zie het als een dual full HD opstelling met extra werkhoogte.
Ik denk niet dat dit bedoelt is om lekker achter je bureau mee te gamen, tenminste met een afstand van gemiddelt 50 a 60cm is dit bijna niet te doen op dat soort formaten. Ik snap het nut van zulke grote displays ook niet helemaal, voor console gaming is het misschien leuk, maar het is meer een niche product.

De prijs zal er ook wel naar zijn, gezien je op dit moment nog aardig diep in de buidel moet tasten wil je een 4k scherm met een hoge refresh rate. Afgelopen jaren waren niet heel interessant voor de monitor markt, laten we hopen dat het wat sneller gaat ook met de HDR standaard die nu opgezet is verwacht ik wel dat beeldscherm en tv fabrikanten snel gaan inspringen.
Die beeldschermen zijn bedoeld voor pc gamers die in bijvoorbeeld de woonkamer vanaf de bank willen gamen. Een normale TV heeft een enorme latency. Dat betekent dat het heel erg lang duurt vanaf het moment dat je bijvoorbeeld je muis beweegt en dat je het ook op de TV ziet. Die nieuwe schermen hebben die enorme vertraging niet. Die BFGD schermen zijn dus bedoeld als een vervanger van een TV. Ze hebben ook een nividea shield ingebouwd, wat een android tv en chromecast meebrengt.
Ik vind die Big Fat Gaming Displays erg interessant. De reden dat het getoonde model op de CES relatief dik is komt door het FALD backlightsysteem. Dat geeft hoop op een meer dan redelijke HDR weergave en als de implementatie juist is, kan dit ook voor het weergeven van films erg positief uitpakken. Hopelijk komen we snel te weten hoeveel zones er toegepast worden voor local dimming en natuurlijk welke prijskaartjes eraan komen te hangen. Die zullen niet te hoog moeten zijn om concurrerend te zijn ten aanzien van reguliere TV's. 65" TV's van Sony met een FALD backlightsysteem kosten respectievelijk ¤ 1899,- voor de 65XE85xx, ¤ 2299,- voor de 65XE9005, ¤ 2999 voor de 65XE9305 en ¤ 3999,- voor de 65ZD9 (adviesprijzen).
De meeste winkels zitten inmiddels al behoorlijk ver onder de adviesprijzen. Het is nu al mogelijk om een 75xe9005 voor minder dan de adviesprijs van een 65xe9005 te kopen. Dus die gaming schermen moeten spotgoedkoop worden wilt er iemand intrappen.
erin trappen als in? monitor zijn over het algemeen al een stuk duurder dan een tv als je naar formaat kijkt. De voordelen van een low lantency tv/monitor met eindelijk een goed stukje aansturing (ipv al die brakke socs in TV's) zijn voor mij al redenen om dit eerder te kopen dan een vergelijkbare formaat TV.
Ok eerlijk is eerlijk is zou wss eerder een microLED of OLED tv kopen, maar voor onder de 3000 euro introductie prijs kan dit nog wel eens een succes worden denk ik (wat ik dan niet verwacht).
Als die een LG OLED panel gebruikte dan was het een leuke competitor geweest voor monitor en de tv markt.
Dan krijg je weer het probleem met latency (als je pech hebt) en daarnaast burn-in. Wellicht dat burn in metTV kijken niet zo'n probleem is, maar ondanks dat ik altijd positief ben over OLED vrees ik wel voor statische delen als je windows op en OLED draait.
Ik zie geen probleem in latency. Latency kunnen ze net zo laag brengen als VA/IPS. Staat los van de techniek. Daarnaast is OLED respone times gewoon lager. En heb je dus ook geen last van ghosting.

Toch ondanks kans op burn in, zou het ideaal zijn. Want het is toch een gaming display? Dus als je er alleen op gamet of tv kijkt of als een mediaplayer gebruikt dan is de kans erg laag.

Het scherm lijkt me ook veel te groot om als dagelijkse monitor te gebruiken.
Ik zie ook zeer zeker wel mogelijkheden voor OLED als monitor, maar ik merk toch wel op dat ik ook vaak gewoon aan het browsen ben en dan zou het toch naar zijn als zo'n taakbalk ineens zichtbaar blijft tijdens een potje CS:GO
Erin trappen als een "figure of speech". Als ik je eigen reactie lees denk je er ondanks dat je jezelf een paar keer tegenspreekt hetzelfde over😂 . Is ook niet erg want zoals jij erover denkt, denkt waarschijnlijk het merendeel vd consumenten erover. Als die game tv's inderdaad de prijstrend van monitoren gaan volgen dan prijzen ze zichzelf uit de markt ondanks hun betere kwaliteiten als gamemonitor. Mochten ze op het prijsniveau gaan zitten van same size tv's zou het weleens wat kunnen worden overigens.
Ik reageerde vooral omdat je zei gaming schermen moet spot goedkoop worden wil iemand erin trappen.
het woordje spotgoedkoop is daarin natuurlijk interpretatie. Zelfs als het ietsjes meer zou kosten dan een vergelijkbare 65" TV zou ik er nog over nadenken.

Maar we zijn het erover eens merk ik. De prijs gaat t em doen en die mag niet substantieel hoger zijn dan een 'vergelijkbaar' model smart( :X :X ) TV.
65" TV's van Sony met een FALD backlightsysteem
Doen die ook 120fps en g-sync met lage latency?

Waarom adviesprijzen noemen als echte prijzen gewoon beschikbaar zijn?

[Reactie gewijzigd door Olaf van der Spek op 11 januari 2018 08:56]

Ik noem bewust adviesprijzen omdat de winkelprijzen per dag verschillen, het per land afhankelijk is en de fabrikanten niet zoveel te maken hebben met winkelprijzen, tenzij ze contracten afsluiten met retailers. De basis is altijd een adviesprijs en meestal de prijs die bij de introductie van nieuwe modellen gehanteerd wordt. De BFGD's moeten nog en komen en de genoemde TV's zijn alweer ruim een half jaar op de markt (de ZD9 zelfs anderhalf jaar). Het is dan niet reėel om winkelprijzen met (nog aan te kondige) introductieprijzen te gaan vergelijken. Ook deze monitoren zullen in prijs gaan zakken naar verloop van tijd en daarom bepaal je de concurrerende positie in de markt aan de hand van de adviesprijzen.
Ik heb mijn 27" 60hz 1440p Dell al sinds 2011 volgens mij, en die voldoet nog altijd prima voor kantoorwerk en games. Overgaan naar een nieuwe monitor heeft aardig wat harde eisen voor mij:

- Precies 1440p (ik wil geen 4k, teveel pixels, ik zie ze nu al niet)
- 27" en niet groter of kleiner
- OLED of soortgelijks: zwartwaardes met goede kleuren
- Minimaal 144hz refresh rate
- In hoogte verstelbaar

De monitor die ik heb doet het al sinds 2011 erg goed in een toentertijd erg luxe PC met een i7 CPU, 8GB RAM, en ik heb in de loop der jaren enkel een SSD toegevoegd en een GTX 970. Daar kom ik ruim mee uit de voeten.

Ik heb een erg ruim budget om mijn PC al sinds 2016 te upgrade (eens in de 5 jaar een nieuw systeem past binnen het budget) maar er is gewoon geen enkele reden om dat te doen...

De markt lijkt wel stil te staan. Zeker op het gebied van PC monitoren.

[Reactie gewijzigd door Blue-eagle op 11 januari 2018 09:38]

Lijkt stil te staan sinds 2011? Heb je het artikel wel gelezen?

Formaat Verhouding Resolutie Pixeldichtheid Verkrijgbaar sinds
34" 21:9 3440x1440 pixels 110ppi 2014
27" 16:9 2560x1440 pixels 109ppi 2009
37,5" 21:9 3840x1600 pixels 111ppi 2016
34" 21:9 5120x2160 pixels 163ppi 2018
27" 16:9 3840x2160 pixels 163ppi 2014

En als het problem is dat je geen hogere dpi wilt is 34" ultrawide een optie aangezien dit precies een 27" 1440p monitor is maar dan breder.
Ja ik heb het artikel gelezen. Ik geef aan dat ik sinds 2011 al een goede monitor heb die nauwelijks of niet onder doet voor de modernere varianten. Een upgrade zou voor mij enkel betekenen dat ik ¤700 tot ¤800 euro kwijt ben voor een upgrade naar 144hz. Da's veel geld voor weinig vernieuwing. Ik had gehoopt dat OLED al minimaal een jaar voor PC monitors beschikbaar zou zijn, of op z'n minst toch wel innovaties op het gebied van veel meer backlight zones.
- OLED of soortgelijks: zwartwaardes met goede kleuren
- Minimaal 144hz refresh rate
OLED blijft gewoon lastig..
Meer dan 60 Hz en free-sync had ik wel wat eerder verwacht.
De markt lijkt wel stil te staan. Zeker op het gebied van PC monitoren.
Hoe lang hebben we wel niet met CRTs gedaan?
Het schalen van applicaties binnen Windows zorgt nogal eens voor aparte constructies. Ook binnen Windows zelf zie ik nog wel eens dat niet alles helemaal er mooi uit ziet met schaling
Schalen werkt klote op Windows. Zelfs als Windows zelf alles goed zou doen is de kans nog groot dat je favoriete applicaties niet goed schalen. Want in tegenstelling tot macOS zijn applicaties zelf verantwoordelijk voor het schalen.
En exact vanwege scaling issues blijven mijn monitoren voor productiviteit tussen de 91.79 en de 108.79 DPI. Wel irritant dat er redelijk weinig echt goede monitoren zijn met dergelijke DPI die ook een 120 of meer refresh rate hebben. Ik had gehoopt dat de TV markt HDMI 2.1 dit jaar zou kunnen integreren om UHD bij 120Hz te kunnen bieden voor een ~48 (91.79 DPI) TV, maar dat wordt dus 2019 (hopelijk).
En voor gaming is in mijn optiek het verstandigst om daar simpelweg een dedicated high DPI monitor voor te kopen. Prijzig, maar ik zou ook willen dat het anders was.
En voor gaming
Voor gaming is framerate (IMO) belangrijker, dus kun je beter gaan voor 1080p of 1440p, eventueel op 120, 144 of meer fps.

Een 1080 Ti heeft ook gewoon moeite met 2160p.

[Reactie gewijzigd door Olaf van der Spek op 11 januari 2018 08:49]

Dat zal liggen aan die paar extra zware games in de meeste gevallen heeft de GTX 1080 Ti geen moeite op 4k, niet kijkende naar games als AC Origins of GRWL. De sterkte kaart had eerder altijd moete in sommige games op 1080p of 1440p, dit is nu verschoven naar 4k.
Schalen werkt klote op Windows. Zelfs als Windows zelf alles goed zou doen is de kans nog groot dat je favoriete applicaties niet goed schalen. Want in tegenstelling tot macOS zijn applicaties zelf verantwoordelijk voor het schalen.
Metro apps hoeven zelf niet te scalen maar zolang iedereen met Win32 blijft aanmodderen blijft scaling inderdaad een pijnpuntje op de Windows desktop.
Metro is ook een stuk beperkter.. waarom zou iedereen al zijn apps volledig gaan herschrijven (naar Metro)?
Waar blijven toch betaalbare (< 600 euro) 32"4k ips schermen. Of ze zijn duur of het zijn VA panels.
Liever VA dan IPS of TN als het gaat om gaming. Ik had altijd IPS maar VA bied nu een veel breder kleurenruimte en betere zwartwaarden en een veel hoger contrast. IPS ziet er in eens erg muf en levenloos uit wat wel weer ideaal is voor rauwe foto's
Dat is de eerste keer dat ik hoor dat VA beter zou zijn dan IPS als het om kleuren gaat
Niet beter qua natuurlijke kleurweergave maar wel een hoger kleurenbereik iets wat meer toevoegt voor games.
natuurlijke kleurweergave is toch een kwestie van calibratie, en goeie calibratie is toch makkelijker bij schermen met een hoger kleurbereik?
5k ultrawide.. :O, Nvidea 65" monitor... :O ...

Bezel-Free Kit..geniaal _/-\o_
Ieder zn meug. 5k ultrawide zie ik wel zitten ipv de twee losse 1440p schermen die ik nu gebruik.

Bezel-free kit is wel een leuke echt nieuwe vondst.

[Reactie gewijzigd door Vizzie op 12 januari 2018 06:47]

Natuurlijk maar het is zoals al het ander gewoon onbetaalbaar, ik heb nooit bij stil gestaan dat dit mogelijk is. Alleen jammer dat het zo laat word uitgevonden. Maar voor op het werk wil ik dit best kopen, daar hebben zo nog twee 21 inch schermen
Over die thunderbolt aansluitingen: waarom dan niet gelijk USB-C? Of werkt dat weer anders? (Ik denk aan Mn MacBook pro die USB-c heeft i.p.v. Thunderbolt O-) )
Uw MacBook pro heeft echter wel thunderbolt, en gebruikt daarvoor dezelfde USB-c connector
(Er is in het artikel zelfs een foto met een USB-c connectie met het onderschrift “thunderbolt 3 connectie”)

Thunderbolt 2 gebruikt mini-DisplayPort connector.
Thunderbolt 3 gebruikt USB-c connector.
Het spijtige daaraan is dat niet alle USB-c connectoren thunderbolt 3 hebben. Daardoor wordt het heel verwarrend voor de gebruikers (zoals u, nu) wat hun toestel nu wel of niet heeft...

[Reactie gewijzigd door efari op 11 januari 2018 08:52]

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*