Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 116 reacties

MMD heeft bekendgemaakt dat de Philips 275P4VYKEB, een 27"-monitor met resolutie van 5120x2880 pixels, vanaf april verkrijgbaar is voor een adviesprijs van 1599 euro. De 5k-monitor werd al in september 2015 aangekondigd.

De Philips-monitor beschikt over een pls-lcd-paneel dat door Samsung wordt gemaakt. Net als de andere 5k-monitoren die momenteel op de markt zijn, moeten er twee displayport-aansluitingen gebruikt worden om de resolutie van 5120x2880 pixels aan te sturen. De bandbreedte van displayport 1.2 is niet voldoende voor het weergeven van 14,7 miljoen pixels.

Het scherm kan volgens de specificaties 99 procent van de Adobe-rgb-kleurruimte weergeven en doet dat met 10bits-kleurweergave. De maximale helderheid bedraagt 300cd/m² en de contrastverhouding is 1000:1. De monitor is in hoogte verstelbaar en kan in de portretstand gekanteld worden.

Philips 27"-monitor met 5k-resolutiePhilips 27"-monitor met 5k-resolutiePhilips 27"-monitor met 5k-resolutie

Apple gebruikte eind 2014 voor het eerst een 27"-paneel met 5k-resolutie in de iMac. Dell heeft sinds begin 2015 de UP2715K in het assortiment en HP levert sinds maart dat jaar de Z27q. In alle gevallen gaat het om 27"-monitoren.

Later dit jaar worden de eerste videokaarten met displayport 1.3 verwacht en het is ook de verwachting dat er dan monitoren zullen verschijnen die deze snellere standaard ondersteunen. De nieuwe displayport-versie maakt onder andere het aansturen van een 5k-monitor over één kabel mogelijk.

Moderatie-faq Wijzig weergave

Reacties (116)

Met Thunderbolt 3 is het dus ook nog steeds niet mogelijk om een 5K scherm aan te sturen? De bandbreedte lijkt me toch meer dan voldoende? Ik zou graag naar een 27" 5K scherm gaan, vanwege de extra scherpte. Ik wil het alleen wel op een laptop kunnen aansluiten, omdat ik die ook wel eens mee wil nemen. Een Precision 5510 leek me een goede keuze, maar als die geen 5K kan aansturen dan zie ik de meerwaarde er voorlopig nog niet van in.

EDIT: Blijkbaar is het erg lastig te snappen dat het hier om een externe monitor gaat. Daarom maar even verduidelijkt...

[Reactie gewijzigd door BugBoy op 30 maart 2016 10:04]

Thunderbolt zit nog steeds vast aan de maximale DisplayPort specificatie. Onderhuids is de video namelijk nog steeds gewoon DisplayPort 1.2 momenteel.
Ik zou graag naar een 27" 5K scherm gaan, vanwege de extra scherpte. Ik wil het alleen wel in een laptop formaat hebben
Een 27" scherm in een laptop!? 8)7
Dat word een partij sjouwen dan...

[Reactie gewijzigd door jozuf op 30 maart 2016 09:32]

Jij verdraait de zin helemaal; hij wilt het scherm kunnen aansluiten op een laptop, niet in een laptop.
Nadat hij het aangepast heeft wel ja...
Dit was een letterlijke copy paste...
Had ik niet door. 8)7
Een gemiste kans om eindelijk eens te beginnen met displayport 1.3 vind ik. Met 2 kabels moeten werken is een beetje zonde als je weet dat displayport 1.3 voldoende bandbreedte heeft om het over 1 kabel te doen. Al helemaal als je weet dat deze standaard al vrijgegeven is in september 2014 en displayport 1.4 onlangs ook al gentroduceerd is.
Och, die kabels sluit je n keer aan en maak je 3 jaar later pas weer los als je je volgende monitor aanschaft.
Als je 'm wil gebruiken als desktop uitbreiding van een laptop maak je 'm echt wel vaker los...
Dan moet de laptop wel meerdere display ports hebben...
Retina MacBook pro heeft er 2 en kan in de versie met dedicated GPU ook 5k aansturen via 2 kabels. Maar echt handig is het niet qua portabiliteit.
Een monitor als deze is bedoelt voor serieus grafisch werk, de kans dat je dat op een laptop doet is niet groot genoeg om daar rekening mee te houden als monitor fabrikant.
Je wilt het juist voor de hoofdmoot makkelijk maken om de monitor aan te sluiten, zelfs als die aansluiting niet technisch gezien optimaal is.

Een dubbele displayport 1.2 verbinding kan zowel met bestaande systemen als met nieuwe systemen die 1.3/1.4 hebben gebruikt worden aangezien deze backwards compatible zijn en de meeste kaarten meerdere uitgangen hebben. En wie weet komt er wel een 1.3 naar dubbele 1.2 converter op de markt.
Leuke schermen, maar naar mijn idee is de hardware er nog niet helemaal klaar voor.
Desktop weergeven en in apps werken okay, maar op die resolutie programma's gebruiken die zowiezo al veel eisen van je gpu, zal je constant in de herrie zitten.
zal je constant in de herrie zitten.
Dat is een kwestie van de koeling op orde hebben..

Zie bijvoorbeeld http://www.silentpcreview.com/4K_Gaming_Build
4K of 5k is echter wel een enorm verschil in de hoeveelheid pixels. Het klinkt niet als een verdubbeling, maar dit is het bijna wel. 8.8 miljoen of 14.7 miljoen pixels is een enorm verschil. We hebben het hier over een factor 7 ten opzichte van FHD!!

Er is geen enkel GPU die hier echt fatsoenlijk mee om kan gaan.
Er bestaan ook andere zaken dan gamen hoor. Voor gewoon desktop werk, foto en of video editting zal de gemiddelde GPU echt zijn hand niet voor omdraaien.
Voor foto's bewerken zullen de meeste video kaarten prima kunnen doen.
Nee, je zou eerder video kaart geheugen tekort komen als je kaarten van minder dan 4GB zou gebruiken.

Voor video editing en 3d applicaties ligt dat weer heel anders.
Dan moeten de kaarten er flink tegenaan. Dan bespaar je heel wat kosten om op 4K of minder te werken.

Da's dan voornamelijk ook de reden waarom ik op 1920 * 1200 werk en een quadro kaart hebt.

Veel mensen zullen dat niet snappen, maar een lagere resolutie betekent dat je kaart minder verbruikt, zowel kracht als geheugen. Beiden kan ik beter inzetten op dat wat voor mij nodig is, voornamelijk 3d modellen en textures van 8K op mijn scherm toveren.

Samen met de quadro kaart, die vele betere anti alias heeft dan geforce en radeon kaarten in 3d pro apps kan ik meer doen op lagere resolutie en met mooi beeld werken, en met meer 3d modellen en textures werken.

Ik denk dat 5K schermen, gewoon een fase is.
films zijn 4K, de huidige generatie zijn volledig getest en ontworpen om 4K goed af te kunnen spelen.

Die zijn niet uitgetest door Nvidia en of AMD voor 5K.
Je moet voornamelijk kijken naar de prestaties van de kaart op die resolutie en ook het stroom verbruik.

Mijn gedachten hierover is, dat je voor zulk soort schermen beter kan wachten op kaarten met HBM2 geheugen, die waarschijnlijk dus ook energie zuiniger zijn dan de huidige generatie kaarten.

_____________________________________________________
Tuurlijk kun je zo'n scherm ook nu aanschaffen, maar om er 1 aan te schaffen, om alleen te kunnen zeggen : Kijk, ik heb een 5K scherm en dan continu in de herrie zitten met een fijne energie rekening aan het eind van het jaar.....

Tja dat is ieder zijn eigen keus.

Ooi eens 4K materiaal op een 4K of 5K scherm uit vergoot ?
Ziet er nogal blokkerig uit he ?

Niet alleen zijn de video kaarten niet voorberid op deze resoluties, maar ook de meeste foto camera's die tot 4K kunnen vastleggen.

Zo'n foto camera moet zekers tot 8K kunnen schieten, wil je hem op 5K uit kunnen vergroten en zien wat je doet.
Het gaat hem in veel gevallen om mensen die 4K materiaal produceren (reclame, films, editors,...) die het 4K materiaal native willen zien n er nog al hun menu's rond willen. Dan is 5K ideaal. Je heb ruimte om al je opties/menus/... rond je te bewerken materiaal te zien n het materiaal native 4K te zien. Dit is niet mogelijk met een scherm van 'gewoon' 4K.

Voor gamers is dit inderdaad nog een toekomst droom. Er zijn hoegenaamd nog geen GPU's uit dit voor alle games in UHD met ultra instellingen continue aan minimum van 60fps kan krijgen. Voor alle shooters toch wel een framerate die wenselijk is voor mij. Dus nog even wachten voor de gamers (toch in mijn geval RTS ed maakt niet echt veel uit dat het 'maar 30fps is')...
Klopt, had al ergens gezegd :
Dat deze schermen goed zijn om het eindresultaat te bekijken, maar zekers niet om op te werken.
Olaf komt echter wel aan met een 4K gaming build. Natuurlijk zit je dan constant in de herrie, maar het is niet vergelijkbaar met 5K. Geen enkele GPU vind dat leuk.
3840 x 2160 = 8,3 M ;)
5K is inderdaad flink wat meer pixels.
Dat is UHD 4K. DCI 4K is 4096 x 2160P. Oftewel zo'n 8.8 miljoen.

[Reactie gewijzigd door supersnathan94 op 30 maart 2016 11:05]

4096 neem ik aan?
In de PW zie ik er 3 van tegen 79x 3840.. dus standaard kun je wel van 3840 uit gaan.
Klopt inderdaad. Heb het aangepast.

Tuurlijk kan je wel van 3840 uit gaan. Dat is immers 2X 1920. maar technisch gezien is dit ook geen true 4K, maar UHD-4K. Een soort van Quad Full HD.

Ik wilde de vergelijking eerlijk houden door met de officile standaard te vergelijken. Aan de andere kant is het ook eerlijk om met de zelfde aspect ratio te vergelijken, maar dan is het verschil dus nog groter. Dan mis je namelijk horizontaal een berg pixels.
Dan is het ook de vraag of je op een 27 inch scherm nu echt het verschil tussen 4k en 5k kan zien.

Ik krijg sterk de indruk dat de pixelrage ook doorslaat op de desktop.
Ik denk dat dat wel meevalt.

We hebben jren op 1080p (16:9) of 1200p (16:10) als standaard gezeten, zelfs voor 30" monitors.
Nu is 5k wel een erg grote stap, maar een beetje vooruitgang juich ik toe.
4K of 5k is echter wel een enorm verschil in de hoeveelheid pixels.
Dat verschil is xact hetzelfde als tussen FHD en QHD, aangezien UHD en '5k' de quad-versies van die respectievelijke resoluties zijn.

Dat 2560x1440 effectief 77,78% mr pixels heeft dan FHD lijkt intutief inderdaad niet te kloppen, maar je moet beseffen dat er in elke dimensie 1/3 bijkomt, met daarnaast nog eens 1/9 als opvulling, dus in totaal 7/9 extra pixels.

[Reactie gewijzigd door IveGotARuddyGun op 30 maart 2016 11:05]

Het verschil tussen FHD en UHD-4K is ongeveer 6,3 miljoen pixels.
Het verschil tussen UHD-4K en 5K is ongeveer 6,4 miljoen pixels.

Tuurlijk is dat verschil groot in beide gevallen, maar als je aankomt met een 4K gaming rig dan kan je met dit verschil echt niet verwachten dat een adequate koeling het probleem gaat verhelpen. Dat is alsof je met een FHD gaming rig die net soepel loopt op 100% ineens naar 4K gaat. Wat Martin.m dus aangeeft is dat het voor desktop spul geen probleem zal zijn, maar op het moment dat je echt grafische kracht nodig hebt met 3D rendering en weet ik het, deze schermen echt wel een probleem gaan zijn voor je videokaart.

Daar kan je niet tegenaan koelen.

De vergelijking met een 4K gaming rig slaat dus nergens op.
Hmmm? De verhouding tussen FHD en QHD (100% en 178%) is dezelfde als die tussen UHD en Vijf Kaa (wr 100% en 178%).

Het aantal extra pixels erbij tellen zonder te zeggen hoeveel pixels er voordien werden verwerkt is niet helemaal juist. De verhoudingen zijn echter altijd volledig in het scheppen van een beeld.

Mijn reactie was trouwens een addendum, eerder dan een weerlegging van jouw stelling.

Waar ik echter niet mee akkoord ga, is dat je stelt dat van FHD naar UHD (effectief x4) hetzelfde is als van UHD naar Vijf Kaa (effectief x1,78). Nee, die laatste stap is veel kleiner dan de eerste.

Wat ik ook raar vind, is dat je doet uitschijnen dat een grafische kaart op Vijf Kaa nog mr werk zal leveren dan op UHD of FHD. Is het dan echt zo dat grafische kaarten niet op volle belasting draaien, en dat de belasting progressief stijgt samen met de resolutie? Dat lijkt me straf.

[Reactie gewijzigd door IveGotARuddyGun op 30 maart 2016 11:25]

Is het dan echt zo dat grafische kaarten niet op volle belasting draaien, en dat de belasting progressief stijgt samen met de resolutie? Dat lijkt me straf.

--------------------------------------------
Toch is het zo. ( niet voor de desktop te laten zien, daar merk je bijna niks van, maar als je aan het werk gaat, dan zul je dat zekers merken).

[Reactie gewijzigd door martin.M op 30 maart 2016 11:38]

Toch is het zo. ( niet voor de desktop te laten zien, daar merk je bijna niks van, maar als je aan het werk gaat, dan zul je dat zekers merken).
Ik had het over gaming. Als een gaming setup stil genoeg is om te gamen op UHD, dan is die volgens mij ook stil genoeg om te werken op Vijf Kaa, want gaming zal je GPU *sowieso* tot het uiterste laten gaan, en dus kan werken op Vijf Kaa onmogelijk zwaarder zijn.
Aah okay, maar ja je video kaarten zullen toch echt harder moeten werken op die resolutie, ook al draai je SLI of crossfire.
Maar nee, als in een spel de resolutie lager is, dan zal hij sneller (en dus meer) frames renderen (totdat hij aan een mogelijk ingestelde limiet van aantal frames per seconde komt, maar dat is niet altijd), dus zal hij nog altijd zo hard werken als mogelijk.

Sommige oude games hebben zo'n limiet, of benutten de moderne hardware niet op de meest effectieve manier, waardoor je inderdaad maar onder deellast zal werken, maar de meeste games van de laatste tien jaar zullen je GPU toch op kookpunt brengen, ongeacht de grafische instellingen.
Hahaha, okay heb je gelijk in, maar je moet toegeven dat dit " kookpunt" eerder bereikt is open een resolutie van 4K of 5K.
Is het dan echt zo dat grafische kaarten niet op volle belasting draaien, en dat de belasting progressief stijgt samen met de resolutie? Dat lijkt me straf.
Dat is inderdaad precies wat er gebeurt met desktop werk. Hier hoeven geen ingewikkelde berekeningen uitgevoerd te worden op hoge clocksnelheden. De Intel Iris Pro IGP's kunnen hoge resoluties als 4K op desktop werk wel degelijk aan, maar de belasting zal altijd hoger liggen dan dat je op een lage resolutie als 1080P gaat werken. Helaas werken videokaarten niet relatief. Die hebben gewoon een hoeveelheid pixels die ze moeten weergeven. Verdubbelt die hoeveelheid (of dat nou effectief 178% is of 400%) maakt dan niet uit. De workload verdubbelt gewoon. Ga je dan gamen dan zul je nog grotere verschillen zien door geheugen bandbreedte, texture rendering en de algehelen pijplijn die problemen krijgt. Er zijn momenteel maar weinig kaarten die native 5K aankunnen. Os. de AMD Radeon R9 M295X, AMD Fury X en Nvidia Titan Z kunnen daadwerkelijk 5K uitsturen, maar deze kaarten trekken wel een behoorlijk vermogen op die resoluties. Gaming is daarbij uitgesloten. Althans niet zoals dat op FHD en 4K nu al mogelijk is. 4K op max settings is voor de meeste kaarten al niet te doen, laat staan 6 miljoen extra pixels (en dus grotere textures, meer geheugendruk en vele malen meer rekenwerk).

Als ik op mijn macbook een 4K display aansluit switched de mac volgens mij per direct over naar de dGPU. 4K is wel mogelijk met de Iris Pro, maar niet in combinatie met het retina scherm in de mac zelf.

Kijk naar de mac pro's. Daar zitten workstation kaarten in. 2 stuks AMD Firepro D300 (W7000 met 50% vram). Deze 2 kaarten kunnen 2 4K displays aansturen. Deze kaarten zijn absoluut niet incapabel, maar zullen met 2 van deze displays toch behoorlijk wat werk moeten verzetten.
Ik had het in mijn geciteerde opmerking voornamelijk over gaming op UHD, geen desktopwerk. Games belasten de GPU zeer vaak toch tot de volle 100%, dus dat desktopwerk op Vijf Kaa op een UHD-gaming-rig niet zal lukken, dat lijkt mij dus onjuist, want desktopwerk op Vijf Kaa zal een game-rig niet zwaarder belasten dan gamen op UHD.
aha. Daar zit het em dus in. Ja daar geef ik je gelijk in.

Kijk echter wel nog even naar de reactie voor de reactie voor mij:
maar op die resolutie programma's gebruiken die zowiezo al veel eisen van je gpu, zal je constant in de herrie zitten.
En daar zit het verschil dus. 4K desktop spul is vaak geen probleem voor een entry videokaart. Dat is allemaal niet zo spannend, maar zodra er applicaties bij komen die hardware acceleratie gebruiken zoals photoshop, Adobe Premiere. Dat soort meuk is dan echt zwaar op je GPU.
aha. Daar zit het em dus in. Ja daar geef ik je gelijk in.

Kijk echter wel nog even naar de reactie voor de reactie voor mij:
[...]


En daar zit het verschil dus. 4K desktop spul is vaak geen probleem voor een entry videokaart. Dat is allemaal niet zo spannend, maar zodra er applicaties bij komen die hardware acceleratie gebruiken zoals photoshop, Adobe Premiere. Dat soort meuk is dan echt zwaar op je GPU.
Akkoord, dus als je wensen stelt aan de geluidsproductie van je hardware zal je inderdaad moeten beseffen dat je GPU vaak genoeg op zodanige belasting zal werken dat goeie en stille koeling noodzakelijk is.
Ja, maar ook dat je niet overal tegenaan kunt koelen. Een GPU die 5K draait en aan het adobe premieren is, zal nooit onhoorbaar zijn tenzij je de GPU in een gedempte kast stopt en 10 meter verderop in een rack hebt hangen met een muur ertussen. 5K, hardware acceleratie en fluisterstil gaan niet samen.

Kijk naar de R9 m295X in de iMac. Met desktop gebruik (safari, itunes, word) een stille kaart die wel degelijk vrij hoog in z'n performance zit om het allemaal netjes aan te sturen (in verhouding met 1440P). Met photoshop, final cut proX, iMovie, after effects, premiere of autocad moet hij echt flink aan de bak en gaat hij vol in de zeik qua koeling. Dit is dan wel een mobiele kaart, maar hij is absoluut geen instappertje:http://gpuboss.com/gpus/Radeon-R9-M370X-Mac-vs-Radeon-R9-M295X-Mac.

De M270X heb ik zelf in mijn Macbook, maar de prestaties van de M295X op Full HD liegen er niet om. Dat is wel een berg anders op 5K.
Ja, maar ook dat je niet overal tegenaan kunt koelen. Een GPU die 5K draait en aan het adobe premieren is, zal nooit onhoorbaar zijn tenzij je de GPU in een gedempte kast stopt en 10 meter verderop in een rack hebt hangen met een muur ertussen. 5K, hardware acceleratie en fluisterstil gaan niet samen.
Dat is niet waar, je kan best performante hardware stil maken onder zware belasting.

De link van Olaf is exact wat ik bedoel; de mensen bij silentpcreview weten perfect wat ze moeten doen om een systeem stil te krijgen, want (muis)stille hardware is al meer dan tien jaar hun primaire focus.

Als je kijkt op pagina 5 zie je dat de geluidsdruk nooit boven de 26dba komt bij het spelen van spelen, dat is quasi-fluisterstil.

Dat is een game-rig die is uitgerust met de huidige norm onder straffe game-rigs: 6700K + 980Ti. Toch quasi-fluisterstil onder volle speelbelasting.
Helaas is ook de 980Ti niet "geschikt" om echt mee te gaan gamen op 5K. Ja de 980ti weet 5 tot 7 frames per seconde meer eruit te persen op 4K (http://segmentnext.com/20...0-is-it-a-worthy-upgrade/), maar op 5K is dit verschil al kleiner (Nvidia schaalt slecht in resolutie door het GDDR5 geheugen).

En daar komt nog eens bij dat dergelijke kaarten nooit in een zakelijke omgeving gebruikt worden. Net als zo'n beetje alle andere hardware die in de lijst staat van dat artikel. Je ebt gelijk dat het opzich wel kan, maar dit kost dan ook wat extra. De workstation quadro kaarten i.c.m. Xeons in een dell poweredge of precision tower zijn alles behalve stil en dat zijn wel de kaarten die met dergelijke schermen gebruikt gaan worden. Fatsoenlijke hardware acceleratie voor 3D werk (dus niet spelerij) en rauwe CPU kracht van een 18-core Xeon. Deze workstations draaien om performance, niet om stilte en in dat opzicht gaan de twee niet met elkaar samen.

Gaming kaarten zijn in dat opzicht nauwelijks interessant. Kaarten als de Quadro en FirePro series worden hierbij veel vaker gebruikt voor rendering, modellen en weet ik veel wat nog meer (want dat leveren Dell, HP en de rest) en die zijn absoluut niet fluisterstil onder load.
Helaas is ook de 980Ti niet "geschikt" om echt mee te gaan gamen op 5K. Ja de 980ti weet 5 tot 7 frames per seconde meer eruit te persen op 4K (http://segmentnext.com/20...0-is-it-a-worthy-upgrade/), maar op 5K is dit verschil al kleiner (Nvidia schaalt slecht in resolutie door het GDDR5 geheugen).
Tuurlijk is een GTX980Ti niet geschikt om Vijf Kaa op Ultra vlotjes aan te kunnen, maar dat was mijn punt niet.
En daar komt nog eens bij dat dergelijke kaarten nooit in een zakelijke omgeving gebruikt worden. Net als zo'n beetje alle andere hardware die in de lijst staat van dat artikel. Je ebt gelijk dat het opzich wel kan, maar dit kost dan ook wat extra. De workstation quadro kaarten i.c.m. Xeons in een dell poweredge of precision tower zijn alles behalve stil en dat zijn wel de kaarten die met dergelijke schermen gebruikt gaan worden. Fatsoenlijke hardware acceleratie voor 3D werk (dus niet spelerij) en rauwe CPU kracht van een 18-core Xeon. Deze workstations draaien om performance, niet om stilte en in dat opzicht gaan de twee niet met elkaar samen.

Gaming kaarten zijn in dat opzicht nauwelijks interessant. Kaarten als de Quadro en FirePro series worden hierbij veel vaker gebruikt voor rendering, modellen en weet ik veel wat nog meer (want dat leveren Dell, HP en de rest) en die zijn absoluut niet fluisterstil onder load.
Jij wilt aanstippen dat professionele rigs inderdaad niet uitgerust zijn om onder vollast toch een zeer acceptabel beperkt geluidsniveau te behalen.

Daar heb ik geen idee van, maar ik heb wel de ervaring dat van een dure HP-workstation met een Core i7 de processorkoeler inderdaad compleet niet van het overbemeten type was, waardoor die bij het encoden van videomateriaal inderdaad makkelijk 60dba of hoger produceerde, stofzuigerintensiteit en zeer irritant om naast te zitten werken.

Als bedrijven geen zin hebben om zelf rigs samen te stellen, dan moeten ze daar inderdaad maar de gevolgen van dragen.
Het is niet het geen zin hebben. Het is het totaal pakket. Als bedrijf (zeker een wat groter burea). Wil je juist de extra services die dell bied. Zeker met dit soort hardware is een volledig onsite support en vervangende apparatuur geen overbodige luxe. Dat kan niet als je zelf een rig samensteld. Ja het is beter en goedkoper, maar gaat er iets kapot dan zijn de kosten veel hoger als je geen mannetje hebt lopen die er verstand van heeft.
Dat mag dan wel, maar het feit, dat die kaart flink aan de slag moet, tegenover een 4K scherm alleen om beeld te leveren, betekent dat ie meer stroom verbruikt en dus waarschijnlijk een flinke wattage verbruikt. Dat zou hetzelfde zijn, als je continue aan het 3d renderen bent met je gpu, zal je flink terug zien in de stroom kosten. ( als je GPU intensieve apps gebruikt op die resolutie ).

Dus niet rendabel, naar mijn mening.
Misschien dat de volgende generatie video kaarten hier verandering in brengen.

[Reactie gewijzigd door martin.M op 29 maart 2016 20:25]

Deze monitor is natuurlijk voornamelijk gericht op grafisch ontwerp, en dat je kaart dan wat meer stroom verbruikt is wat dat betreft waarschijnlijk niet zo erg. Het gaat er voornamelijk om dat je lekkerder kunt werken met je ontwerp.
De monitor zelf, snap ik wel en ik spreek dat ook niet tegen, ik heb het alleen over het vermogen van de video kaarten en de stroom kosten om deze schermen aan te sturen.
Ja, ik snap dat je het daar over hebt. Het lijkt me alleen dat het in de context van de doelgroep niet zo belangrijk is of er wat meer stroom verbruikt word. Als het ervoor zorgt dat ze sneller/makkelijker kunnen werken halen ze dat qua kosten er makkelijk weer uit (minder energieverbruik willen omwille van het milieu is natuurlijk een andere afweging).

Vooropgesteld dat de monitor op het vlak van weergave ook werkelijk iets nuttigs toevoegt natuurlijk.
Toch ben ik van mening, dat het wachten is op de komende generatie video kaarten en ook foto camera's etc.

Ik had hier ergens ook het volgende geschreven ( copy paste )
-------------------------------------------------------------------
Ooit eens 4K materiaal op een 4K of 5K scherm uit vergoot ?
Ziet er nogal blokkerig uit he ?

Niet alleen zijn de video kaarten niet voorbereid op deze resoluties, maar ook de meeste foto camera's die tot 4K kunnen vastleggen.

Zo'n foto camera moet zekers tot 8K kunnen schieten, wil je hem op 5K uit kunnen vergroten en zien wat je doet.
Oh, dat is een ander punt. Natuurlijk, een hogere resolutie scherm past het best bij hogere resolutie foto's en videokaarten die daar goed mee om kunnen gaan. Dus voor veel mensen kun je daar gelijk in hebben.

Maar het punt kan natuurlijk ook zijn dat je de hele foto pixel voor pixel op het scherm krijgt zonder te zoomen. Want heb je een lagere resolutie scherm dan moet je in/uitzoomen om met de foto te kunnen werken, maar kun je hem nooit op native resolutie volledig zien. Heb je een 5K monitor en een 4K foto, dan kun je de hele foto in beeld krijgen zonder zoomen en heb je nog wat ruimte over voor interface. Dan kun je juist met de foto werken met veel minder zoomen. Het is maar net waar je voorkeur ligt.

Er zijn ook andere doelgroepen die de monitor kunnen gebruiken zoals door anderen genoemd: beleggers die veel informatie op het scherm willen bijvoorbeeld. Daar is zoomen geen punt.

Maar het is ook het kip-ei verhaal natuurlijk, waarom wachten op de volgende generatie videokaarten als je de monitor nu al op de markt kunt krijgen en het mogelijk is met de huidige generatie te werken? Als er een betere videokaart op de markt komt kun je dezelfde monitor nog steeds gebruiken
Ja denk eerder dat deze schermen goed zijn, om het eind resultaat te kunnen laten zien. Maar er echt handig op werken is wat anders.
Heb je gelijk in.
Klink leuk maar is het verschil tussen 4k en 5k op een 27 inch monitor wel echt zichtbaar.
Dat lijkt me iets dat ieder voor zich moet beoordelen. Dat ligt af van allerlei factoren als hoe goed je ogen zijn, hoever je van het display zit, enz.

Net zoals sommige mensen 100Hz fijner vinden dan 60Hz -terwijl veel mensen het verschil al niet zagen op een CRT scherm, laat staan een LCD scherm- zullen er mensen zijn die wel of geen verschil tussen 4k en 5k op een 27 inch monitor.
Klopt, blijft alleen hoe verder je van het display zit des te minder goed je het verschil kan zien.

Toch zijn er grenzen aan wat je echt als verschil kan zien. Probleem is dat de tech bedrijven willen ze blijven verdienen met iets nieuws moeten komen. Op display gebied van crt naar led, naar oled qua techniek.

Resolutie is dan het andere verkoopargument.
Wat ik nu liever zou willen zien is een veel groter kleurbereik van je monitor. Helaas moeten we daar nog op wachten.
Tja, ik zit zelf op 1920x1200 op een oude 24" (denk ik) Dell. Ding doet het nog prima en buiten een enkele keer als ik met een stylus wil tekenen hoeft er niet echt meer op het scherm (specifiek met de stylus, omdat het makkelijker is een vloeiende vorm van punt naar punt te tekenen als je de gehele tekening in beeld hebt). Zolang hij blijft werken heb ik zelf niet zo'n behoefte aan meer pixels, tenzij misschien inderdaad met een grotere monitor zodat ik op dezelfde ppi uit blijf komen.

Qua games zou ik ook niet echt meerwaarde voor mezelf zien qua resolutie. Liever inderdaad een groter kleurbereik. Maar op de een of andere manier zijn er toch zat mensen die er helemaal gek van zijn van die hoge resoluties.
er zijn genoeg professionele applicaties die zo'n resolutie maar al te graag gebruiken: beurstrackers, de grafische sector, componisten, ...

Zelfs gaming-hardware is er klaar voor, maar dan moet je natuurlijk niet met een midrange-setupje afkomen, maar met een multi-gpu config.
Dat bedoel ik nu net, voor de zakelijke markt is dit geweldig, zekers.
Ook mede omdat grafische bedrijven hun stroom kosten kunnen doorberekenen in hun service of geleverde producten.

Mijn video kaart ( quadro m4000 ) kan ook 4 * 4k aansturen, wilt niet zeggen, dat ik dit doe.
Zelf werk ik op 2 1080P schermen ( Eizo - liever kwaliteit dan een grotere resolutie en het werkt fluister stil. )

Maar voor de gewone consument, zijn dit alleen energie vreters ( met de huidige gpu's )

Edit :
Ook de zakelijke markt ( middenmoot ), zal eerder 4K dan 5K gebruiken, want als een bedrijf iets goedkoper kan leveren en zo meer klanten aantrekt, zullen ze dat zekers doen.

By the way, als ik een multi gpu setup nodig heb, om beeld op mijn monitor te toveren, hoeft het voor mij al niet meer hoor, da's dief zijn van je eigen portemenee ;)

[Reactie gewijzigd door martin.M op 29 maart 2016 21:34]

Ik snap jou niet helemaal. Je hebt 1080p eizo schermen en een quadro m4000 kaart. Dat kost momenteel samen 250x2 + 850 euro = 1350 euro.
Had je niet beter een 980ti (e650) kunnen halen en een philips 40" 4k monitor (e630)?
Ja, je kunt nu misschien nvidia bellen als je het niet meer snapt en je kleurechtheid oid is 5% beter.
Maar je videokaart is letterlijk 3x zo langzaam als hij had kunnen zijn en je twee schermen hebben samen nog steeds maar de helft van het beeldoppervlak van een 40" en toevallig ook de helft van de pixels van een 4k scherm.
Jij bent gevallen voor het pro praatje en hebt dubbel betaald. Zowel als nvidia als eizo vinden jou heel leuk.
Nou die Eizo schermen kosten momenteel 700 euro per stuk en dan nog 800 ( gekocht voor 1100 - toen ie net uitkwam voor die quadro m4000 )

Ik doe natuurlijk heel wat anders dan gamen, gamen,en doe ik zelden, helaas geen tijd voor.

Voor de programma's die ik gebruik, is ie anders weer 10 keer zo snel als een titanX.

Ik werk al sinds het jaar 2000 in de 3d industrie en heb geforce kaarten, radeon kaarten, firepro kaarten en quadro kaarten gehad, maar altijd weer terug gekomen op quadro kaarten.

Het hangt er echt vanaf wat je doet en welke kaart beter presteert.
___________________________________________________________

Gezien jouw reactie, heb je nog nooit van Eizo color-edge schermen gehoord.
Je ook nooit echt verdiept of zelfs maar een pro kaart aangeschaft om het verschil te testen.

Doe eerst onderzoek, voordat je gewoon wat begint te roepen.
Een quadro m4000 is 10x zo snel als een titan x? Sure.

Ik heb even wat 3d benchmarks opgezocht aangezien je in de 3d industrie werkt, in zowel Octane als Iray is de Titan X ongeveer 2,5x zo snel als een M4000:

https://render.otoy.com/o...y=avg&filter=&singleGPU=1
http://www.migenius.com/p...iray/iray-benchmarks-2015

Blijkbaar vind je jezelf alleen een professional.
Uhhhh Ik heb het over 3d viewports, polygons en texture loading in 3d pro apps.

Volgens mij mankeert er gewoon wat aan je ogen, want er staat toch echt : " voor de programma's die ik gebruik" .

Eerst lezen voordat je gaat janken.
Kijk, je bent aan het beweren dat een videokaart met 2x de power aan boord 10x zo langzaam is. Dat kan natuurlijk niet. Vervolgens heb je twee 23" 1080 monitoren gekocht voor het geld waarvoor je twee 4k 40" schermen had kunnen neer zetten. Je bent gewoon raar bezig.
Nee, jij wilt zeggen, dat je beter een gamers kaart kan kopen dan een pro kaart. Vervolgens wil je alleen de dingen zien, waarin gamers kaarten in uitblinken, maar wil je niet zien, waarin pro kaarten in uitblinken.

Wie is er dan raar bezig ?
Ik ga hier verder ook niet meer op in ;)
____________________________________________
Dit heeft dan ook niks meer te maken, met wat ik wilde zeggen : Namelijk gpu vermogen, stroomverbruik bij 5K schermen.

[Reactie gewijzigd door martin.M op 30 maart 2016 11:40]

Sorry hoor, die twee benchmarks zijn 3d renderers. Voor pro's.

Laat maar eens zien in welk programma jouw quadro kaart zo snel is, ik geloof er namelijk helemaal niets van. Die m4000 is een ondergeklokte 970.

[Reactie gewijzigd door nzweers op 30 maart 2016 12:17]

Eens kijken.
Autodesk maya - check
Cinema 4D - check
Adobe After effects - check
thefoundry - modo - check
the foundry - Nuke - check
________________________________________
Om te denken, dat die 2 benchmarks 3d render aplicaties zijn, da's fout.

Dat zijn de resultaten van 3D render engines die gebaseerd zijn op gpu renderen.

Klopt dat high end gamerskaarten daarin sneller zijn omdat ze hoger geclocked zijn.

Echter, waar denk jij waar game content en 3d content op gemaakt worden ? Juist Pro kaarten. Je zult een Pro kaart nodig hebben om die 3d applicaties te kunnen gebruiken als je er ook echt met plezier en snel mee wilt werken.

Immers, tijd is geld. Dan zul je veel geld mislopen met gamerskaarten, die bagger presteren en ook grafische fouten vertonen in deze apps.

Dat heeft een reden :
Namelijk precisie en werken beter in de applicaties waar ze voor bedoeld zijn.

Wederom, probeer je te rechtvaardigen dat Gamers kaarten superieur zijn tegenover pro kaarten.

Dan weet je letterlijk niet waar je het over hebt.
In de professionele omgeving worden gamerskaarten pas gebruikt op het moment van importeren in game engines.
En ook voor goedkoop 3D renderen op GPU.

Zoals gezegd, eerst onderzoek doen.
Ik snap eerlijk gezegd niet, waarom je hier zo graag op door blijft hameren ? Heeft niks met het topic te maken.

[Reactie gewijzigd door martin.M op 30 maart 2016 12:44]

Mooi verhaal, maar zonder benchmarks is het slechts jouw mening.

Ik heb even gegoogled en iemand gevonden die is overgestapt, hij zegt zoals ik wel verwacht had, dat alles sneller gaat: "I had a Quadro 6000 6gb and sold it for a Titan Z ( before the x came out) didn't regret it at all. All my core app performance is better. Maya, Mari, modo ect. If it were now I would grab that new X."
https://www.reddit.com/r/...card_or_a_titan_x/crjem6v
Dan koop je lekker een titanX voor pro 3d applicaties, ik zit er niet mee hoor.

Ik zou nog meer voorbeelden nemen :
Kaarten van 7 jaar geleden met kaarten van 5 generaties later te vergelijken.

[Reactie gewijzigd door martin.M op 30 maart 2016 15:13]

Nouja. Dat ligt er een beetje aan. Ik kan me zo voorstellen dat het interessant wordt om 2 gtx 970's aan te schaffen, voor iedere poort 1, ipv 1 gtx 980ti.
Ik zou zeggen, ga bij een winkel testen of je het verschil ziet tussen 4K of 5K
Als dat zo is, aanschaffen als je gamer bent en sli draait.

Als dat niet zo is, kun je heel wat geld en stroom uitbesparen.
Eens, maar wat kost stroom nou op jaarbasis? Ik zie veel kantoren met night en day surveillance (logisch ook), verwarming die belachelijk staat afgesteld (te laat uit gaan), verlichting die niet uitgaat en weet ik het allemaal niet meer. Ik denk dat een dit verschil dan dus wel te verwaarlozen is in de zakelijke markt.
Zoals gezegd, bedrijven rekenen hun stroomkosten door naar de klant.
Particulier zijn die kosten voor jezelf.

Deze schermen zijn zekers niet gericht op particulieren.
Alsof die stroomkosten zo spannend zijn. Een paar tientjes per jaar meer of minder zijn toch niet relevant als je >1000 euro aftikt voor een scherm wat in ruwweg 5-8 jaar afgeschreven is...
dit is dan ook geen monitor voor de middenmoot h, daar ga je toch wel aan voorbij.
waar, zekers geen scherm voor de middenmoot.
Valt mee. Je moet gewoon niet proberen om flink te gamen. Vergeet niet dat hi-res schermen voor meer dingen als spelletjes worden gebruikt ;)
Valt mee. Je moet gewoon niet proberen om flink te gamen. Vergeet niet dat hi-res schermen voor meer dingen als spelletjes worden gebruikt ;)
Nee dat snap ik, mijn vrouw heeft de 5K imac, kan natuurlijk zijn omdat die zo compact is
Zal misschien wel meevallen in een normale pc kast. Maar dan nog moet die kaart flink koelen als ie aan de slag gaat in foto bewerkin / video's of 3d applicaties.
Dat heeft niets te maken met het feit dat je scherm 5K aankan, maar meer dat je hardware acceleration gebruikt waardoor fotosoep en de rest van de adobe suite je GPU gewoon flink aan het werk zet. Het draaien van programma's (ook "zware") is vood e gpu geen probleem. Gooi je echter hardware acceleratie in de mix dan is het een ander verhaal.
je bedoelt als de GPU ook echt iets doet zeg maar?
Ja. 5K op desktop gebruik is geen probleem. Het kost wel de volledige bandbreedte door de hoeveelheid pixels, maar dat is een busprobleem.

Ik vind het overigens wel raar dat deze standaarden niet sneller de deur uit rollen. @ 2x 1440P trek je namelijk ook 2X 35% van 20,56Gbps. 4K kan net op 1 poort, maar met 5K ga je daar vol overheen.
IMHO zouden ze de standaarden nu al aan moeten passen /voorbereiden voor de 8K resoluties. Die komen er zeker al aan, dus waarom steeds maar een klein beetje veranderen. Is toch gewoon steeds dubbel werk? |:( :?
Nou opzich nog niet eens dat, maar een verhoging van de praktische bandbreedte naar 80Gbps is al een fikse vooruitgang voorlopig.
Dat zal eerder liggen aan het feit dat die programma's tegenwoordig zwaar inzetten op GPU acceleratie dan aan het feit dat je met een 5K desktop werkt.
Ik durf wedden dat ze evenveel herrie zouden maken als je gewoon op 1920x1080 zou werken.
En windows heeft nog niet fantastische ondersteuning voor 5k
Waarom zou iemand deze kopen i.p.v. de pricewatch: Dell Ultrasharp 27 Ultra HD 5K-Monitor UP2715K Zwart? Beide hebben 99% Adobe RGB dekking, en voor de rest kan ik ook niet veel verschillen vinden in de specificaties. De Dell ziet er een stuk beter uit en is nog een stuk goedkoper ook.
Waarschijnlijk een voorkeur voor een merk en er moet concurrentie zijn om innovatie in de markt te pushen.

[Reactie gewijzigd door Wiejeben op 29 maart 2016 19:58]

Om eerlijk te zijn gok ik dat er momenteel maar 1 leverancier is van deze panelen. Apple en Dell gebruiken sowieso al hetzelfde paneel en ik denk dat HP en "Phillips" deze nu ook gebruiken.

Vandaar ook dat de adviesprijzen en specificaties exact hetzelfde zijn.
De Dell heeft toch ook een adviesprijs van 1600+? De straatprijs van de Philips is nog niet bekend dus over prijzen valt weinig te zeggen.
. De Dell ziet er een stuk beter uit en is nog een stuk goedkoper ook.
En beide hebben een adviesprijs van 1500 euro
sowieso dell > philips
Tja, met een meerinvestering van E600 heb je een 27" 5K scherm met een gratis 'ingebouwde' apple computer erbij met juiste video kaart en zonder kabels, no hassle, werkend uit de doos ... Kun je altijd nog op de hardware linux, of microsoft BOB gaan draaien ....
Voor een groot aantal mensen (mijzelf als lichtend voorbeeld) is een Apple 'upgrade' geen aantrekkelijke optie.

Dan wacht ik liever op een goedkopere en wellicht ook grotere 5K schermen die gewoon als paar op mijn betaalbare en perfect werkende Windows 10 PC kan aansluiten met displayport 1.3 of 1.4.

Tegen die tijd dat die beschikbaar komen zijn de prijzen van deze schermen gehalveerd terwijl het Apple alternatief nog net zo duur zal zijn als nu. En ook bij een Apple zou ik behoefte houden aan een tweede (ongetwijfeld vreselijk duur) scherm met dezelfde resolutie als het hoofdscherm.
Je hebt het erover dat die van apple duur is maar die is 600 euro goedkoper dan deze philips. Nogsteeds vrij prijzig maar een stuk goedkoper.

Dan bedoel ik het losse scherm en niet de iMac. Vereist alleen wel een thunderbolt aansluiting.

[Reactie gewijzigd door ronaldmathies op 30 maart 2016 06:34]

Apple heeft geen losse schermen die 5K doen....
Nja maar let op het is een adviesprijs, en niet zoals bij Apple dat de prijs hoog gehouden wordt, daar waar nu misschien het verschil 600 euro is? Is dat een aantal weken na introductie een prijs verschil van 800 euro. Hoog waarschijnlijk haal je voor de 800 euro een leuker systeem die vervolgens makkelijk te upgrade is.

De mensen die hem direct willen aanschaffen om welke reden dan ook zullen vast en zeker genoeg geld hebben gestoken in hun huidige systeem, waardoor nog een keer 600 euro extra uitgeven aan een ''niet'' te upgrade imac gewoon zonde is. Mensen die hem niet direct hoeven te hebben zullen wachten, en de prijzen gaan net als met alle hoge resolutie schermen redelijk snel dalen.

Althans ik neem aan dat niet iemand dit 5k scherm wilt kopen terwijl die een 13 jaar oude computer thuis heeft staan met een intel p4 waardoor een nieuwe computer een eis is.
'600 euro meerprijs' en 'gratis' strookt niet echt met elkaar h. Daarnaast heb ik het niet zo op combi-apperatuur, als een onderdeel stuk is moet je het hele apparaat wegsturen. Zeker bij dergelijke compacte systemen die je als leek niet zelf even openschroeft
Het vijf kaa-scherm van Dell heeft dezelfde adviesprijs, maar wisselt al gauw voor 400 tot zelfs 500 minder van eigenaar, dan is die meerprijs van 600 al gauw 1000 of meer. Niet direct de goeie koop die je wilt doen uitschijnen.
Ik heb toch liever 2 x 5k op 27 inch dan 1 x 5K op 55inch. Een scherm van 55inch is gewoon moordend voor je nekspieren.
Inderdaad, ik heb er maanden last van gehad, maar ik had niet door dat het aan de monitor lag.
Nu heb ik dat ding vervangen door een mooie LG widescreen en de last is langzaam weg aan het ebben, maar ik dacht echt even dat ik iets ernstigs onder de leden had.
Nou het lag denk ik niet aan de monitor maar je kijkafstand.. Voor een pc zit je er een kleine (halve) meter van af? Bij een 55inch (TV bijv) zit je er een paar meter van af. Ik moet er niet aan denken om vlak voor mijn TV te zitten en zo elke avond 1 a 2 uurtjes TV te moeten kijken. Dat je het een aantal maanden volgehouden hebt vind ik daarom best wel knap haha, ik hou dat volgens mij nog geen uur vol.
Bij 2x 27" heb je maar de helft van het beeldoppervlak vergeleken met 1x 55". Niet goed te vergelijken, dus.
Ik denk niet dat 55" moordend is voor je nekspieren; je hoeft niet (steeds) fullscreen te werken en kan de meestgebruikte content gewoon in het midden zetten.
Een beetje afwisseling (heen en weer- / op en neer kijken) kan waarschijnlijk niet zoveel kwaad. Langdurig naar voren buigen i.v.m. een laptop of tablet die voor je ligt, wel.
Dat snap ik toch niet zo goed hoor 55inch op 50/70cm van je ogen. Dan zie slechts een fractie van je scherm. Dit kan nooit beter zijn dat 27inch om dezelfde afstand en een volledig zicht hebben op je gehele scherm. 30inch kan ik me nog iets bij inbeelden maar 55 nooit never
Je hoeft niet de content waar je veel mee bezig bent, aan de randen te zetten. Een ambilight TV verkoopt ook :).
In een IMAX-bioscoop zie je ook niet alles tegelijk. Dat hoeft ook niet. Geeft toch een betere beleving :).
Jammer dat het slechts 27" is :'( . Ben benieuwd of er ook grotere komen zoals > 55". Ik zit achter meerdere 30", qua oppervlakte is dat al ruim 50". Ik heb liever 1 grote dan meerdere kleintjes.
Weet je dat zeker? Mij lijkt het juist een groot nadeel hebben (ligt aan de kijkafstand natuurlijk), maar ik heb liever 2 of meer monitoren met op elk scherm zijn eigen ding, dan dat ik voor 1 programma die op full screen staat van linksonder naar rechtsboven moet kijken, op een 21-23 inch scherm is dat goed te doen, op een 55 inch krijg ik al snel last van me nek / ogen denk ik.

Maar goed dat ligt er natuurlijk maar aan wat jou kijkafstand is, indien dat 55 inch scherm een kleine halve meter voor je staat wordt je denk ik niet goed van 1 grote monitor. Zelf draai ik 2 schermen van 23 inch, waarbij ik grotendeels het scherm gebruik die voor me neus staat en soms een 2e pagina / programma op mijn 2e scherm, maar dan zit ik niet non stop van links naar rechts te kijken maar grotendeels gewoon naar voren.

Natuurlijk kan je meer programma's verkleinen op 1 scherm waardoor je alsnog mijn effect nabootst, maar ik heb liever dubbelklik op de titel balk en dan op 1 scherm full screen en mijn 2e scherm vrij voor iets anders, dan dat ik dubbelklik doe en ik gelijk tweakers.net op 55 inch voor me neus heb staan.
Maar again, ligt uiteraard aan de kijkafstand, ik heb gewoon een bureau waarbij die dus een halve meter ongeveer voor me neus staan.

[Reactie gewijzigd door LopendeVogel op 30 maart 2016 06:27]

Kijkafstand is geen probleem, bij rechtop zitten 90cm, achterover leunen 120cm. Uiteindelijk is kijkafstand niet het probleem, maar de helderheid van je scherm. Zorg dat je omgevingslicht helderder is dan je scherm, anders is het net een enorme lichtbak/zonnebank. Veel monitoren gebruiken is net als kijken naar oude kranten op a1 formaat. Er zijn genoeg beroepen waar ze pixels tekort komen zoals aandelenbeurs, security, rijkswaterstaat enz.

Als software developer wil ik meerdere bron bestanden tegelijkertijd openen, browser, debug panel, logging, database, tekenprogramma, mail/chatprogramma nog een browser om dingen te zoeken enz. Allemaal in 1 oogopslag. Geen gezeik met vensters inklappen, uitklappen, vensters vergroten, verkleinen scrollen enz. De minder belangrijke progamma's plaats je aan de zijkant zodat je niet al te vaak met je hoofd van links naar rechts gaat.

1 groot scherm is voor mij vooral cosmetisch, in de zin van geen naden. En het is makkelijk als je toch dat extra grootte wilt bijvoorbeeld fotobewerking. In & uitzoomen en verplaatsen is echt irritant. En kleurverschillen, probeer maar een plaatje uit te rekken over alle monitoren. Voor browsen gebruik ik geen fullscreen tenzij het google maps is.
Persoonlijk vind ik een 30" monitor met 2560x1600 nuttiger. Meer oppervlak vind ik belangrijker dan een superhoge resolutie. En tweedehands zijn die soms rond de 500 euro te vinden; 3x zo goedkoop.
Voor normaal werk heb je niet zoveel aan die hoge resolutie (maar wel aan meer beeldoppervlak). Plaatjes van internet hebben doorgaans toch brakke compressie (jpg).
Persoonlijk vind ik een 30" monitor met 2560x1600 nuttiger. Meer oppervlak vind ik belangrijker dan een superhoge resolutie. En tweedehands zijn die soms rond de 500 euro te vinden; 3x zo goedkoop.
Voor normaal werk heb je niet zoveel aan die hoge resolutie (maar wel aan meer beeldoppervlak). Plaatjes van internet hebben doorgaans toch brakke compressie (jpg).
Voor normaal werk heb je doorgaans wl wat aan een hoge resolutie, want je hebt ineens zeen van ruimte om je content n je UI kwijt te kunnen, met verschillende stappen in afweging tussen grootte en extra detail.

Zo werk ik nu met tweemaal 24 duims FullHD, maar zou die zr graag willen omruilen voor nmaal 24 duims UltraHD (of twee, als het even mag), want dan zit ik niet opgezadeld met van die monsterlijke grote pixels die constant in mijn ogen branden, en kan ik mijn tekst kleiner maken zonder dat die inboet aan leesbaarheid, zodat ik het beschikbare oppervlak vl effectiever kan gebruiken (meer lijnen code of tekst op een scherm == winst!).

Dat je dus zoiets zegt, begrijp ik echt niet.
Er zijn (best wel) veel mensen die de resolutie zelfs verlagen, of the tekst van 100% naar 125% zetten. iig de tekst wordt juist vergroot.! Omdat die door de hogere resoluties niet meer leesbaar zijn. Dus te klein, en niet onduidelijk. De meeste mensen hebben tegenwoordig 1920x... resolutie op hun schermen, die zie ik nog niet overstappen op een hogere resolutie als er geen goede reden voor is. bv. de oude is kapot.
Ja, de plaatjes etc worden wel mooier bij een hogere resolutie, helemaal mee eens. De veel kleinere tekst is ook leesbaar, maar teveel mensen moeten daarvoor turen en/of veel dichter op het scherm gaan zitten. Lijkt mij toch niet zo'n goed idee.
4k+ computer schermen zouden veel groter dan 24"/27"/30" moeten zijn, goede response en ongeveer dezelfde prijs. DAN heb je pas waar voor je geld en bereik je meer mensen.
eff simpel: 4k+ resoluties op TV schermen worden pas effectiever als ze 55" (beter nog 60"+) of groter zijn.
Er zijn (best wel) veel mensen die de resolutie zelfs verlagen, of the tekst van 100% naar 125% zetten. iig de tekst wordt juist vergroot.! Omdat die door de hogere resoluties niet meer leesbaar zijn.
Maar daarnaast zijn er (ook best wel) veel mensen die de dankzij de lage resolutie van de huidige schermen gedwongen zijn om te staren naar zeer kartelige letters in plaats van mooi vormgegeven letters, en die (moesten ze kunnen) de letters ng kleiner zouden maken dan ze nu al zijn, ware het niet dat de huidige schermen met hun monsterlijk grote pixels dat onmogelijk maken, want tekst van zes pixels per letter is onleesbaar.

Daarom is een 24"-scherm met UHD-resolutie een zeer goed idee, want dan kan je je schaling op 200% zetten als je middelmatig tot slecht van zicht bent zodat je hetzelfde beeld hebt als iemand die FHD op 100% gebruikt, alleen vl mooier want veel scherper; f je kan de schaling op op 150% zetten zodat het beeld eerder overeenkomt met QHD op 100%, met nog steeds het scherptevoordeel tegen QHD op 100%. Of nog een andere schaling, 175%, 225%, 125%, wat je maar wil, maar het is mogelijk op een OS dat deftig kan schalen en kan je dus tegemoetkomen aan een vl groter pak mensen dan met een oubollig scherm met een lage native resolutie.

Als je zoekt, dan vind je in de pricewatch al een UDH 24"-scherm voor 326; dus voor de kost moet je het zeker niet laten.

[Reactie gewijzigd door IveGotARuddyGun op 30 maart 2016 18:11]

Ik heb mijn 2560x1440 monitor op 1824x1026 staan en heb alsnog k de tekst op 140% staan. En ik merk niks van gekartelde letters. Leesbaarheid (grote letters en hoog contrast*) is veel belangrijker voor me dan wat karteltjes die je eventueel ziet onder een loep.
Meer beeldoppervlak is voor mij veel belangrijker dan een hoge resolutie (waarvan ik toch totaal niks van die kleine pixels kan zien).

*: Gigantisch veel websites gebruiken trouwens grijze tekst op een witte achtergrond i.p.v. zwarte tekst op een witte achtergrond. Dat verlaagd het contrast aanzienlijk en daarmee wordt ook de leesbaarheid slecht. Het lijkt wel een hype om egostisch alleen aan je eigen ogen te denken die wel voldoende contrast zien tussen (licht)grijze tekst en witte achtergrond.
Daarom is een 24"-scherm met UHD-resolutie een zeer goed idee, want dan kan je je schaling op 200% zetten als je middelmatig tot slecht van zicht bent
Een 30", met een lagere resolutie, is beter voor zo'n persoon. Het gaat bij zo'n persoon vooral om beeldoppervlak.

[Reactie gewijzigd door kimborntobewild op 3 april 2016 02:18]

En ik merk niks van gekartelde letters.
Tuurlijk niet, want jouw letters zijn voldoende groot en hebben dus bij die grootte voldoende definitie. Moest ik de letters instellen op *mijn* gewenste grootte op mijn 27-duims QHD-scherm, dan had ik te maken met letters van 8 pixels hoog, te weinig om deftig vorm te geven dus.

Dat contrast belangrijk is, dat kan ik onderschrijven, want al te vaak zit ik de CSS van een website aan te passen met userCSS, om het lettertype, de interlinie, lettergrootte en letterkleur meer te vormen naar mijn wens.
Goede trend wordt er ingezet!

Ik ben benieuwd of 10bit nu ook gauw breder ondersteund gaat worden door volgende generatie consumenten videokaarten. Dat is nu nog voorbehouden aan de Quadro's en Firepro's.
$1600 daar kan wel wat vanaf, anders kun je beter 2 4K schermen nemen. Heb je nog meer ruimte ook.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Microsoft Xbox One S FIFA 17 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True