Dell kondigt UltraSharp-monitor met ultra hd-resolutie aan

Dell heeft op de Siggraph-conferentie een 32"-monitor met een resolutie van 3840x2160 pixels aangekondigd. De Dell UltraSharp 32 zou dankzij de igzo-schermtechniek een kleurbereik van 1,07 miljard kleuren hebben.

Dell richt zich met de monitor op professionele gebruikers. Dat blijkt niet alleen uit het hoge aantal kleuren dat het paneel kan produceren, maar ook uit de bijgeleverde software. Die software geeft namelijk toegang tot de lookup table, waarmee het scherm gekalibreerd kan worden.

De UltraSharp 32 staat op een aluminium voet, in tegenstelling tot de plastic onderstellen die Dell bij veel andere UltraSharp-monitors meelevert. Het scherm beschikt ook over een ruime hoeveelheid aansluitingen; displayport en mini-displayport zijn aanwezig, naast een hdmi-aansluiting. Een usb-hub en een sd-kaartlezer zijn eveneens aanwezig, meldt Engadget.

Dell zal de 32"-monitor in het vierde kwartaal van 2013 uitbrengen. Het is nog niet duidelijk of het scherm dan ook in Nederland uitgebracht zal worden en tegen welke prijs dat zal zijn.

Door Jelle Stuip

Redacteur

24-07-2013 • 10:03

112 Linkedin

Reacties (112)

112
108
86
8
0
5
Wijzig sortering
Pixeldiepte lijkt eindelijk ook iets beter, 10 bits (1.07 miljard = 1073741824 = 2^30, dus 10 bits per kleur.).
En die diepte mis ik bij de meeste schermen het blijft maar 8 bits.
Zolang het true 10 bit is, en niet door internal processing (wat vaak gebeurt) :/
Bij een scherp waarbij je toegang hebt tot de LUT, is de kans erg groot dat het ook echt 10 bit is.
Aangezien mensen maar ongeveer 7bit RGB kunnen waarnemen, is het niet zo erg wanneer het scherm 'slechts' true 8bit weergeeft.

Die 10bit zijn alleen voor kalibratie en niet voor de waarneming.
Waar je met 10 bits dan ook alleen iets kunt als je complete workflow 10 bits is, inclusief je videokaart en software bewerkingsprogramma's.
Kleurdiepte, niet pixeldiepte.
Zie Anandtech voor een review van een vergelijkbaar scherm. Ook de comments geven veel info.
ik vraag me of het meetbaar is wat het menselijk oog kan waarnemen vertaald naar resolutie en pixel dichtheid. Dit is de resolutie waar we naar toe moeten :).
Het menselijk oog kan zon 580MP waarnemen volgens onderzoek van Cambridge.
En voor perfecte weergaven zullen de individuele pixels het formaat van atomen moeten hebben.
Immers willen we binnenkort natuurlijk hologrammen omdat 3D het net niet is en daarvoor zitten we nu al op een PPI van over de 10.000.
Bullshit. De pixels hoeven helemaal niet zo klein te worden.
De resolutie van het menselijk oog is gewoon bekent. (Uit mijn hoofd: 1 boogminuut)

Komt er op neer dat de gemiddelde persoon op een afstand van 25cm ongeveer 300 dpi kunt onderscheiden. Bij grote afstand zakt het aantal dpi evenredig. Dus op 50cm heb je maar 150 dpi nodig.
Zo makkelijk werkt het volgens mij helemaal niet.
Een enkele pixel die uitschiet is veel makkelijker te herkennen dan een pixel die lijkt op zn buren. Er is ook een samenhang met helderheid.
Daarnaast verschilt de sensordichtheid van het oog. Alleen de dingen waar je precies naar kijkt zijn van hoge resolutie.
Verder kunnen je ogen over tijd middelen. Hoe langer je dus naar iets kan kijken hoe groter de resolutie.
Ik kan mij eigenlijk dus niet voorstellen dat er precies 1 resolutie va het menselijk oog bekend is. De resolutie van ons oog is een dynamisch gegeven dat zowel door inwendige als door uitwendige factoren wordt beinvloed.
Een enkele pixel die uitschiet is veel makkelijker te herkennen dan een pixel die lijkt op zn buren.
Daarom schreef ik ook onderscheiden. Op een zwarte achtergrond is de kleinste pixel nog te herkennen, mits hij helder genoeg is. Maar met resolutie heeft dat niets te maken. Dat is dan analoog met sterren... Die zijn veel kleiner dan de resolutie van je oog, maar door de helderheid kun je ze onderscheiden. Maar ze zien er allemaal veel groter uit, namelijk de resolutie van je oog.

Je ogen lijken weinig tot niet te middelen... Het scheidend vermogen dat je meet bij mensen, komt overeen met wat je verwacht uit de grootte van pupil, en afstand tot je netvlies.

De resolutie van je oog is inderdaad niet constant. Alleen in het uitertste midden kunnen we daadwerkelijk scherp zien. Daarbuiten is de resolutie veel lager. Maar omdat we continue met ons oog 'scannen', lijkt het alsof we over een veel grotere hoek scherp kunnen zien. De vermelde resolutie komt overeen met het midden.

De enige uitwendige invloed is de hoeveelheid licht... Bij veel licht, knijpen we de pupil, en gaat de NA van je lens naar beneden. En dat kan de resolutie beperken.
"Daarom schreef ik ook onderscheiden. "

Noted. :)

Ben het niet eens met dat ogen niet middelen. Heb jij wel eens ernstig last gehad van aliasing in je beeld als je naar fijne details kijkt? Nee? Dat komt omdat je ogen middelen. :) Zonder een spatiale filer zou het beeld dat we zien enorm storend zijn. Ook is er een temporale filter die voor een deel bijdraagt aan spatiale filtering.
Hoe dan ook kan het onderscheidend vermogen niet alleen aan de pupil en netvielsafstand liggen maar ook aan de (dynamische) lens waar ook nog eens vloeistof overheen vloeit. Je zei al dat je ogen altijd bewegen, maar dat betekent dus ook dat het onderwerp constant over je netvlies schuift. Hierdoor is het beeld dat je werkelijk waarneemt bijna nooit echt scherp. Pas bij intergratie wordt de scherpte ingeschat en dan als het ware als beeld gerenderd. Je kan je hersenen dan ook voor de gek houden door voorwerpen die niet scherp zijn maar die bewegen toch scherp voor je hersenen te laten doen lijken. Die scherpte wordt voor een deel dus gewoon synthetisch toegevoegd vanuit geheugenpatronen.
Vergeet niet dat al dit soort testen de hersenen meerekenen als deel van het systeem. Al die neuronen zijn enorm geschikt om details te reconstrueren uit lossige data. De vraag is dus altijd of je dan het optisch systeem meet of ook de processing die het eigenlijke beeld in je bewustzijn vormt.

Ik denk dat als je uberhaupt op 1 waarde uitkomt dat je per definitie een specifieke situatie aan het testen bent.
Zo neemt bijvoorbeeld de resolutie bruut af als het voorwerp beweegt.

Als je al dit soort dingen opsomt dan krijgt die resolutie die je noemt nogal wat voorwaarden.
Er moet genoeg contrast zijn, de pupil moet dichtgetrokken zijn, de lens van het oog moet optimaal zijn (is bij de meeste mensen niet zo), het voorwerp moet stilstaan, het voorwerp moet actief waargenomen (gevolgd) worden en er moet genoeg tijd zijn om het detail te zien en DAN halen we binnen een bepaald bereik een bepaalde resolutie, al zal die per persoon afwijken.

Vandaar dat ik het niet eens was met een stelling dat er een soort standaardresolutie te bepalen valt voor het oog.
Ik denk ook niet dat het onderzoek waar jij je cijfers op baseert een bepaalde resolutie probeerde vast te stellen maar meer gericht was om de grenzen te verkennen binnen de door hen gestelde experimentruimte. Dat zoiets door media wordt opgepikt als een hard gegeven valt te verwachten.
In de praktijk zal blijken dat naarmate de pixeldichtheid toeneemt steeds minder mensen pixels gaan zien. Maar een magische grens is er niet, althans, geen harde.

[Reactie gewijzigd door koelpasta op 25 juli 2013 21:03]

afstand word verdubbeld dus de oppervlakte word (2xl &2xb=) 4x zo groot ofwel:

300/4= 75 dpi

Wat echter wel interesant is dat sommige (jonge) mensen ook beter kunnen zien dan het gemiddelde. Zo zie ik op een normale afstand de afzonderlijke pixels van de huidige monitoren (de zwarte lijntjes om de witte pixels van bijv. de achtergrond van tweakers).
AHBdV heeft gelijk :) Al vergeten mensen vaak dat 2 keer zo groot 4 keer zoveel oppervlakte en 8 keer zoveel volume is, boogminuten en dpi zijn beiden lineaire maten. Het is immers geen dot per square inch.
Het is immers geen dot per square inch.
Dat is sowieso een rare grootheid. Dot pitch of pixel pitch is sowieso een ééndimensionale maat. Er wordt in marketing nooit gesproken over het aantal pixels per oppervlakte-eenheid.
Het menselijk oog kan een punt waarnemen die ongeveer 1/60e van een graad is.. één boogminuut.
Beetje afhankelijk van constrast ed. maar een zwart puntje op een wit scherm moet dan nog zichtbaar zijn. Je kan dan uitrekenen wat de maximale DPI van een scherm zal.

(te warm om zelf uit te rekenen... :O )

@mjtdevries: bedankt voor de uitleg

[Reactie gewijzigd door Ursus Grumpious op 24 juli 2013 13:14]

Die één boogminuut is het scheidend vermogen van het oog.

En het scheidend vermogen is NIET de mogelijkheid om 1 zwart puntje op een scherm te zien.
Bij het scheidend vermogen gaat het juist om de mogelijkheid om 2 zwarte puntjes op een scherm die naast elkaar staan nog als afzonderlijke puntjes te onderscheiden.

Op 25cm afstand moeten de puntjes op minimaal 0.07mm afstand van elkaar staan wil iemand ze nog als twee aparte puntjes kunnen waarnemen.
Maar de meeste mensen hebben geen perfecte ogen en hebben zo'n 0.1 tot 0.2mm nodig.

Maar als het om 1 enkel zwart puntje gaat op een wit scherm gaat, dan kan je dus ook waarnemen als dat puntje veel kleiner is.
Je kan het niet scherp waarnemen omdat je scheidend vermogen daarvoor niet goed genoeg is, maar je neemt wel een zwarte blur waar.
Is in principe meetbaar op enkele pixel op zwart/wit, maar met overlopende kleuren lijkt me dit al een bizar stuk moeilijker. (dat je ziet dat het scherper is, logisch, maar echt onderscheid maken in de resoluties, lijkt me klein).

1080p is nog genoeg voor mij, gros van de games draait erop :P
Thats 128PPCM (326DPI), and what you refer to is what Apple calls "retina" for mobile devices that you hold right in front of your face.
Ik heb ergens gelezen dat 900 PPI de absolute grens is. Met 900 PPI kan zelfs de persoon met de beste ogen in de wereld (factor A) op welke afstand (faktor B) van het scherm dan ook geen pixels meer onderscheiden.

Vanzelfsprekend wordt een praktische grens al bij een lagere PPI bereikt.
voor een mooi zuiver beeld is 200ppi toch echt wel wenselijk
met deze resolutie spreken we dan over een scherm van 22" (geen 32" zoals dit scherm)
IMHO is dat onzin, 22" met zo'n resolutie, dan maak je uiteindelijk toch weer geen gebruik van de native resolutie, omdat alles dan veel te klein is, en daarmee vervalthet nut dan eigenlijk om zo'n hoge resolutie te hebben IMHO.. Naast het feit dat je voor dit soort resoluties toch ook een degelijke kaart nodig hebt (zeker voor gaming), want een budgetkaartje gaat het niet trekken met alles aan.. (hell, zelfs single gpu highend kaarten hebben er al moeite mee)..
ppi is een compleet zinloze waarde als je er niet de afstand bij zet waarop je er naar kijkt.

zie ook de reactie hierboven van AHBdV.
And so it begins... de pixel dichtheid oorlog in desktop monitoren.
heel goed, kom maar op!
Ja, bring it alsjeblieft on! Vraag me wel af welke actieve resolutie deze schermen gebruiken...? Gezien de resolutie is het gewoon full-hd, dan is alles wel een stuk scherper op dit 32" scherm, maar je hebt net zoveel ruimte voor content als op mijn 15,6" laptopscherm... Dat vind ik dan weer minder aantrekkelijk, had liever de 2560x1440 resolutie van bijvoorbeeld de U2711 KNETTERscherp gehad...

EDIT: Ik begin echt weinig te begrijpen van hoe dat modden hier gaat, volgens mij zeg ik hier wel iets interessants. Het beeld wordt scherper, maar ten opzichte van mijn 15,6" scherm, schiet ik er qua content niks mee op... Waarom is dit off-topic?

[Reactie gewijzigd door jorrit91 op 24 juli 2013 10:35]

De resolutie van dit scherm is Ultra HD, oftewel 3840x2160. Da's weer een paar stapjes hoger dan een U2711. ;)
ik heb het over de actieve resolutie, waarschijnlijk wordt 1920x1080 (aangezien full-hd x2 deze resolutie opleverd, iemand hier een bron bij?) geschaald naar deze resolutie, EFFECTIEF schiet je er dus niks mee op, alleen wordt het beeld scherper...
Het lijkt me ZEER onwaarschijnlijk dat men een 32" scherm de content ruimte van slechts full HD zou meegeven. Ik heb zelf een Ultrasharp op 27" 2560, en deze is prima leesbaar. Met 5" extra diagionaal, wat werkelijk extreem veel groter is, kunnen die extra pixels er gewoon native bij, zonder terugschaling.

Ook qua toepassing zit natuurlijk niemand te wachten op een 32" scherm met slechts de ruimte van HD content. Het idee is nu juist om een monitor te hebben waarop veel past. Een high res foto vol in beeld, een groot 3d model helemaal in een scherm passen of een technische tekening in CAD.
Waarom zou je in hemelsnaam een 3840x2160 scherm kopen en hem vervolgens op een veel lagere resolutie instellen? Als je full-HD wil, koop dan een gewoon 1080p scherm, dat scheelt enorm veel geld. Deze draai je gewoon in native resolutie lijkt mij, net als elke andere lcd.

[Reactie gewijzigd door Bonez0r op 24 juli 2013 10:49]

Vanaf een bepaalde resolutie word de native resolutie nu eenmaal gewoon te klein. We gaan van het concept van die 1:1 mapping moeten afstappen. Apple heeft dit al gedaan bij de retina macbook, de x2 is natuuriljk wel extreem maar de scaling opties werken goed, terwijl de resolutie altijd hetzelfde blijft.

Dat op 32" de native resolutie nog leesbaar blijft kan misschien zo zijn, maar doet weinig ter zake, ik hoop bvb op een 24" ultra hd monitor en dan zal native toch echt te klein worden.
Er is niet zoiets als een resolutie die "te klein" is (dat slaat taalkundig ook nergens op, resoluties zijn laag dan wel hoog), enkel scaling die "te slecht is". Het is aan applicatieontwikkelaars om te bepalen hoe hun applicaties schalen. Vanaf Windows Vista valt in te stellen hoe de GUI van het OS zelf schaalt. Apple gebruikt de 'pixel doubling' overigens enkel als de app geen hoge-DPI mode ondersteunt.
Hogere resolutie zorgt er bij goede schaling enkel voor dat alles scherper is en niet dat elementen te klein worden.
UHD = 4K

[Reactie gewijzigd door SurfHost op 24 juli 2013 10:54]

Zou niet inzien waarom de native resolutie niet ook de actieve resolutie zou zijn. Dat Apple die 2x truc gebruikt, wil nog niet zeggen dat Dell dat ook gaat doen.
Die Dell laat gewoon zien wat hij aangeleverd krijgt, de pc levert het beeld en met instellingen zal je dus zelf kunnen kiezen of je het op native zet of 200% of iets anders.
deze resolutie (4K UHD) is full-HD x4 aangezien ze in elke dimensie verdubbeld.

TFT's en LCD's hebben trouwens een vaste pixeldichtheid, de tijd van de CRT is alweer een jaartje of 10 voorbij.
Omdat je blijkbaar het bericht niet goed gelezen hebt. Het scherm heeft een UHD resolutie en niet een HD resolutie, zoals jij insueert.

Voorts, hoe het modden hier werkt: in beginsel wordt geacht dat men naar de toegevoegde waarde van een post kijkt. Off-topic, irrelevant en flame behoren een 0 dan wel -1 te krijgen. Alles daarboven is in principe on-topic (+1), informatief (+2) of spotlight (+3).

Posts die wel on-topic zijn, maar waar klaarblijkelijk uit blijkt dat het bericht amper is gelezen, alsmede fanboyposts, willen nog wel eens in de lagere regionen eindigden.
Foute info zou ook -1 of 0 moeten krijgen zodat die info niet meer leesbaar wordt voor anderen.

Mooie evolutie in monitor land, ben eens benieuwd hoe lang het gaat duren voor deze schermen ook voor gewone consumenten betaalbaar gaan worden.
Je punt heeft niet zozeer met deze monitor alswel met het OS en de software die er output heensturen te maken.

Deze monitor is gewoon UHD, ik zou verwachten dat dat een stuk scherper beeld oplevert als je gewoon de native resolutie in windows instelt en dan daarbinnen de interface op 200% zet ofzo, dan rendert het OS de windows groter, maar wel met gebruik van alle beschikbare pixels. En content als foto's of tekeningen worden natuurlijk stukken scherper aangezien die niet meer gedownscaled hoeven te worden om op je monitor te passen.

Ik zou zo'n resolutie best tof vinden voor bv audiobewerking, dan zijn die 40 metertjes ineens allemaal op het scherm te zien :9 Maarja, dan wil ik eigenlijk ook meteen twee van die dingen. Over een jaar of 3 zijn er vast betaalbare consumentenedities op deze resolutie.
Ik begin echt weinig te begrijpen van hoe dat modden hier gaat, volgens mij zeg ik hier wel iets interessants. Het beeld wordt scherper, maar ten opzichte van mijn 15,6" scherm, schiet ik er qua content niks mee op... Waarom is dit off-topic?
Het is niet off topic maar het doet niet echt ter zake.

Dell geeft een native resolutie op van 3840x2160. Dat is de maximale resolutie die het scherm kan weergeven.
De actieve resolutie staat daar los van. Deze kan in de beeldafstellingen worden ingesteld. De maximale actieve resolutie voordat je buiten de weergave mogelijkheden van het scherm gaat is 3840x2160. Alles daaronder is wat je eventueel zelf instelt.

Dit is gewoon een normaal PC scherm wat gewoon weergeeft wat het aangeleverd krijgt.
Tuurlijk kun je meer op je scherm zien, zolang je Windows niet 200% zet kan er dubbel zoveel op je scherm. Hoe het op een Mac werkt weet ik niet, maar een hogere resolutie betekent gewoon dat er meer op je scherm past.
sure, een scherm voor de professionele markt dat standaard de boel staat te interpoleren...
ik snap zelf niet hoe Apple daar mee wegkomt (vroeger had Apple toch wel een goede naam in die industrie)
Omdat, als je 1:1 blijft mappen, je elementen in het scherm 2x zo klein worden bij een 2x zo hoge resolutie. En dan is het niet meer bruikbaar. Wat Apple dan doet is het element 2x zo groot weergeven, maar wel op een hogere resolutie. Het beeld wordt toch scherper en gedetailleerder, en dat vertaalt zich in smoother fonts, scherpere iconen en gedetailleerder foto's.
Dus misschien is het een beetje ongefundeerd wat je hier stelt.
Heb je wel gezien dat dit een 32" monitor is?!?! Daar is native absoluut niet te klein.

En verder is het natuurlijk een taak van het OS om de zaken goed te schalen. De monitor zelf doet dat niet. Ook niet bij Apple.
Heb je wel gezien dat dit een 32" monitor is?!?! Daar is native absoluut niet te klein.
Dat valt nog te bezien. 2560x1600 op 30" vind ik zelf wel prettig, maar anderen (ook niet-brildragers) vinden het vaak wel wat te klein (als Windows op standaardinstellingen staat). 3840x2160 is toch wel weer een stuk hogere pixeldichtheid.
Voor die gedetailleerdere foto's en plaatjes in je browser heeft de websitemaker zijn website wel moeten optimaliseren, en dit is in 90% van de gevallen nog niet gebeurd. Hierdoor kom je ontzettend veel website's tegen waarvan de plaatjes er een beetje blurry uitzien, en dat effect vind ik persoonlijk weer onzettend lelijk.

Ik vind dat 4k op een 32" monitor niet vervelend is. Op 15,6" laptops met een Full-HD resolutie valt ook goed te werken waarbij de ppi dus zelfs nog een klein beetje hoger ligt.
True, erg blij mee.
Maar wel jammer dat het hier een 16:9 monitor betreft. Dat komt op mij niet heel professioneel over eigenlijk. Misschien handig als je in de filmindustrie werkt maar voor vrijwel al het andere werk is een minder brede verhouding prettiger.

Nu afwachten wat de prijs gaat worden, de Asus PQ321 met dezelfde resolutie wordt verkocht voor zo'n $3500. Dat scherm is wat meer op de consument gericht, grote kans dus dat deze Dell monitor duurder wordt.
dit is inderdaad een 16:9 scherm, maar vergeet niet dat het 32" is!
de hoogte van het scherm is net geen 40cm met 2160 pixels
dit scherm is trouwens 137ppi wat nog best meevalt
dit is inderdaad een 16:9 scherm, maar vergeet niet dat het 32" is!
de hoogte van het scherm is net geen 40cm met 2160 pixels
dit scherm is trouwens 137ppi wat nog best meevalt
De grootte van het scherm doet weinig af aan de beeldverhouding. Ik vind 16:9 stukken minder prettig werken dan 16:10, en dan maakt het weinig uit of ik nu op m'n 11" notebook werk, of op een 24" monitor.
Serieus? Volgens mij gaat het om verticale resolutie. Die met 1080 vaak aan de krappe kant en is 1200 merkbaar beter, maar ga je naar 1440 of zoals hier 2160 dan is dat heel lekker en maakt de breedte hoogte verhouding niks meer uit omdat het knelpunt verticale resolutie adequaat is opgelost.
Serieus? Volgens mij gaat het om verticale resolutie. Die met 1080 vaak aan de krappe kant en is 1200 merkbaar beter, maar ga je naar 1440 of zoals hier 2160 dan is dat heel lekker en maakt de breedte hoogte verhouding niks meer uit omdat het knelpunt verticale resolutie adequaat is opgelost.
Natuurlijk is de verticale resolutie belangrijk, maar ik blijf 16:9 een rotverhouding vinden. Op hogere resoluties kan ik meer schermen naast elkaar zetten, maar dan blijft die verhouding imho gewoonweg niet zo lekker. Je krijgt meer pixels in de hoogte, maar ook in de breedte, de verhouding blijft 'tzelfde.
Op een 32" monitor voor professioneel gebruik kan ik dit in ieder geval nog begrijpen, bij Smartphones slaat het op niks meer.
Bij smartphones gaat het er vooral om wie de langste heeft, het praktisch nut ontgaat mij al sinds men boven 720p schermpjes uit komt op een oppervlakte van een paar inch. Totaal nutteloos, leuk voor de e-peen maar verder vooral weggegooid geld. En maar stug volhouden dat het zo prettig in je zak zit, die 6 inch plak...

OT: ik zie het nog wel meer dan 3 jaar duren voordat dit soort schermen naar de budget- en midrange komen. De doelgroep is te klein... Dell is vooralsnog vrijwel de enige (Westerse fabrikant dan) die een midrange scherm aanbiedt boven 1080p en het is niet alsof ze daar mee te koop lopen... Dat zegt genoeg - even die totaal onhandige 21:9 schermpjes buiten beschouwing latende.

[Reactie gewijzigd door Vayra op 24 juli 2013 12:41]

Nou, het gaat hier alsnog om een 32" scherm, met deze resolutie.. en 32" vindt ik voor een monitor toch wel heel HEEL erg groot om op je bureau te hebben.. maargoed ieder zijn ding..
Wat voor videokaart om prettig met die resolutie te werken? Volstaat de gemiddelde IGP?
Heel simpel: de resolutie is vier keer zo groot als HD. Dus als je nu een HD monitor hebt met een videokaart die daarvoor precies snel genoeg is, heb je voor dit Dell scherm vier van die videokaarten nodig - of één videokaart die 4 x zo krachtig is.

Aangezien de top-end videokaarten van vandaag minder dan een factor twee sneller zijn dan de mainstream kaarten, zal een enkele high-end kaart zeker niet voldoende zijn om vloeiend te kunnen gamen op dit scherm.

Voor gamers met een niet-onbeperkt budget is deze monitor voorlopig niet zo interessant.
ik denk niet dat het zó linear schaalt.
ligt er natuurlijk aan wat je er mee doet, doe je standaard windows, dan zal een IGP daar nog niet zo'n moeite mee hebben, doe je gaming met alles op full, dan heeft zelfs een single gpu highend kaart er nog moeite mee om het nog met een redelijke fps te tonen..
als je standaard dingen doet die niet erg GPU intensief zijn kom je er wel mee weg. als je gaat gamen zul je een GPU moeten hebben met veel geheugen. de nieuwere high-end's zijn al iets meer gericht op hogere resoluties en komen in benchmarks vaak beter tot hun recht in hogere resoluties ten opzichte van kaarten die hetzelfde scoren op 1080P. kijk bijvoorbeeld maar naar de Titan van Nvidia. Maar je moet je afvragen of je wel wilt gamen op deze resolutie. Veel games hebben een vrij lage texture resolutie. Dit heeft te maken met het feit dat de meeste developers ontwikkelen voor Consoles en dan hun games porten naar de PC. wat je dan krijgt is dat de textures ge-upscaled worden van beeldmateriaal dat al van lage kwaliteit was vanwege hardware limitaties van de huidige consoles. we zouden eigenlijk eerst screenshots moeten vergelijken om het verschil te kunnen beoordelen. Wellicht kan je kijken naar benchmarks van surround en eyefinity opstellingen (3 of meer schermen). aan de hand daarvan kom je denk ik wel in de buurt van wat je nodig zou moeten hebben.
De resolutie 'oorlog' bij kleine schermen is al in volle gang. Al jaren roepen mensen dat de desktop schermen nu ook eens eraan moeten geloven. Beginnen ze met een 32" scherm.... Hallo! Er zit nog heel wat tussen 10,1 en 32"!!! Eigenlijk alle formaten die men dagelijks gebruikt! Schiet niet op dit. Ook die prijzen zijn weer lekker betaalbaar te noemen. Zo gaat het nog 10 jaar duren voordat we op 24" meer zien dan fullHD.
Anoniem: 516179
@ronny24 juli 2013 12:04
Yay een paar honderd pixels in de hoogte meer. Jammer alleen dat mijn 24" uit 2008 ook al die resolutie heeft. De industrie heeft met het hele full HD een stap achteruit gedaan door ineens alles 16:9 te maken ipv 16:10 waar daarvoor 16:10 de standaard is.

Feit is dat sinds 2006 ofzo de resoluties op desktopmonitoren niet hoger zijn geworden, buiten dat er wat extreem grote 27" en 32" modellen bij zijn gekomen met een iets hogere resolutie. Daar waar de telefoonschermen wel een enorme revolutie hebben doorgemaakt qua pixeldichtheid. Er zijn tegenwoordig telefoons met 4" schermen welke een hogere resolutie hebben dan mijn 24" monitor.

Veel mensen zit het gewoon enorm dwars dat ze jaren geleden een 24" high res / high end monitor gekocht hebben en nu deze beginnen te verslijten er nog steeds geen model beschikbaar is met een hogere pixeldichtheid. Dit terwijl men wel op de telefoon het grote voordeel van een hogere pixeldichtheid ziet.
tja, maar noem nou eens werkelijk het nut op van nog hogere resoluties op een normale desktop computer? leuk voor tussen je oren al die pixels maar wat voor nut heeft het als je uiteindleijk dan maar je fonts groter zet omdat je anders niet de tekst kunt lezen, waarmee je het nut van de native resolutie weer wat minder maakt..

Ik werk nu zelf met 2x 24" 1920x1200 (Samsung SyncMaster SA850) en dit werkt heerlijk, ik zit niet echt te wachten op nog hogere resoluties, want in veel gevallen trekt zelfs een beetje fatsoenlijke videokaart dat (veel hogere resoluties) toch niet voor gaming (met alles aan).. Dus IMHO mogen ze eerst nog eens zorgen dat zelfs een midrange kaart geen moeite heeft met deze resoluties (en alles dus op full bij games) voordat men met de schermen verder gaat..
Het nut is dat je fonts door meer pixels worden opgebouwd, en daardoor beter leesbaar zijn. Daardoor kun je dan ook daadwerkelijk een Times New Roman op het scherm zetten, i.p.v. iets dat er een beetje op lijkt...

De reden dat mensen ClearType niet altijd mooi vinden, is omdat ClearType de daadwerkelijke fonts op het scherm zet, en niet een verbastering er van. En dan krijg je lettertypen met 1,5 pixel brede stam e.d.. Zelfs met de hogere effectieve resolutie door het gebruik van de subpixels, is dat vaak nog niet scherp genoeg.

Hogere resolutie betekent gewoon betere leesbaarheid. En dát betekent minder vermoeidheid bij het lezen van een computer scherm!
simpel: dergelijke panelen zijn vreselijk duur
de markt met "kleine" schermen wordt gedomineerd door goedkope troep (de meeste mensen willen geen duur scherm en als het goedkope ook "werkt")

de markt voor kleine dure schermen is zo mogelijk nog kleiner als de grote dure schermen, want de mensen die daadwerkelijk meer willen uitgeven, maken snel de stap om een groot model te kiezen
Computerschermen zitten al jaren op hogere resoluties dan TVs, blijkbaar is er te weinig vraag (geweest) voor nog hogere resoluties. En nu gaan de marketing jongens en meisjes je vertellen dat ultra HD noodzakelijk is voor jou... joepie!...
De Ultrasharp 27" zijn nu ook best gunstig geprijsd! Ik verwacht dat deze echt wel redelijk te betalen is straks :)
Het scherm beschikt ook over een ruime hoeveelheid aansluitingen; displayport en mini-displayport zijn aanwezig, naast een hdmi-aansluiting..
Hopen dat ie ook Quadlink/Duallink-3G/HD-SDI connectors input heeft! }>


edit quote

[Reactie gewijzigd door poor Leno op 24 juli 2013 10:25]

Maar deze monitor is niet te vergelijken met de Ultrasharp 27", dat is bv geen igzo scherm.. ga er maar vanuit dat je waarschijnlijk 3K a 4K neer mag tellen voor deze professionele 32".
Waarom Quadlink/Duallink-3G/HD-SDI? Met DisplayPort kan je toch prima dat scherm volledig aansturen?

3840 × 2160 × 30 bpp @ 60 Hz zit volgens mij zelfs in de meest basale DP spec.
Om camera's direct aan te hangen en als afkijk-monitor te gebruiken :)
Even rekenen en je komt uit op 138ppi. Mijn 27" is 109 ppi en dat wil nog net qua lettergrootes op hedendaagse websites (met mijn jonge ogen).

Met dit scherm wil je waarschijnlijk wel wat zoomen.
Even rekenen en je komt uit op 138ppi. Mijn 27" is 109 ppi en dat wil nog net qua lettergrootes op hedendaagse websites (met mijn jonge ogen).

Met dit scherm wil je waarschijnlijk wel wat zoomen.
Ik zou dat juist denk ik niet willen. Ik werk nu op een schermpje met ~135ppi (1366*768 op 11.6"). Dat is wel wat kleiner dan het gemiddelde scherm, maar ik vind het meer dan prima werken, ook als ik er een eindje vanaf zit.
Het word tijd dat het OS eens beter omgaat met high-res schermen.

Heb de afgelopen weken een Helix getest met een 11,5" scherm op 1920x1080.
Dat is ook in windows8 nog steeds rampzalig. Je fonts op 150% weergeven ziet er goed uit, maar een heleboel applicaties kunnen er totaal niet mee overweg. (ook juist veel Microsoft applicaties)

Uiteindelijk maar gewoon een andere resolutie gekozen. Ziet er minder goed uit, maar dan blijft alles normaal functioneren.

Heel jammer dat Microsoft 10 jaar geleden al het belang van hoge resolutie schermen bepleitte, maar er zelf nog steeds het OS niet op aangepast heeft.
iedereen wordt spontaan blij met de hogere PPI maar daar staat tegenover dat geen enkele normale videokaart je games op die resolutie in hoog detail aan je voor kan schotelen.

Dus dan ga je in een lagere resolutie spelen en dan is het gelijk 3x zo lelijk als je gewend bent. Het is niet zo'n simpele stap voorwaards als men denkt want je videokaart zal 4x zoveel pixels moeten gaan renderen.

Speel je geen games is het natuurlijk alleen maar top op de prijs na want de asus kost maar $3500 ;) maar voor gamers is het nog best een obstakel.

[Reactie gewijzigd door Hakker op 24 juli 2013 10:57]

onzin, het voordeel van dit scherm is dat de resolutie exact het dubbele is van full HD
als je dus een game gaat spelen op dit scherm op 1920x1080 gaat het er exact hetzelfde uitzien als op een full HD scherm
als er een goede upscaler in zit, kan het er zelf beter uitzien!

je mag dit niet verwarren met bv gamen op een full HD resolutie in 720x1280: met dergelijke verschaling moet elke pixel omgezet worden naar anderhalve pixel wat er dikwijls vrij slecht uit ziet
Dit is Quad HD.
Dus 4x Full HD niet 2x. ;)

@Relief2009 Je kan ook Game Developer zijn, dat is ook een professional. Die zullen wat extra pixels ook zeker niet vervelend vinden en moeten hun werk natuurlijk ook testen.
Ik denk niet dat je games op dit wil spelen. Dit is voor professionals die het voor serieus werk gebruiken.

Eerst artikel lezen ;)
Ik denk niet dat je games op dit wil spelen. Dit is voor professionals die het voor serieus werk gebruiken.

Eerst artikel lezen ;)
En dat zou betekenen dat je het scherm niet voor gaming kan gebruiken?
Ik heb een 30" monitor staan die gericht is op de zakelijke markt... maar ik game meer dan zat op het ding. En dat gaat juist prima, er zit een fatsoenlijk paneel in dat ding, waardoor hij nu 4 jaar later nog steeds prima bruikbaar is.
Ziet er goed uit... benieuwd voor welke prijs deze over de toonbank gaat,
Volgens ComputerIdee heeft Sharp een vergelijkbaar model uitgebracht een tijdje terug, deze ging over de toonbank voor 4000 Euro (excl. BTW) .. dus 't zal diep tasten zijn in de geldbeugel vrees ik.

[Reactie gewijzigd door imp4ct op 24 juli 2013 10:12]

Sterker nog, een 30" 2560x1600 is al duizend euro, ik verwacht dat deze begint bij twee duizend..
Voor 2000 euro wil ik m gelijk hebben. Voorlopig zitten die vele duizenden euro's hoger. die van Sharp inderdaad rond de 6K nu.
Op professional imaging was er een monitor van Eizo met deze resolutie. Die ging voor 16K over de toonbank...
Volgens ComputerIdee heeft Sharp een vergelijkbaar model uitgebracht een tijdje terug, deze ging over de toonbank voor 4000 Euro (excl. BTW) .. dus 't zal diep tasten zijn in de geldbeugel vrees ik.
Sharp heeft die igzo techniek toch uitgevonden? Tis dus ook niet zo vreemd dat die monitor UltraSharp heet...

En zoals gezegd, dit is een monitor die bedoeld is voor de professionele markt, dus de meeste mensen zullen geen 4000 euro uitgeven om een beetje emails te checken en te surfen.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee