Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

MSI toont gebogen gamingmonitor

Door , 114 reacties

MSI heeft zijn eerste gamingmonitor onthuld. De Optix G27C beschikt over een gebogen 27"-paneel met een full-hd-resolutie. MSI adverteert vooralsnog met name met het product als onderdeel van een bundel, maar het lijkt ook los beschikbaar te komen.

MSI geeft aan dat er een Samsung-paneel in de monitor is verwerkt. Hierbij wordt niet aangegeven welke techniek gebruikt wordt, maar de hoge contrastratio van 3000:1 en andere specificaties die sterk lijken op die van de Samsung C27FG70, duiden erop dat het scherm over een va-paneel beschikt.

Het scherm heeft een maximale helderheid van 300cd/m² en kan 85 procent van het ntsc-kleurengamut en 110 procent van srgb vertonen. De responstijd is 8ms en de gtg-tijd is 4ms. De maximale refresh rate van het scherm is 144Hz. De monitor kan op een computer aangesloten worden met een hdmi 1.4-, displayport 1.2- of dvi-kabel.

Het is de eerste monitor van MSI. Het bedrijf heeft eerder wel aio-computers geproduceerd, maar geen monitoren. Op de productpagina vermeldt MSI dat het gaat om een 'tijdelijke bundelactie', maar onder andere bij Newegg Canada staat de monitor ook los te koop, voor 450 Canadese dollar. Omgerekend en met btw is dat 390 euro.

Reacties (114)

Wijzig sortering
Ik ben absoluut fan van curved monitoren. Maar ben toch wel echt van mening dat dit alleen handig, fijn en mooi is bij ultra wide schermen. Op zo'n relatief klein scherm als dit heeft curved toch geen enkel voordeel? Dit lijkt mij echt alleen maar irritant.

Het mooie van curved is als je op een 34" of 38" ultrawide scherm speelt het scherm wat "natuurlijker" aanvoelt omdat het toch net wat lekkerder in je zichtveld zit.

Dan ook nog 27" met Full HD..
Ik vind het erg goed dat er nieuwe producten komen op dit gebied, maar maak er dan op zijn minst flat + 1440p van of ultrawide curved + 1440p van..
terecht... curved bied naar mijn mening maar voordelen bij grote schermen.

Dan spreek ik over TV's en zo, 40" of meer.
Juist niet bij TV's. Volgens mij is het hele idee achter gebogen schermen dat het gehele scherm op ongeveer dezelfde kijkafstand zit van je ogen (dus een hoek niet een stuk verder dan het midden). Dat heeft dus alleen zin bij 1 gebruiker (zoals bij computer-werkstations).
Een TV is bedoeld voor in de huiskamer en wordt vaak door een hele groep (bv een gezin) tegelijk gebruikt. Een gebogen TV-scherm is daarom redelijk debiel, daarmee vergroot je alleen de kijkhoek aan de zijkant voor mensen die er niet recht voor zitten.
Ik wou precies hetzelfde zeggen. Ik gebruik al anderhalf jaar een 3440x1440 34" curved monitor en ik wil niets anders meer. Maar een curved TV heeft echt geen nut, of in ieder geval in heel weinig situaties.

De ideale situatie is dat je ogen steeds in een hoek van 90° op het scherm neerkijken. Wie een curved TV koopt, betaalt extra om een probleem op te lossen dat er niet/amper is. Bij grote PC schermen waar je kortbij zit is dit wel een reëel probleem.

[Reactie gewijzigd door shier50 op 16 december 2016 16:13]

Een vriend van mij heeft een curved TV. Hardstikke mooi om te zien hoor, maar als je maar een beetje off-axis zit is het beeld slechter. Een vlak scherm presteert veel en veel beter.
Fullhd op 27 inch. Dat wordt pixels tellen!

Had wat meer verwacht van MSI. Dit doet denken aan de acer lineup...
Typisch een reactie redenerend vanuit de 4K+ mentaliteit. Meer pixels is beter!
En alles wat lager is zal wel een stap terug zijn. Maar met deze resolutie icm 27" is 't echt nog geen pixels tellen.

Het zal met 't oog misschien een fractie te zien zijn met een kritisch oog, maar je vergeet in dit verhaal nog wel dat de aansturing voor games met veel minder grafische power mogelijk is..
Scheelt je zo weer een paar 100 euro op je VGA kaart en een monitor met deze resolutie is doorgaans ook een stuk goedkoper dan een vergelijkbare van 1440p. Tel uit je winst.

Persoonlijk heb ik m'n 1080p 24" monitor geupgrade naar 1440p 25" en deze weer omgeruild voor een 1440p 27", omdat bij die 25" text soms echt te klein werd in bepaalde situaties (dankzij slechte scaling in windows o.a.).
Gevolg was ook meteen dat ik een dikke VGA upgrade moest doen om games nog fatsoenlijk aan te sturen. Want je kunt pixels gaan tellen, maar als je een game op medium ipv high/ultra settings speelt lever je nog wel meer kwaliteit in denk ik.

Wil je full on, ook prima, die opties zijn er toch ook?

[Reactie gewijzigd door xs4me op 16 december 2016 19:18]

Of je nou van 25" naar 27" gaat maakt je computer echt niks uit hoor. Ookal ga je van 10" 1440p naar 27" 1440p. Je computer moet evenveel 'kracht' leveren om het aan te sturen.

Of bedoel je 1080p 25" naar 1440p 27"?

Zelf ben ik onlangs van 27" 1080p naar 34" 3440x1440 gegaan en heb inderdaad ook een dikke VGA upgrade moeten doen - maar ik moet wel echt serieus zeggen dat alles van browsen tot games er wel echt een stuk scherper en beter uitziet.

Ik heb ze hier nog naast elkaar staan, op de 3440x1440 is het verschil zo duidelijk t.o.v. de 1920x1080 dat mijn vriendin het zelfs ziet.. Margoed, we gaan een beetje off-topic!

[Reactie gewijzigd door Valandin op 16 december 2016 18:24]

Ja, staat er niet helemaal duidelijk idd. Ik heb 't aangepast.
Wat ik bedoelde is dat ik van een 1080p 24" naar een 1440p 25" monitor was geupgrade. Die 25" heb ik toen weer omgeruild voor een 27" 1440p omdat ik schaal problemen had in Windows waarbij tekst soms te klein werd om 't goed te kunnen lezen. In theorie is hogere res beter, maar zolang je nog met Windows werkt is dat helaas niet 't geval. Met W10 al wat beter, maar in bepaalde situaties alsnog irritant. Schaling is bovendien ook erg blurry en dan ga je ook een beetje aan het doel van een hogere res. voorbij.

In OSX is dat veel minder een probleem overigens.

[Reactie gewijzigd door xs4me op 16 december 2016 19:16]

dat mijn vriendin het zelfs ziet..
Want die is "niet helemaal goed" of slechtziend?
Een beetje slecht verwoord van mijn kant.. wat ik er mee wil zeggen is dat in mijn geval iemand die helemaal niets met electronica/beeldkwaliteit heeft toch het verschil kan zien.

Ik bedoel, iedereen hier herinnert zich toch ook nog het verschil in kwaliteit van 1024x768 (1366x768) naar 1920x1080?

Het verschil naar 2560x1440 is net zo groot, en ook bijna net zo goed te zien.

Ben er verder wel mee eens dat 1080/144 wil veel beter haalbaar dan 1440/144 is hoor, daarniet van. Is gewoon een kwestie of je de 120+ fps wilt halen of gewoon grafisch het maximale wilt halen.

Ieder zijn ding natuurlijk, ik ben dolgelukkig met mijn upgrade naar 3440x1440 maar begrijp ook dat competetieve gamers meer baat hebben bij stabiel 144fps.

[Reactie gewijzigd door Valandin op 16 december 2016 22:22]

Het is ook wel misleidend om bij het 2de plaatje links in dat zoom blokje meer detail te laten zien dan het scherm fysiek aankan. (pixels tellen in het rondje, op het scherm grof gemeten hoeveel rondjes er horizontaal op het scherm kunnen en dat maal de pixels in het rondje.
maar goed, het zal vast komen door dat ik blijkbaar een heel vaal scherm omdat in niets met NTSC te maken heb, en alle keur echtheid weg valt doordat de pixel kijkhoek groter is dan een gebogen scherm.
Die plaatjes slaan sowieso nooit ergens op. Als jij ze op jouw huidige monitor kunt zien is jouw monitor goed genoeg om datzelfde weer te geven. Iedereen kan een blur over een screenshot gooien of het contrast verstoren om "andere schermen" (welke zijn dat?) er zogenaamd slecht uit te laten zien.

Al dat gelul over NTSC slaat sowieso nergens op. NTSC is een Amerikaanse SD standaard van decennia geleden (uit de tijd dat DVD nog niet eens bestond) en ieder scherm wat je koopt kan veel betere plaatjes weergeven dan wat je ooit in NTSC-beelden kunt proppen.
> ieder scherm wat je koopt kan veel betere plaatjes weergeven dan wat je ooit in NTSC-beelden kunt proppen.

Misschien moet je toch eens op het linkje klikken voordat je dit soort wilde uitspraken doet. Met "85% NTSC" bedoelen ze niet resolutie of refresh rate, maar het kleurbereik. Er zijn maar weinig schermen die 100% NTSC coverage hebben.

Kijk maar eens hoe groot het driehoekje is op:
https://www.noteloop.com/kit/display/color-space/ntsc-1953/

en vergelijk dat met sRGB (oftewel, >99% van de monitoren op de markt)
https://www.noteloop.com/kit/display/color-space/srgb/

In een notendop, op een 100% NTSC scherm kun je veel meer tinten groen dan op een standaard sRGB scherm weergeven.
moet er soms wel om lachen (of vreselijk irriteren en het als marketing bullshit bestempelen).

Recentelijk nog een goedkope beamer gekocht met een resolutie van 320×240 gekocht ( voor wat ik er mee wil is dat goed, voldeed aan verwachting) maar de plaatjes bij de beamer van het beeld dat geprojecteerd wordt had al een vele male hogere resolutie.

Sowiso nooit door fancy plaatjes laten lijden idd.
door dat ik blijkbaar een heel vaal scherm omdat in niets met NTSC te maken heb

Huh
Ik tel liever pixels op 1080 bij 120/144hz en gelijke fps, dan haperend beeld bij 4k.
Het grootste nadeel is tekst.
Ik heb liever de gulden middenweg en kijk daarom naar 1440p 144Hz op 27".
1440p is wat mij betreft dan ook de ideale resolutie voor een 27" scherm. Ik heb een gtx1070 en kan via de grafische instellingen bepalen of ik meer eye candy of een hogere framerate wil.
deels met je eens. Zelf een heb ik "werkmatig" een 27''scherm met 1080p resolutie. Voor het gros van de werkzaamheden perfect, ga je echter op details letten (autocad tekeningen ed) dan merk je de lage pixel dichtheid en kan het zelfs storend worden. Kan me voorstellen dst dit bij sommige games ook vervelend is. Vwb de refresh rate/fps ben ik het geheel met je eens :)
Ik heb nu een 2710m monitor van HP met een full hd resolutie. Het is toch echt geen pixels tellen hoor ;-)
Nu nog een betere refreshrate, dan gaan je kills wat omhoog. :+
Hoeft niet. Ik heb een super human shield.
Hier kan ik wel de pixels onderscheiden op 26" 1920x1200 hoor.

Maar ja, heel storend is het niet. Ik heb dat liever dan dat ik moet gaan scalen in Windows. Zo bizar dat bijvoorbeeld Windows eigen Device Manager scherm dan helemaal fuzzy wordt.
Dat probleem van Device manager heb ik bij Windows 10 op redelijk veel computers, ongeacht de resolutie.
Vreemd, ik heb het sinds Windows 3.1 nog nooit gehad, ook niet bij Windows 10. Alleen bij scaling.

[Reactie gewijzigd door Slingeraap2 op 16 december 2016 16:20]

Gek, want dit is alleen een probleem wanneer de scaling niet op 100% staat.
mwoah, bij de meeste games vind ik een superhoge resolutie niet per se nodig, zeker als het wat snellere spelletjes zijn :) (maar to each their own)
Er zijn ook andere dingen dan games, daarbij zijn er veel games die problemen hebben met anti-aliasing.

Een 1440p resolutie voor een 27" scherm is vergelijkbaar met een 1080p resolutie 22" scherm. Persoonlijk is dat wel de minimale pixeldichtheid die ik graag zie in een scherm!
Daarvoor gebruik ik dsr optie van nvidia. 2k of 4k gamen op een 1080p scherm. Het is niet hetzelfde maar het lost wel het probleem op met aa.
Het blijven 1920x1080 pixels...
Ja als je alleen naar cijfertjes kijkt veranderd er ook niets. Maar ervaring wijst uit dat het er beter uit ziet op een 1080p scherm. Daarom zeg ik ook dat het niet herzelfde is op een native 2k/4k scherm maar het doet wel goed zijn werk. Mij punt was dan ook 1080p op 27" hoeft niet pixelig te zijn.

[Reactie gewijzigd door raymondtoonen op 16 december 2016 15:03]

Volgens mij geeft 1080p met 200% DSR (4K intern) zelfs een rustiger (minder pixelige diagonalen, wel marginaal onscherper) beeld dan native 4K of 1080p met zware hardware anti-aliasing als MSAA. Hierdoor is bij gebruik van DSR in principe alleen nog een 'goedkope' post-processing anti-aliasing als FXAA nodig om flikkerende alpha textures, etc. weg te werken, en daarna zit je met een super-strakke beeldkwaliteit.

[Reactie gewijzigd door w00t00w op 16 december 2016 18:21]

Kan er inderdaad wel beter uitzien met DSR, alleen helaas niet alle spellen kunnen hier evengoed mee overweg qua menu's en HUD en dergelijke, en het tast ook de snelheid van de muis aan.

Overigens omdat het in de achtergrond de desktop resolutie ook aanpast en allerlei vensters worden verplaatst om te schalen, kan het bij sommige spellen zijn als deze afgesloten worden of crashen dat alle vensters weer overal en nergens staan, dat vind ik dan wel weer een minpunt.

En als je DSR in plaats van een custom resolutie gebruikt kan je beter die DSR smoothness filter op 0% laten, het is een gaussian blur filter die alleen de performance nog verder naar beneden haalt, ben je beter af met FXAA.

Maar soms moet je wel DSR gebruiken, custom werkt niet meer sinds ik een G-sync monitor gebruik, geen idee of het nu aan G-sync of Display-Port ligt.
Dat is wel nadelig want je bent nogal gelimiteerd met welke resoluties je kan instellen met DSR, daar is wel een truc voor om custom resoluties voor DSR aan te maken:

http://deadendthrills.com...tions-via-dsr-nvidia-only
Ik heb ook bewust gekozen voor de kleinste diameter 1440p die voorhanden was (24")...ik zit op z'n 1,5 meter van het scherm, doe mij maar meer pixel density!
Het gaat hier toch om een gaming monitor? Wat hebben andere toepassingen er dan mee te maken? Chatten en browsen kan op elk scherm. Koop een ander scherm voor andere doeleinden zoals photoshop enzo.

[Reactie gewijzigd door xs4me op 16 december 2016 18:39]

Want gamers gamen alleen op hun computer, kijken nooit streams, zitten nooit op facebook, hebben geen vrienden om mee te chatten, hebben geen school/werk om te doen en natuurlijk zitten ze ook nooit op Tweakers :+
Het was misschien wat ongenuanceerd. maar ik vind nog steeds dat je een slap argument hebt.

Als je doel is om wat willekeurige dingen te doen, van alles wat, dan koop je geen 2x zo dure gaming monitor.

Deze monitor koop je als je een gamer bent met een beperkt budget. Als je 1440p of 4k game monitor wilt kom je in een hele andere prijsklasse uit.

Je argument is kwaliteit, maar denk je niet dat als je op medium of ultra setting speelt je meer kwaliteit wint / verliest? Want 1440p of 4k aansturen vraagt toch om hele andere (lees, duurdere) hardware specs. En voor mensen met zulk budget komen dus ook uit op een andere monitor.

En chatten, browsen e.d. heeft er erg onder te lijden als je kiest voor deze monitor? Is niet elke FHD monitor daar geschikt voor?
Daar ga je toch je keuze niet op aanpassen als je primaire doel gaming is?
Er zijn toch ook 1440p monitors voor mensen met een groter budget en eisen pakket?

[Reactie gewijzigd door xs4me op 16 december 2016 18:20]

Ik heb een 27 inch FullHD Philips monitor. Ja, het is niet super bij het programmeren.
Programmeurs kopen toch geen 16:9 monitor? "FullHD" resolutie is gemaakt voor films, niet voor computers. Het gebrek aan verticale ruimte is echt belachelijk bij 1920x1080. Zowel thuis als op kantoor heb ik gewoon 1920x1200 schermen. Die extra verticale ruimte scheelt een hoop.
Monitor zit tussen bureau en plank in, hoger zou niet passen.
16:9 is maar net hoe je tegen het scherm aan kijkt. Kantel het, en de verkregen 9:16 biedt je meer verticale ruimte dan traditioneel 4:3.

16:10 is een leuke middenweg voor multipurpose doeleinden. Maar in zekere zin nooit echt nodig geweest.

Overigens jammer dat MSI niet gekozen heeft voor 4k in deze. Zeker bij dit formaat vervalt het vrij snel als optie voor scherm aan een bureau.

[Reactie gewijzigd door psychodude op 16 december 2016 17:06]

om te programmeren heb ik 2x25" 1440p :-p
Da's pas veel info tegelijk :D
Het is ook afhankelijk van hoever je van de monitor af zit natuurlijk. Heb zelf een 27" scherm waarop ik game, maar daar zit ik ruim 1,5m vanaf, dus pixels tellen gaat dan (voor mij ten minste) niet echt op :)
zelfde setup hier. 27" FullHD wertk perfect, ook text lezen en zo.
Wat ik niet zo goed begrijp is die relatief hoge responsetijd in combinatie met een hoge refreshrate. Hoge refreshrates zijn toch vooral in trek bij gamers die bijvoorbeeld CS:GO spelen?
Zij willen echter wel een lagere responsetijd, maar dat heeft deze monitor dan weer niet. Kortom, wat is de doelgroep?
Misschien voor de offline kind of gamers? TES: Skyrim of GTA V
Veel frames en dan boeit de response time niet
Ik weet wel dat de hoge refreshrate sowieso fijner is, zelfs in windows.
8 ms responstijd is helemaal niet slecht, eigenlijk is het best wel erg goed, maar vaak wordt het helemaal niet vermeld in de specificaties (tenminste, als het hier om inputlag gaat wat gesugereerd lijkt te worden omdat de g2g tijd apart aangegeven wordt). Je moet dit dus niet vergelijken met die TN paneeltjes die claimen een 1 ms responstijd te hebben, dat is gewoon marketingpraat en gaat niet om de totale verwerkingstijd van signaal uit videokaart tot licht uit paneel.
Vind het persoonlijk jammer dat het "slechts" fulld hd komen.
Qua prijs is het wel goed geplaatst, maar ben bang dat veel mensen toch eerst de kat uit de boom gaan kijken.
Maar de meeste videokaarten hebben toch best moeite om 1080p(alles max) en 144hz weer te geven hoor.
Neemt niet weg dat ze het scherm iets kleiner hadden kunnen maken om de kwaliteit ten goede te komen...

Daarnaast is 144hz nog echt primair voor "Twitchshooters" en dergelijke Esports games. Die over het algemeen niet zo grafisch veeleisend zijn.

Edit: Toevoeging

[Reactie gewijzigd door Juliuth op 16 december 2016 13:53]

En zulke games hebben verder ook niets aan hogere resoluties, wat juist de hoge fps weer omlaag trekt.
1080p is toch geen "hoge resolutie" meer? Ik draaide 10 jaar geleden UT2004 al in die resolutie op een midrange videokaart...
Ik zeg toch ook niet dat 1080 hoog is (eerder standaard), zeg alleen dat je niets aan hogere resoluties hebt dan 1080, zonder je fps omlaag te halen. Leuk dat je UT2k4 al draaide op 1080, zegt niets over details of posteffects en je uiteindelijke fps.
1080p is toch geen "hoge resolutie" meer? Ik draaide 10 jaar geleden UT2004 al in die resolutie op een midrange videokaart...
Yeah right. :z
Voor gaming wel. Voor mij persoonlijk, zo ook technici, ben ik juist geïnteresseerd in dit soort monitoren voor muziekproductie (Ableton). Doe het nu met meerdere monitoren, maar wil over een jaar of 2 toch wel een ultrawide 4k monitor om de gehele grid weer te kunnen geven op 1 enkele monitor.
Of Reason.
Ja dat kan. Ik ben ooit begonnen met Magix Music Maker, vervolgens heel snel overgegaan op FL Studio. Daar kon ik niet aan wennen. Een connectie wees mij op Ableton en legde mij een en ander uit. Sindsdien (2012) gebruik ik alleen dat nog maar.
Ik heb liever mijn situatie zoals ik nu heb, 25inch 1440p IPS op 75hz. En dat maxxed out draaien.

Kleiner scherm, met hogere resolutie dus hogere PPI, mooier paneel, en perfecte compromis van hz en fps.
Nouja echt goed geplaatst, pricewatch: Acer XZ271 Zwart Voor 50 euro minder hetzelfde in principe en dan nog minder inputlag ook :)
Je weet dat er 0 monitoren op de (betaalbare) markt zijn die op 144 hertz refreshen met een 4k resolutie?
Dat klopt, ivm limieten van bandbreedte van displayport etc. Maar je hebt ook nog 1440p, oftewel 2560*1440, en daarbij kun je prima 144Hz behalen zoals Asus en Acer al bewezen hebben.

Subjectief, maar op 27" een erg fijne resolutie voor van alles.

Maar gezien de prijs van dit scherm niet erg realistisch.
Ik game liever op 24fps. Veel cinematischer. :Y)
Niks troll. Ben niet de enige, in de remaster van The Last Of Us b.v. zit een optie om de game op 30fps te laten draaien ipv de standaard 60 precies om die reden.
Omdat een console niet eens 60fps kan, laat staat 120fps op zo'n resolutie, kan een stabiele 30 inderdaad fijner zijn dan een 40-60 wisselende fps. Wanneer we kijken naar racegames of shooters, is hoger veel wenselijker.
TLoU draait prima op 60fps, dat was het punt niet. Die optie zat er in omdat mensen 30fps mooier vonden.

Op een hogere framerate zie je makkelijker details als de camera veel beweegt, hierdoor vallen onvolkomenheden dus ook meer op.
Aah, logisch. Je wil een meer realistische spelervaring door de onvolkomenheden weg te nemen met een zeer natuurlijk ogende 30 fps. Wat een geniaal plan... Volgens mij heb je nog nooit 144 hz (of überhaupt 60) in werking gezien, als ik het zo lees. Ook logisch natuurlijk, als je alleen maar consoles bezit.
Hz and FPS zijn 2 totaal verschillende zaken ... :)
En toch als je 40fps hebt en een refresh rate van 144hz heb je er weinig aan.
Toch wel. Je zult minder last van shearing/tearing hebben en makkelijker kunnen frame synchen. Een monitor die 144hz kan doen kan in de regel ook 120hz aan dus zet je hem daarop en heb je exact 3 refreshes van het beeld per gerenderde frame.

Hoe hoger de refresh rate die het scherm aan kan, hoe makkelijker/beter je hoge FPS netjes er in kunt passen. Wat dat betreft mogen ze nog wel even door gaan richting 240hz of zelfs 300hz.
Hertz betekend letterlijk 'per seconde', oftwel s-1. FPS staat voor frames per seconde. Hertz is dus een algemene eenheid, wat van alles kan zijn (golven per seconde, koekjes per seconde, etc.) en frames is daar dus een specifiek geval van. Ze zijn dus best gerelateerd aan elkaar, en niet twee totaal verschillende zaken.
Maar in dit geval (monitor) staat hz voor de refresh rate van de monitor en fps voor de refresh rate van de game. En dat is wel duidelijk aan de hand van de context. Shadowfox heeft dus gewoon helemaal gelijk.
Beter nog... met Freesync of Gsync kan je ze wel gelijk trekken!

Dan geeft de videokaart aan "hier is een nieuw beeld" en dan pas is er een refresh :)
Nou ja 30 fps kan er nooit beter uit zien als je de zelfde grafische instellingen gebruikt. Maar ik speel ook vaak op 30 fps omdat ik dan een stabiele framerate en hogere instellingen heb.

[Reactie gewijzigd door raymondtoonen op 16 december 2016 14:28]

Ik denk dat het vergelijkbaar is met het feit dat SD content er beter uit ziet op een CRT dan op een LCD.

Het ligt ook volledig aan het spel, soms is het beter op 60, soms op 30. Op hogere framerates heb ik soms dat de illusie van de gamewereld weg is. Een gebouw ziet er dan opeens niet meer uit als gebouw maar als een kubus met wat textures erop geplakt. Volgens mij gebeurt dat vooral bij games waarbij er onvoldoende detail in de 3D modellen zit, om de een of andere reden valt dat bij een lagere framerate minder op.
Ik denk dat het vergelijkbaar is met het feit dat SD content er beter uit ziet op een CRT dan op een LCD.
Eh nee, dat heeft er gewoon mee te maken dat de SD content er gewoon slechter uitziet, en een nieuwer paneel dit beter naar voren laat komen door verbeterde scherptes.
Op een hogere framerate zie je makkelijker details als de camera veel beweegt, hierdoor vallen onvolkomenheden dus ook meer op.
Op hogere framerates heb ik soms dat de illusie van de gamewereld weg is. Een gebouw ziet er dan opeens niet meer uit als gebouw maar als een kubus met wat textures erop geplakt.
Iets waar je met een console ook vaak veel meer last van hebt door gebrek aan hardware kracht en spellen die op mindere instellingen staan ingesteld vergeleken met een PC.
27 inch en dat FHD :(
Net als Samsung. Waarom geen WQHD? Dan was het erg interessant. Dit valt me toch tegen,
Wellicht omdat er al 128 27" modellen zijn met een hogere resolutie?
Maar 15 met WQHD & 144 hz.
De vraag ligt grotendeels wel bij 1440p schermen.
Full HD is gewoon niet écht meer van de tijd, 1440p is echt duidelijk veel mooier.
Ook qua performance hoef je het niet meer te laten, een 1060 volstaat wel redelijk goed voor 1440p.

(Mijn GTX1070 trekt alles ultra op 3440x1440. Net wat zwaarder dan 2560x1440..)

Maaaaaaaaaargoed,
Dit is natuurlijk ook een beetje een prijsklasse punt. Dit is toch een flink stuk goedkoper te produceren en goedkoop om op te markt te brengen. 1440@144hz is nog wel een 'premium' product.

[Reactie gewijzigd door Valandin op 16 december 2016 14:26]

Nu heb je misschien gelijk, maar (nieuwe) spellen worden over het algemeen elk jaar zwaarder bij gelijke resolutie. Dat het nu dus goed draait is leuk maar zegt niet dat het over 4 jaar nog lekker draait op die resolutie. Maar met een GTX1070 @ 1080p kan je met veel hogere zekerheid zeggen dat je over 4 jaar nog vrijwel alles op high/ultra kan spelen.

Stap terug doen of binnen 4 jaar weer veel geld uitgeven wil ik niet dus is op safe spelen de enige optie.
Natuurlijk mee eens, maar ultra op 1920x1080 vs. ultra op 2560x1440 is wel echt een wereld van verschil aan beeldkwaliteit. Ik vind Medium @ 2560x1440 er veel mooier uitzien dan High @ 1920x1080.

Je weet natuurlijk niet wat de tijd brengt. Wie weet is er over 4 jaar de 1470/1480 uit die 4K@144hz kan draaien zonder problemen.

We zullen zien!
niemand die iets zegt over de response times??? had liever een response time van 1ms gezien

[Reactie gewijzigd door heervristi op 16 december 2016 13:44]

Die ga je alleen terugvinden op een (minderwaardig) TN-paneel. Het hier getoonde scherm heeft een VA paneel, dit betekent een véél hoger contrast, diepere zwartwaarden, betere kijkhoeken en véél mooiere kleurenweergave. Je levert inderdaad wat in op responstijd, maar als de opgegeven 4ms G2G en 'typical' 8MS kloppen dan ga je dit nauwelijks merken als casual gamer. Als je dag in dag uit alleen maar snelle FPS games speelt op hoog niveau kan je inderdaad beter uitwijken naar een TN monitor.

In mijn ogen is het grootste gemis de FHD resolutie, ik vind het zelf niet wenselijk op een 27" monitor.

[Reactie gewijzigd door stin00 op 16 december 2016 13:49]

Dat ben ik helemaal met je eens, daarom vraag ik mij ook af waarom dit scherm een refreshrate van 144Hz heeft. Dan zou de fabrikant daar beter op kunnen besparen en het scherm dan goedkoper aanbieden aangezien de casual gamer ook geen zin heeft om veel geld uit te geven aan zo'n scherm.
Ik heb liever een 1080p scherm op 144Hz dan een 1440p scherm op 60Hz. Ik ben gewend van een 144Hz scherm ondertussen en een 60Hz scherm ziet er gewoon niet meer vloeiend uit in mijn ogen. De meesten hebben ook geen kaarten die echt goed zijn voor 1440p.
Wat is nu precies het voordeel van een gebogen scherm?
Kan ik dan bijvoorbeeld op mijn playseat met F1 2016 een hoger fov gebruiken?
Voor een hogere FOV kan je het best een breder scherm hebben. Als je deze monitor x3 gaat ophangen dan wel.
Resolutie van dit scherm is 1920x1080.

Toch jammer dat ze niet gekozen hebben voor een 2560x1440 scherm.
FullHD, dat is dan ook wel te verwachten voor deze prijs. Misschien dat ze meerdere modellen maken met hogere resoluties?
Naar mening moet je toch echt 1440p hebben bij een monitor met 27 inch, vooral voor een gamingmonitor met een VA-paneel. Je ziet de pixels toch erg duidelijk met 1080p op 27 inch naar mijn mening.

[Reactie gewijzigd door Tim2010 op 16 december 2016 13:46]

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*