Asus introduceert 43"-monitor met 4k-resolutie, 120Hz-paneel en FreeSync 2

Asus kondigt in zijn ROG Strix-serie drie gamemonitoren aan met hoge refreshrates en FreeSync 2-ondersteuning. Het topmodel is een 43"-variant met 4k-resolutie, een 120Hz-paneel en hdr-weergave volgens de DisplayHDR 600-standaard.

De 43"-monitor heet voluit Asus ROG Strix XG438Q. Asus presenteert ook de ROG Strix XG49VQ, een 49"-monitor met een 32:9-verhouding en de ROG Strix XG32VQR, een 32"-model met een resolutie van 2560x1440 pixels. Deze twee modellen ondersteunen ook hdr-weergave, maar hebben een DisplayHDR 400-certificering.

Alle drie de gamemonitoren hebben FreeSync 2-ondersteuning en zijn gebaseerd op een va-paneel met een responstijd van 4ms. Het 43"-scherm heeft een 120Hz-paneel en de twee andere varianten gaan tot 144Hz. Volgens de specificaties is de helderheid van alle modellen 450cd/m2, maar de piekhelderheid van het 43"-model is hoger bij hdr-weergave, omdat die monitor voldoet aan de DisplayHDR 600-standaard.

Asus toont de drie monitoren deze week op de CES-beurs in Las Vegas. De XG49VQ en de XG32VQR komen eind januari uit. De XG438Q komt beschikbaar in het voorjaar. Adviesprijzen heeft de fabrikant nog niet bekendgemaakt.

Asus ROG Strix-monitoren

Asus ROG Strix XG438Q Asus ROG Strix XG49VQ Asus ROG Strix XG32VQR
Schermdiagonaal 43" (16:9) 49" (32:9) 31,5" (16:9)
Paneeltype Va Va Va
Resolutie 3840x2160 pixels 3840x1080 pixels 2560x1440 pixels
Kleurruimte 90% dci-p3 90% dci-p3 94% dci-p3
Helderheid 600cd/m2 450cd/m2 450cd/m2
Verversingssnelheid 120Hz 144Hz 144Hz
Hdr DisplayHDR 600 DisplayHDR 400 DisplayHDR 400
Aansluitingen Displayport, hdmi 2.0 Displayport, hdmi 2.0 Displayport, hdmi 2.0

Door Julian Huijbregts

Nieuwsredacteur

07-01-2019 • 05:00

57

Lees meer

Reacties (57)

Sorteer op:

Weergave:

De kaarten van AMD halen toch geen 120fps op 4k in games?
Nee daarom is dit vreemd dat ze dit speciaal uitbrengen met FreeSync 2, en niet G-Sync.

Ik weet dat G-Sync geld kost maar dan nog snap ik de logica niet van een 4k 120Hz scherm voor AMD grafische kaarten.
Beter amd kaart en monitor met freesync die 4k 120hz net niet kan trekken, dan een nvidia die nipt 4k 120hz kan trekken. De nvidia is leuker voor nu, de amd ondanks lagere prestaties nu meer toekomst gericht.

Als de nv niet meer kan volgen krijg je massive tearing (of je moet vsync aanzetten en dan halveren de fps) als de amd niet kan volgen krijg je gewoon het maximale fps dat de kaart kan halen en de monitor synct wel.

Waarom is amd met freesync slecht en nvidia met gsync zou wel goed zijn? Denk dat je eens moet googlen wat G/freeSync feitelijk is/doet.
Dus je Hebt geen idee wat Freesync is en doet lijkt me.

De exacte technische details kan ik je niet geven, wel een basic rundown.
Freesnc geeft niet spontaan inderdad 120hz

Scherm is 120hz en heeft Gsync/Freesync. Videokaart kan 4k leveren op exact 120hz (of hoger). Wat je wil is altijd spelen waarbij de FPS = native hz van je spel.

Bij FPS 120 = 120hz, dan ideale wereld en moet niemand iets doen. Als de kaart het makkelijk heeft en bijvoorbeeld 160FPS eruitpomp, krijg je tearing. Dan kan je Vsync aanzetten voor de GPU te cappen tot het maximale van het scherm. (120dus). Dus Vsync past gpu aan aan het scherm.

Free/G-Sync doet net het omgekeerd. Die past scherm HZ aan aan de prestaties van de GPU
Dus als je videokaart maar 100fps kan produceren, gaat je scherm ook op 100hz werken waardoor ze gelijk lopen en geen tearing zal zijn.

Vsync onder de native Hz, van de monitor wil je niet want stel. Je kaart haalt net geen 120fps, maar 118fps. Bij Freesync, ga je dan spelen op 118hz/fps. Bij Vsync dropt de fps gelijk naar 60/30/15.

Aangezien je zegt dat AMD kaarten trager zijn dan de Nvidias, is juist Freesync meer nuttig bij amd kaarten dan bij NV kaarten.
En als je als producent, NVidia te kakken kan ztten door FreeSync te implementeren, dan zou ik het ook doen ^^
Bij Vsync dropt de fps gelijk naar 60/30/15.
Vsync is niet iedere keer halveren maar het moet deelbaar zijn. Bij 120 hz kan vsync dus terug vallen naar 60, 40, 30, 20 enz... Want dat past allemaal in 120.

Verder heb je wel gelijk dat je niet per se die 120 fps hoeft te kunnen halen om hier voordeel van te hebben. Alleen jammer dat deze monitor geen HDMI 2.1 heeft en die 120hz dus niet ook op HDMI ondersteunt. Dat wordt komende jaren wel een gemis als je ook consoles aan zou willen sluiten.
Inderdaad, je hebt gelijk. Moet altijd deelbaar zijn. Tnx voor de aanvulling.
Maar dan heeft 120Hz op 4k met AMD kaarten nog steeds geen zin, aangezien jij zelf zegt dat je monitor met Freesync loopt op de Hz dat je fps loopt, dan gaat het nog steeds op wat ik en andere hier zeggen, dat 4K 120Hz monitor voor AMD grafische kaarten geen zin heeft, of je moet echt bijna op low zetten, wat er dan ook weer niet mooi uit ziet.

Zo als je kan zien HIER dat op High/Ultra je bijna nooit zelfs met 2x Radeon RX Vega 64 120fps kan halen, meeste spellen zijn dan zelf met 2x Radeon RX Vega 64 dan zelfs onder de 100fps, of VER onder de 100fps.

https://www.guru3d.com/ar..._red_devil_review,11.html

En zo goedkoop zijn de RX VEGA 64 ook niet, de goedkoopste is €450,-, dan zou ik echt toch gaan voor de GeForce RTX 2070 die iets sneller is in de meeste spellen, en kan kopen voor €500,- en €50,- meer kost.

[Reactie gewijzigd door AmigaWolf op 26 juli 2024 22:46]

Iets sneller nu wil niet zeggen, sneller later ^^.

Een 2070 trekt ook geen 4k 120hz hoor :)

En de 2070 is ook maar marginaal sneller (<5% in meeste gevallen), + een undervolted vega gaat vrij hard.
Maar by all means, koop jij maar een kaart van een 50€ duurder, en dan nog een scherm van 100€ duurder (minstens).

Je vergelijkt trouwens een 590 met een 2070, een kaart die de helft kost van een vega 64.
Iets sneller nu wil niet zeggen, sneller later ^^.

Een 2070 trekt ook geen 4k 120hz hoor :)

En de 2070 is ook maar marginaal sneller (<5% in meeste gevallen), + een undervolted vega gaat vrij hard.
Maar by all means, koop jij maar een kaart van een 50€ duurder, en dan nog een scherm van 100€ duurder (minstens).

Je vergelijkt trouwens een 590 met een 2070, een kaart die de helft kost van een vega 64.
En waarom zou ik een €100,- duurdere scherm kopen als Nvidia Grafische kaarten ook gewoon werken met Freesync over een week?

Nee, ik vergelijk de RX VEGA 64, met de GeForce RTX 2070, aangezien je die gewoon in alle game benchmarks zie staan in die review.

https://www.guru3d.com/ar..._red_devil_review,11.html

[Reactie gewijzigd door AmigaWolf op 26 juli 2024 22:46]

Ik Zie overal de Vega hoger of gelijk staan dan de Nvidia 2070.
Het is ook niet op elke freesync monitor dat het werkt he.

En als NVidia freesync volledig ondersteunt, dan zijn we gelijk van Gsync monitoren af :D Schieten ze zichzelf lekker in de voet.

Nuja innoveren is niet echt NV's ding, op de kar van andere springen en bam geld tegen smijten, dat wel....
Ik Zie overal de Vega hoger of gelijk staan dan de Nvidia 2070.
Het is ook niet op elke freesync monitor dat het werkt he.

En als NVidia freesync volledig ondersteunt, dan zijn we gelijk van Gsync monitoren af :D Schieten ze zichzelf lekker in de voet.

Nuja innoveren is niet echt NV's ding, op de kar van andere springen en bam geld tegen smijten, dat wel....
In de meeste spellen is de GeForce RTX 2070 sneller dan de RX VEGA 64, niet veel maar wel sneller, en de GeForce RTX 2070 heeft meer extra futures die de oudere RX VEGA 64 niet heeft.

Je hebt gelijk de GeForce RTX 2070 is gelijk met de RX VEGA 64 qua snelheid, 5x wint de RX VEGA 64 op 2560x1440 en 5x wint GeForce RTX 2070 op 2560x1440, en 2x zijn ze gelijk.

https://www.guru3d.com/ar..._review_(founder),12.html

En als je kan lezen kan je bij monitoren die niet (de nu twaalf monitoren) gecertificeerd zijn, gewoon het aangezet in de optie menu, zo dat Freesync gewoon werkt.
De fabrikant heeft twaalf monitoren gecertificeerd, maar bij niet-gecertificeerde FreeSync-schermen kan de optie ook ingeschakeld worden.
nieuws: Nvidia ondersteunt vanaf 15 januari Adaptive Sync - update

[Reactie gewijzigd door AmigaWolf op 26 juli 2024 22:46]

Over 5 jaar zijn er wel kaarten die 4k@120 hz kunnen doen hè.
Oude games kan je prima op die frequentie spelen.

En, ook 100hz en 80 hz werken ook, dankzij de freesync. Een monitor koop je voor heel wat jaren vaak, dus zo gek is het allemaal niet.
Ja maar de meeste mensen kopen niet een €600+ grafische kaart en dure monitor om veel oude spellen te spelen.

En 5 jaar is tegenwoordig al veel voor een monitor.

[Reactie gewijzigd door AmigaWolf op 26 juli 2024 22:46]

Waarom is 5 jaar veel voor een monitor?

Maar daarnaast, je hoeft ook niet in élke game hoge framerates te halen om iets aan de functionaliteit te hebben. Je kunt prima bijvoorbeeld een game als overwatch spelen en dan hoge framerates willen zien (ik haal daar zelf met een oude i5 2500K en een 1060 6 GB op QHD ook al 100+ fps), en vervolgens bij een andere game waar je meer eyecandy wil (en die niet zoals de meeste esports titels gebouwd zijn om bijna nog op een aardappel te draaien) genoegen nemen met minder. En zelfs als je het op 4k niet zou halen, dan kun je altijd nog bij die titels er voor kiezen om de resolutie te verlagen. Niet het beste voor beeldkwaliteit inderdaad, maar je hebt de keuze dan tussen hoge framerates en beste beeldkwaliteit. Jij lijkt te denken dat je in die situatie maar twee monitoren zou moeten kopen of zo want als je niet alle functionaliteit tegelijk in alle games gebruikt dan is het nutteloos :S
We zitten tegenwoordig in een weg gooi tijd, mensen bewaren niet meer lang hun spullen en kopen nieuwe spullen ook al zijn hun andere wat oudere spullen nog in orde.

En natuurlijk kan je van alles omlaag gooien daar had ik het ook over, maar dan woord hij niet bepaalt mooi van, je moed heel wat omlaag gooien bij nieuwe spellen om 4K en 120fps te kijken.
Maar je negeert mijn punt (en die van de anderen)... Je zegt dat het geen zin heeft om een 4k 120 Hz monitor te kopen voor een AMD videokaart. Er zijn je meerdere redenen gegeven waarom het wel zin heeft maar jij blijft alleen maar er op hameren dat je in de nieuwste games geen 120 fps op 4k ultra kunt halen terwijl dat maar één mogelijk scenario is (iets wat overigens ook aan Nvidia kant op zijn minst heel lastig is). Zodra je ergens in de games die je speelt boven de 60 fps komt heeft deze monitor dus wel zin boven een andere monitor die maar 60 Hz weer kan geven en dat is ook met een AMD kaart zeer zeker mogelijk (zeg ik zelf terwijl ik echt ook meer Nvidia fan ben).

Hetzelfde wordt gezegd van mijn setup met een qhd 165 Hz gsync monitor op een 1060. Nee ik haal die 165 Hz ook niet in nieuwe games, bij lange na niet. Fallout 76 komt nauwelijks ook maar boven de 60. Toch ben ik blij met mijn monitor want in de games waar het wel gaat heb ik lekker vloeiende beelden en in zo'n game als 76 zorgt de gsync er voor dat het toch nog best ok uit ziet. Voor deze monitor is het precies hetzelfde, het geeft je in ieder geval de mogelijkheid. Bovendien is het nog altijd aan mensen zelf hoe lang ze met hun spullen willen doen, niet iedereen gooit alles zo snel weg. Wel is het zoals ik elders zeg dan jammer dat deze monitor nog geen HDMI 2.1 heeft want dat had hem nog iets toekomstbestendiger gemaakt mocht je er nog eens wat anders op aan willen sluiten.
Je kan best een ander model monitor kopen omdat je denkt dat je een functie over 3 jaar kan gebruiken. En ja, je kan ook echt oude games spelen op je high end hardware. Borderlands 2 ziet er prachtig uit op 4k, net als the long dark. Heck, zelfs half life 2, skyrim zien er lekker uit. Kindom come deliverance, prima op 4k.
Klopt Borderlands 2 ziet er goed uit op een 4k scherm, ook op mijn 3440x1440 ziet het er mooi uit, en ja die is ook niet echt oud te noemen, en ja sorry skyrim vond ik er nooit mooi uit zien, zag er al ver achterhaald uit toen hij uit kwam, net als alle Foulout spellen die met de zelfde engine gemaakt zijn.

En The Long Dark, daar zeg nog is wat, die spel is helemaal niet gemaakt or er grafische er heel mooi uit te zien, en Half Life 2 ja ziet er NU geinig uit maar ook niet te vergelijken met spellen van de laatste 6 jaar, en ja Kindom Come Deliverance is een splinter nieuwe spel die grafische er heel mooi uit ziet en niet vergeleken kan woorden met al die spellen die je neer gezet heb.

Ik zeg ook niet dat je niet spellen kan spelen van 12+ jaar geleden op nieuwe €600+ grafische kaart, maar de meeste gamers die een 600+ grafische kaart kopen en duur scherm doen dat niet veel.
Ik heb nog nooit ergens gelezen dat je tearing krijgt omdat je videokaart te snel is voor het scherm... dat is wel wat je zegt.
Je krijgt tearing altijd als je native hz/fps op het scherm geen mooi deelvoud is.

Ik speel L4D2 op 280 FPS en scherm was maar 60fps. Ik kan je garanderen.....gigantische tearing :)

En nee, V-sync inschakelen wil ik niet, voegt gigantische mouse-Lag toe in L4D2 ^^
Als je er over nadenkt is het logisch... Als je continu aan het draaien bent en er beweegt bijvoorbeeld een paal van links naar rechts door het beeld, en je GPU spuugt meer beeldjes uit dan je monitor toont, dan kan het prima voorkomen dat terwijl de monitor een nieuw beeld op aan het bouwen is de GPU een nieuw frame klaar zet waar de paal al een stukje verder gedraaid is. Dus heb je tearing.
Net een nieuw bericht hier op tweakers dat Nvidia adaptive sync gaat ondersteunen. Dat verandert het verhaal enigzins.
het is al langer bekend dat adaptive sync onderdeel van de nieuwe displayport standaard ging worden en dat bijgevolg alle fabrikanten die die implementeren dus ook adaptive sync zouden moeten ondersteunen.
Hogere verversingsfrequentie betekent ook gewoon een snellere reactie op een nieuwe frame. Nét een refresh missen is minder erg op 120Hz dan op 60Hz. Verder gaat Nvidia ook Adaptive Sync ondersteunen (nieuws: Nvidia ondersteunt vanaf 15 januari Adaptive Sync - update).

Spellen als Rocket League zijn overigens wel al op 4k 120Hz te spelen. En er gaan natuurlijk op een gegeven moment betere AMD kaarten komen. Er zijn meerdere redenen te bedenken voor een scherm als deze.
Ja dat Nvidia over een week ook Freesync support is inderdaad heel goed nieuws, en dan zullen weinig mensen nog een G-Sync monitor kopen, juist omdat ze duurder zijn, en er ook geen rede meer voor is.
G-Sync is geen standaard, zo simpel is het.
Omdat nvidia kaarten wel met freesync kunnen werken omdat AMD geen aids bedrijf is. en met g-sync werken de AMD kaarten niet omdat nvidia dat wel is. :+ (ze maken goed spul hoor, maar hun policies vind ik verschrikkelijk en zijn niet bevorderlijk voor concurrentie en daardoor weer innovatie. )


tldr; freesync want werkt op alles. g-sync werkt niet met AMD kaarten
Ja maar dan moet je toch een AMD GPU hebben om freesync goed te laten werken op een Nvidia kaart?

Over een week werkt Nvidia grafische kaarten (GTX 1050Ti tot en met 2080 Ti) ook met freesync monitoren, bedankt voor de link.

En ja er is al weer een lagentijd geen concurrentie van AMD grafische kaarten, aangezien ze nog steeds geen hele snelle kaart hebben uitgebracht, als concurrent van de RTX kaarten van NVIDIA.

[Reactie gewijzigd door AmigaWolf op 26 juli 2024 22:46]

In het midden segment domineert AMD met prijs/kwaliteit, maar inderdaad ze hebben geen top kaart geleverd.

En nee, je hoeft geen AMD hardware te hebben voor freesync te gebruiken. Het werkt ook met een intel/nvidia setup.
Is dat zo?

Zo goedkoop zijn de RX VEGA 64 ook niet, de goedkoopste is €450,-, dan zou ik gaan voor de GeForce RTX 2070 die iets sneller is in de meeste spellen en extra futures heeft, en kan kopen voor €500,- en dat is maar €50,- meer.

[Reactie gewijzigd door AmigaWolf op 26 juli 2024 22:46]

Ja maar dan moet je toch een AMD GPU hebben om freesync goed te laten werken op een Nvidia kaart?
Nope, net aangekondigd: nieuws: Nvidia ondersteunt vanaf 15 januari Adaptive Sync - update
En Nvidia wel wil je zeggen?

Het hangt er gewoon heel erg vanaf welke games je wilt spelen.
De nieuwste AAA games zullen beide nog niet gaan lukken maar er zijn genoeg oudere games waarbij de 120fps makkelijk gehaald kan worden op 4K.
Freesync zorgt er juist bij framerates onder de 120 fps voor dat het soepel blijft lopen zonder tearing. Als je zonder freesync geen tearing wilt moet je vsync gebruiken, en wanneer je dan onder de 120 fps komt moet hij het frame 2 of 3 of vaker x herhalen en zakt je fps naar 60/40/30/24/20. Met freesync ververst hij zodra er een nieuw frame beschikbaar is dus kan de game relatief soepel draaien op elke frequentie binnen de ondersteunde range. Dus bijvoorbeeld op 75 fps of 55 fps, afhankelijk van wat je videokaart aankan.
Daarom zetten ze er freesync op. Mss moet je eens googlen wat dat eigenlijk is.
Dat werkt toch enkel binnen een zekere range?
Ik kijk af en toe naar gaming benchmarks en de AMD kaarten blijven voor vele games steken op < 60 fps op 4k.
Als de monitor 120 Hz aankan zal 60 fps toch wel buiten de range vallen?
Nope, Als ik kijk naar meeste schermen, is de freeSyn range meestal van 35/40 - 144hz.

ik veronderstel dat deze 120hz ook in deze orde van 35-40 tot 120 kunnen gaan. (Ik denk dat ze lager kunnen ook maar wie wil er nu monitor op 30hz of lager, voor zelfde geld dropt die naar 1 of 2 hz, dat is altijd compatibel.) Denk gewoon dat het hardcap is op freesync/Gsync.
Lager dan 30 wil je echt niet op zitten kijken, dan ben je "beter" dat je scherm 40hz is en dat je spel maar 20fps is. Tearing is gezonder om naar te kijken dan te lage refresh rates van een monitor.
Nu nog niet nee. Maar gemiddeld gaat een GPU (bij mij) 3 jaar mee, maar een scherm ca 9. Dus ik zie het probleem niet zo als het puur om refresh rate gaat.
Idealiter heb je graag hetzelfde aantal fps als het aantal hz van het scherm.
De vraag echter is of dit opgegeven aantal hz de daadwerkelijke verversing frequentie is, of dat het de marketing variant is waarbij het scherm "voelt alsof" het op die frequentie draait door allerhande technieken met bijvoorbeeld de backlight en signaalverwerking waardoor het beeld weliswaar verbeterd wordt maar de daadwerkelijke verversingsfrequentie niet veranderd.
Kijk die 43" gaat de goede kant op. Ik hoef geen smart-tv die binnen 2 jaar achterloopt. Liever een goede kwaliteit scherm met HDR & freesync 2 en verder niks. Mediabox van de provider en een aardig game systeempje en/of console eraan en klaar.

Enige waar ik wel op hoop is genoeg ingangspoorten, en in een dergelijke setup zou een afstandsbedieninkje voor source selectie vanaf de bank ook niet slecht zijn. Op richting de 50" :9~
Een beetje receiver voor fatsoenlijk geluid heeft tegenwoordig zat ingangen, en dan via (e)ARC naar de tv.
Aan mijn receiver heb ik een Chromecast, PS4 en mediabox hangen, mn tv (uit 2008) heeft nog 3 (werkende, 1 stuk) ingangen.
Heb je dan nog wel iets aan de freesync? Ik ben geen expert maar ik denk dat dat alleen werkt over displayport, direct van source naar je scherm?
Goed punt, maar dan heeft het scherm gegarandeerd zowel een DP als HDMI ingang.
Overigens lees ik dat FreeSync ook via HDMI werkt https://www.amd.com/en/technologies/free-sync
Ah dat is nieuw voor me. Ik heb even verder gezocht; adaptive sync is in HDMI 2.1 toegevoegd. Deze 3 schermen hebben echter nog 2.0. Bij ieder model staat dat er DP en HDMI 2.0 op zit, maar er staat niet duidelijk bij hoeveel aansluitingen van ieder.
Ik zit met t zelfde,maar doordat er geen echte reviews of februikerservaringen te vinden zijn van een 4xinch monitor met tvreceiver los gekoppeld hou ik mn soby uit 2008 maar aan de muur.

Goede 40xinch zijn er niet echt (oled is vanaf 55inch)
Wat een joekels, van wat ik kan zien op de foto zien ze er puik uit. Zal het zelf niet kopen, wil de prijs wel weten.. wanneer komen er nu eens OLEDs

[Reactie gewijzigd door Macboe op 26 juli 2024 22:46]

Dat zie ik niet snel gebeuren, eerder een opvolger. Er is namelijk voor de huidige OLEDs nog steeds geen fatsoenlijke oplossing tegen burnin.
Is zo'n scherm ook aan te raden voor bijvoorbeeld een PS4 pro?
Speel nou al een tijdje op tv en merk toch dat ik te ver weg zit en het allemaal niet zo soepel draait op mijn tv (vooral online shooters).
Zonde van je geld, consoles blijven tussen 30-60 fps. Dit scherm zal een dikke €1000 worden. Geen aanrader i.c.m. consoles dus, er zijn genoeg 4k schermen die goedkoper zijn ( 300+-).
Dom van me, had ik zelf ook kunnen bedenken haha! Maar thanks voor de info, zal is beetje rondkijken voor een leuk 4k hdr schermpje voor de playstation :)!
Die 49" is weer een gemiste kans, breng dan ook een 2x1440P (5120*1440) ipv 2x FHD (3840*1080), 1080 pixels in de hoogte is echt te weinig op zo'n extreem groot scherm.

Ook snap ik de keuze niet van HDMI 2.0 op een scherm die duidelijk op de toekomst is gebouwd (alle drie) met keurige refreshrates icm 4K verwacht je HDMI2.1.

Oftewel, het is het nét niet, ook de DisplayHDR specs voor de 43" worden echt op het randje gehaald, 90% DCI-P3 is minimaal, peak brightness van net aan 600nit is minimaal, het geeft mij toch een beetje het Schneider gevoel "1500Watt PMPO" wat iets van 25w RMS is....
Setups met 1 scherm en 3 schermen werken ok omdat je gewoon recht vooruit kan kijken zonder dat je crosshair op 2 schermen staat. Met 2 schermen is dat vaak toch lastig.

Persoonlijk heb ik een voorkeur voor het 43" model omdat ultrawide schermen bij flightsims niet zo goed uit de verf komen.

Verder deel ik wel je mening over het oppimpen van de stats. Ik denk dat ik even wacht op de concurrentie.
Persoonlijk heb ik een voorkeur voor het 43" model omdat ultrawide schermen bij flightsims niet zo goed uit de verf komen.
Dat snap ik niet zo goed, ik speel geen flight-sims, maar space-sims, en daar is de extra ruimte juist extreem welkom, lijkt mij hetzelfde concept toch? Overigens ook bij mijn andere genre wat ik veel speel (action-)RPG's zoals TW3 is het fijn. (tenminste 21:9 dan, nog nooit 32:9 gespeeld)
Ik heb momenteel deze setup: http://rotjes.bangblog.eu/Cockpit.jpg
Dit 39½" scherm is voor mij net groot genoeg zeg maar. En ja, extra ruimte is welkom, maar in zowel de horizontale als de verticale richting. Bij gebruik van head tracking zal je weldra merken dat omhoog en omlaag ook mee gaan tellen en dat je dus ook in de verticale richting wat meer schermruimte wil hebben. Dit om zaken zoals knoppen boven je hoofd en tegenstanders die je achterna jaagt in een bocht goed te kunnen blijven zien zonder je blik op je instrumenten noodzakelijkerwijs te verliezen. Je ziet bij flightsims ook vaak dat een triple monitor setup wordt opgesteld met de schermen 90° gedraaid om dit mogelijk te maken. ik heb in plaats daarvan voor één groot scherm gekozen.

Als je het mij vraagt zou ik het liefst een 4K scherm zien van 55" met freesync in de range van 40Hz t/m 120Hz, maar wel met genoeg helderheid en minimaal 95% van het kleurenspectrum en een écht mat schermoppervlak.
Ik vraag me onderhand wel een beetje af waar de Asus ROG Swift PG35VQ blijft?

Op dit item kan niet meer gereageerd worden.