ASUS' 480Hz-wqhd-oledmonitor krijgt adviesprijs van 999 dollar

ASUS kondigde zijn ROG Swift OLED PG27AQDP-monitor al aan op de CES in januari. Tijdens de gamescom heeft de eerste 480Hz-wqhd-oledmonitor nu een adviesprijs gekregen van 999 dollar. Wat het scherm in Nederland precies zal kosten is nog onbekend.

De ROG Swift OLED PG27AQDP heeft een mat woledpaneel van 26,5 inch met 2560x1440-pixelresolutie. Het scherm heeft een rgwb-subpixelindeling, net zoals het 32"-4k-woledpaneel in bijvoorbeeld de ASUS ROG Swift OLED PG32UCDP. Die indeling lijkt meer op de gebruikelijke 'rgb'-volgorde dan de voor eerdere 1440p-woledschermen gebruikte rwbg-indeling, wat colorfringing moet helpen verminderen.

ASUS ROG Swift OLED PG27AQDP
De ASUS ROG Swift OLED PG27AQDP ondersteunt bfi
('ELMB') bij 240Hz

Zoals ASUS al op de CES bekendmaakte, heeft de PG27AQDP een maximale refreshrate van 480Hz. Dat is hoger dan bij eerdere wqhd-oledmonitors, waarvan de snelste op 360Hz verversen. De piekhelderheid zou 1300cd/m² bedragen en het scherm kan 99 procent van de DCI-P3-kleurruimte weergeven. Net als andere recente ASUS-oledschermen heeft de PG27AQDP een black frame insertion-functie (bfi) die op de halve refreshrate van het scherm werkt, in dit geval dus op 240Hz. In het scherm zitten ook enkele nieuwe anti-inbrandfuncties, zo laat de fabrikant weten. Zo is er bijvoorbeeld een optie om de taakbalk of de hoeken van het beeld automatisch te dimmen.

In het persbericht dat ASUS tijdens gamescom heeft uitgestuurd, krijgt de ROG Swift OLED PG27AQDP een adviesprijs van 999 dollar. Een Nederlandse vertegenwoordiger kon desgevraagd nog geen lokale prijs melden; wel dat het scherm hier in het vierde kwartaal in de winkels moet liggen.

ROG Strix OLED XG27ACDNG en ROG Swift PG27AQNR: 360Hz met oled of ips

Behalve de PG27AQDP toonde ASUS ook nog wat andere monitors op de gamescom. De ROG Strix OLED XG27ACDNG verschilt qua productnaam weinig van de ROG Strix OLED XG27AQDMG die al iets langer uit was. Beide schermen hebben een glossy afwerking, waarbij de XG27ACDNG geen woled-, maar een wat gebruikelijker QD-oledpaneel heeft met 27"-diagonaal en 2560x1440 pixels. De refreshrate van maximaal 360Hz valt precies tussen de 240Hz van woledvariant XG27AQDMG en het 480Hz-model PG27AQDP.

ASUS ROG Strix OLED XG27ACDNG en ROG Swift OLED PG27AQDPASUS ROG Strix OLED XG27ACDNG en ROG Swift OLED PG27AQDPASUS ROG Strix OLED XG27ACDNG en ROG Swift OLED PG27AQDP

De XG27ACDNG heeft dezelfde anti-inbrandfuncties als de PG27AQDP en in tegenstelling tot bij de PG27AQDP is er een USB-C-poort met 90W power delivery aanwezig. Ook dit scherm moet in het vierde kwartaal in de winkels liggen, maar een prijs is nog niet bekend.

De ROG Swift PG27AQNR is een ips-lcd-monitor met eveneens een 27"-diagonaal, 2560x1440-pixelresolutie en 360Hz-refreshrate. Bijzonder aan dit scherm is vooral dat het een van de eerste volledige G-sync-schermen is op basis van een Mediatek-scaler. Eerder hadden dit soort monitors een eigen Nvidia-scalerchip. In tegenstelling tot bij oudere G-sync-schermen kan de motionblurreductionfunctie op de PG27AQNR worden gebruikt in combinatie met een variabele refreshrate, wat Nvidia 'Pulsar' noemt. Overigens waren er al langer non-G-Sync-monitors met zo'n functie, onder meer van ASUS zelf.

De PG27AQNR heeft DisplayPort 1.4, tweemaal HDMI en een USB-poort die kan worden gebruikt voor firmware-updates. Er is nog geen informatie over verdere beeldeigenschappen, zoals kleurbereik en hdr-ondersteuning. Ook de PG27AQNR heeft nog geen prijs en een releasedatum in het vierde kwartaal van 2024.

Door Friso Weijers

Redacteur

22-08-2024 • 14:15

37

Lees meer

Reacties (37)

37
34
9
0
0
22
Wijzig sortering
Kijk, er worden mooie stappen gemaakt om eindelijk de Blur Buster law te doorbreken. 240Hz BFI daar mag je mij wel voor wakker maken :Y)
Als ik het goed lees heeft dit scherm PG27AQDP dus geen glossy afwerking. Gemiste kans wat mij betreft.

Overigens is 'glossy' ook subjectief. Ik heb nu de XG27AQDMG in gebruik en dat scherm is lang niet zo glossy als mijn MacBook Pro of LG OLED C2. Er is nog steeds sprake van een soort coating / lichtdiffusie.

Wat ik me wel afvraag is of het mogelijk is om 480Hz op QuadHD over DP 1.4 te pompen? Of moet je dan per se op HDMI 2.1 zitten?

[Reactie gewijzigd door DiscoNootje op 22 augustus 2024 14:42]

Inderdaad, ik was al aan het scrollen of iemand de berekening had gemaakt, maar deze ontbreekt. Dus bij dezen:

(uitgaande van 8-bit kleurendiepte zonder chroma subsampling of compressie)
kleurendiepte = 8 bit
refreshrate = 480

Pixels = 2560 * 1440=3.686.400 pixels
DpF (data per frame) = pixels * kleurendiepte = 3.686.400 * 24 = 88.473.600 bits per frame
Bandbreedte = DpF * refreshrate = 42.467.328 -> ~ 42.5 Gbps

DP 1.4: 32.4 Gbps (zonder compressie), 25.92 Gbps effectief (met aftrek overhead)
HDMI 2.1: 48 Gbps (zonder compressie), effectief hetzelfde (geen overhead bij HDMI 2.1)
(bron: https://cablenet.co.uk/news/detail/id/40)

Kortom:
- DP 1.4 schiet tekort zonder compressie/chroma subsampling op 8-bit
- HDMI 2.1 kan het zonder compressie doen, maar met 10-bit kleurendiepte schiet het wellicht weer tekort.

DSC compressie wordt zowel toegepast in DP 1.4 en HDMI 2.1 met gebruikelijke compressies van 2:1 en 3:1. De volledige setup moet deze methodiek dan wel toestaan natuurlijk, maar ik geloof dat er hier ook vanuit wordt gegaan en daarom dat DP 1.4 alsnog kan werken. Indien dat het geval is, is de configuratie meestal zo aardig om het ook automatisch voor je aan te zetten :)

(edit: bronvermelding :) )

[Reactie gewijzigd door Litanic op 22 augustus 2024 15:11]

Interessant! Dank voor het uitrekenen. Overigens zijn die OLED panelen altijd 10-bit dacht ik ergens te lezen. Dus als ik het goed begrijp wordt dat wel een uitdaging op DP 1.4 zonder compressie, en misschien zelfs met ook.
Correct! Ook dit scherm is 10-bit en dat was mij even ontgaan (dat is nog even wennen aangezien dat meestal voor professionele schermen is weggelegd 😅).

Zelfs met HDMI 2.1 schiet hij dan tekort:
kleurendiepte = 10 bit (wordt nu 30 bits per pixel)
refreshrate = 480

(even een minder warrige berekening)
bpp (bits per pixel) = 10 * 3 = 30
pixels = 2560 * 1440 = 3.686.400 pixels
DpF (data per frame) = pixels * kleurendiepte -> 3.686.400 * 30 = 110.592.000  bits per frame
bandbreedte = DpF * refreshrate -> 110.592.000 * 480 = 42.467.328 -> ~53,08 Gbps

Ongeacht of DP 1.4 of HDMI 2.1 wordt gebruikt, compressie moet nu worden toegepast. DsC bv. is helaas niet 'true' losless maar visueel/praktisch gezien wel. Voor ons tweakers is het wantrouwen kortom terecht als we alles puur natuur en op de max aangeleverd willen hebben.
(bron: https://vesa.org/vesa-display-compression-codecs/)

Voor degenen die allergisch zijn voor het gebruik van compressie kun je dit doen:
- van 10-bit naar 8-bit kleurenruimte gaan (24-bit ipv 30-bit per kleurenkanaal)
- Verversingsnelheid op 360hz zetten 🤪

[Reactie gewijzigd door Litanic op 22 augustus 2024 15:52]

Dank voor de context! Het zal voor de gamer die interesse heeft in 480hz schermen waarschijnlijk weinig uit maken. Toch interessant om te zien dat de bandbreedte eis zonder compressie trucjes niet gehaald kan worden. Uiteindelijk maakt het voor de perceptie weinig uit zoals je aangeeft, dus de afweging van Asus/LG is wel te begrijpen.
@DiscoNootje

Wat zijn de exacte verschillen tussen de:

XG27AQDMG en de XG27ACDNG
Mooie schermpjes! Nu alleen nog beter betaalbaar worden haha.
Voor dat geld kan je een 2dehands wagentje kopen.
Je kan er ook leuk van op reis ;)
The screen also includes their new AI Assistant features, which boasts a suite of features such as AI Visual, AI Crosshair, AI Sniper, AI ShadowBoost, and the MOBA Map Helper to enhance gaming experiences.
TFTCentral

Dit scherm heeft alles wat ik zoek. 240Hz BFI op 480Hz. 27" met 1440p. WOLED. Maar dan zie je de lelijke gamer features en deze ingebouwde hardware cheats. Wat een afknapper.

Hopelijk komt er een andere fabrikant met hetzelfde paneel zonder deze ongein.
Als ik het goed begrijp verlaagt BFI de response tijd van de monitor, is dat correct? Niet te verwarren met input latency.

Waarom zou 240hz BFI beter zijn dan gewoon 480hz gebruiken?
Op 480Hz verlaagt BFI de ververssnelheid naar 240Hz, waardoor het scherm component van de input-to-photon latency inderdaad 2x zo hoog wordt. Dit is niet interessant voor spellen als CS2 of Valorant.

Maar elk ander spel, dat nooit 480FPS gaat halen juist wel. Je krijgt er een veel scherper bewegend beeld van. Heb je ooit moeite gehad om iemand z'n naam te lezen terwijl ze aan het bewegen waren? Dat zijn zaken dat BFI oplost. Het wordt al helemaal mooi als dit paneel double-BFI ondersteunt. Dan is het scherm 160Hz, met twee black frames, voor een nóg scherper beeld.

480Hz opent dus meer mogelijkheden. Op een 200Hz paneel is het minder wenselijk, en eigenlijk is double-BFI dan ook niet te doen.
Dank. Dus voor competitive gebruik je 480hz, maar voor de zwaardere single player ervaringen gebruik je 240hz BFI.
Wat nou als ik maar 360 fps haal ingame met cs2. Adviseer je dan bfi enabled en 240hz te spelen?
Als de monitor 480Hz is dan is de kans groot dat 'ie ook op 360Hz kan (60Hz increments). Als FPS en refresh rate in sync zijn kan het spel vloeiender aanvoelen, maar eigenlijk is dat voor competitive gaming niet belangrijk. Je wilt zo veel mogelijk frames met zo min mogelijk input lag. Daarvoor is één ding enorm belangrijk: belast je GPU niet 100%. Elk moment dat je GPU 100% belast wordt is een moment dat je CPU zit te wachten totdat je GPU klaar is, waardoor het geen input kan verwerken (en dus input lag).

Je wilt je FPS limiet dus zo instellen dat je GPU maar tot 99% gaat. Gebruik daarvoor altijd de FPS limiet in de games zelf, want die zijn het best. Externe tools zijn er niet zo goed in (ze kunnen het wel, maar minder efficient).

Maar je wilt nooit meer FPS hebben dan de refresh rate van je monitor. Heb je 360 FPS maar je monitor is 320Hz, dan gooi je elke seconden 40 frames plus de voordeel (vloeiend beeld) van een 1:1 FPS:Hz sync weg.
Dergelijke schermen hikken tegen de limieten aan van wat praktisch mogelijk is, en daarom verbaast het me soms dat niet de laatste technieken worden gebruikt zoals hier ook het geval is. Ik krijg direct de brandende vraag: Waarom wordt er DP1.4 gebruikt en niet DP2.0 met zoveel grafisch geweld? Is HDMI2.1 wel genoeg?

Met 2560x1440 @ 480hz en 10-bit kleurendiepte, gaat er echt een bak aan informatie door je systeem. Welke interfaces kunnen dit aan?
Benodigde bandbreedte: ~53,08 Gbps (resolutie (2560x1440) * frequentie (480) * kleurendiepte (3x10))
- Bandbreedte HDMI 2.0: ~14,4 Gbps (netto na overhead)
- Bandbreedte DP 1.4: ~25,92 Gbps (netto na overhead)
- Bandbreedte HDMI 2.1: 48 Gbps (netto, geen overhead)
- Bandbreedte DP 2.0: ~77,37 Gbps (netto na overhead)

Snelste interface van deze monitor: hdmi 2.1 -> 48 - 53,08 = -5,08 Gbps

Er is dus net te weinig bandbreedte beschikbaar omdat alleen DP 2.0 de lading kan dekken, maar voor deze monitor biedt DsC wel soelaas. Deze biedt gebruikelijk een 2:1 of zelfs 3:1 compressie die visueel lossless zijn. Nu heb ik dit zelf niet ervaren, maar deze compressie kan wel on-the-fly worden aan/uit getoggled, zelfs bij dergelijke framerates.

Per frame op deze resolutie en kleurendiepte heb je ~110 Mbps nodig (2560 * 1440 * 30). Met andere woorden zal het volgende fenomeen plaatsvinden in de best-case scenario's:
- Je monitor biedt compressieloze beelden t/m ~200hz met DP 1.4 (10% interface overhead meegerekend)
- Je monitor biedt compressieloze beelden t/m ~380hz met HDMI 2.1 (geen overhead hier)

Conclusie: Vanaf ~200hz met DP1.4 of ~380hz met HDMI 2.1 zal DsC worden aangezet (indien beschikbaar) en zal deze (lossy) compressie er voor zorgen dat je scherm tot 480hz kan lopen :)

Nu begrijp ik dat de implementatie van DP 2.0 gepaard gaat met duurdere componenten (ook de implementaties voor de interfaces van de monitor moeten hogere bandbreedtes dan ondersteunen, dan wanneer DsC wordt gebruikt), maar toch vraag ik me af of het bij een dergelijke MSRP er niet eventjes bij kon.

(bronnen:
https://www.avaccess.com/...y-stream-compression-dsc/,
https://cablenet.co.uk/news/detail/id/40,
https://vesa.org/vesa-display-compression-codecs,
mijn reactie verderop)

[Reactie gewijzigd door Litanic op 22 augustus 2024 16:39]

De prijs is al bekend! 1099e bij alternate bijvoorbeeld.
Is dit de nieuwste trend voor monitoren?
Ik snap dat van 60Hz naar 144Hz een verschil is en dat het vloeiender is.
Maar van 144 naar 240 naar 360 en nu 480Hz.

Is het verschil waarneembaar voor ons tussen deze refresh rates?
Lijkt mij persoonlijk overbodig. Een 144hz scherm is meer dan voldoende als je het mij vraagt.
Dit zal wel meer gericht zijn op e-sporters verwacht ik.
Ik denk dat 95% toch beland op bureaus van "gewone" gamers.
Wanneer je pc al met moeite 100 fps aantikt dan heeft dat scherm weinig zin maar wie ben ik :P
Mensen kopen eenmaal graag "overkill" ben er in andere zaken ook wel schuldig aan.
Klopt, maar vergeet niet dat ook veel "gewone" gamers maar 1 of 2 games spelen gericht op esports, in dit soort games is 400+ fps niet onhaalbaar en geeft dit scherm dus wel degelijk een voordeel.

Ik denk dan aan, CS2, Valorant & Overwatch
In 'Pro' FPS games zoals Valorant, CS2 en Overwatch spelen veel mensen ook niet op native resolutie, ik zelf ook niet.
Op mijn 1440p scherm speel ik deze games altijd op een resolutie van 1600x1200, daardoor haal je automatisch ook meer FPS.
Een andere term hiervoor is 'Streched' omdat je het 4:3 beeld uitrekt op een 16:9 scherm, hierdoor zijn de player models breeder en ervaren sommige mensen het spel als makkelijker te spelen.
De voordelen qua input lag zijn misschien discutabel (maar er zijn zeker argumenten dat er voordelen zijn), maar de hoge refresh rate is vooral bedoelt om de inherente limieten van sample-and-hold displays te overwinnen. Dat gaat dan vooral om scherpte bij beweging. Een OLED heeft misschien een response rate van 0.4ms, maar toch zie je bij een UFO test op lagere refresh rates alsnog persistence blur. Pas vanaf 1000hz of meer zal je hier geen last van hebben.
Lees even de dergelijke reacties onder andere berichten over aankondigingen van monitoren even, daar wordt ook deze vraag veelvuldig besproken en beantwoordt. Maar in een notendop, met 144Hz heb je dus een reactie tijd van 6.9ms, maar met 480Hz is dat dus 2.08ms, minder dan een derde ervan dus.

Voor het gemiddelde oog is het niet zichtbaar, ook voor die van een (pro)gamer niet. Maar doordat eea wel sneller opvolgt, heb je ook minder last van delay, omdat het sneller in beeld verschijnt, dus loopt het beter synchroon met bijvoorbeeld de input.

EDIT:
Zie bijvoorbeeld Metian in 'AOC-gamingmonitor van 24,5" met 360Hz-paneel en G-Sync kost 849 euro', waar juist dezelfde vraagtekens bij 360Hz al werd gesteld.

[Reactie gewijzigd door CH4OS op 22 augustus 2024 15:03]

Klopt, in competitie kunnen hele kleine verschillen het verschil maken tussen winnen of verliezen. Kijk naar elk denkbare sport. Ik hoef ook geen super lichtgewicht racefiets te hebben als ik van plan ben in mijn eentje wat te toeren voor lichaamsbeweging. Echter als ik in competitie moet vechten tegen iemand die net even wat lichter is kan dit wel het verschil maken.

Als je twee mensen hebt met exact hetzelfde reactievermogen en precies gelijk aan elkaar zouden zijn, wint automatisch diegene met de laagste latency in hardware.

Voor mij is 144Hz wel voldoende, BFI is overigens wel interessent, heb dat nog nooit in actie gezien. Behalve dan dat het me aan vroegah doet denken waar CRT's ook nog echt knipperden, ware het met veel lagere refreshrates. Toen was 60Hz nog echt beroerd voor je ogen.
zolang het betaalbaar word is het opzich geen probleem toch?
Het verschil tussen 240 en 120 zie ik zelf in ieder geval wel. Niet als je me zo achter een scherm zet denk ik, maar ik merkte het zelf toen ik Black Mesa aan het spelen was die steeds 200+ fps, tot we in de nieuwe omgeving kwamen en ik merkte dat het minder vloeiend was. Fps counter aangezet en inderdaad, zat daar rond de 120.
Ik kan me dus wel voorstellen dat iemand die echt veel competitief shooters speelt er wel iets van voordeel uit kan halen. Zelf doe ik dat nauwelijks en ben ook al boven de 40 dus als ik het al kan merken...
Ik denk dat het de bedoeling van deze monitor is om met BFI te spelen en dan zit je dus op 240Hz. Het is bedoeld voor e-sport en games die deze fps ook kunnen halen. Dus Overwatch, Valorant, CS en zo voort. Voor je reactietijd zou het niet veel uit maken gok ik, maar waar het wel uit kan maken is hoe goed je een persoon kan volgen op je scherm. In deze games kom je vaak in situaties waar je in close-quarters om elkaar heen staat te springen. Is deze situaties zorgt een hogere fps dat je de richting van van de beweging van je vijand beter in kan schatten en zo kan voorspellen waar hij landt.
Heb zelf een 360hz gehaald en, van iemand die zei dat 144hz wel genoeg zou zijn voel je toch echt duidelijk het verschil, zelfs tussen 240 en 360hz (ze hadden een mode geintroduceerd waar je DSC uit kon zetten maar dan op 240hz verder kon, vond ik aardig wat % verlies aan hz, toen heb ik met hulp van internet zonder DSC 345hz kunnen bereiken dus dat is dan wel weer top, no way dat je het verschil tussen 345 en 360 opmerkt) zie je dan wel weer duidelijk.

Weet dan weer niet of je dan het verschil tussen 360 en 480 (is toch weer 33% er bij) kan voelen en hoeveel maar vgm was ±500hz wel echt het limiet van wat wij kunnen voelen, daarna is het vooral latency verminderen.

Enige echt grote probleem (naast uiteindelijke degradatie) is een GPU aanschaffen die er ook echt profijt van kan nemen, 60 fps op 360hz is nog steeds fijner dan op 60hz maar natuurlijk niet ideaal, jammer genoeg kan ik niet veel meer dan dat hopen van mijn 3070 in moderne games. (wukong speel ik maximaal met 72fps op optimized settings)
Ik ben van een 144hz naar een 360hz gegaan, dat was een flinke stap. Deze Oled schermen schijnen nog veel sneller te zijn, en dus beter. Maar van wat ik begrijp moet er nog wel wat gebeuren om VRR(G-sync) goed te laten werken, dat levert nu nog flikkeren op. Maar we komen steeds dichter bij perfecte schermen.
Laat ik voor het gemak stellen dat je volledig gelijk hebt: Goed voor die andere 1% toch? Op de wereldbevolking is dat in absolute aantallen zelfs nog best veel.

Waarom zijn sommige mensen altijd zo negatief bij dit soort ontwikkelingen? Ondervinden jullie er nadeel van? Volgens mij profiteer je zelf mee onrechtstreeks want je standaard 24" 1920x1080 60hz schermpjes worden alleen maar goedkoper ermee.
Negatief? Hoe is zeggen welke niche iets pasts negatief?

Ik gebruik sen lg c1 als monitor ook niche vermoed ik maar niet minder goed.

Op dit item kan niet meer gereageerd worden.