Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 101 reacties

Asus presenteert een nieuwe 24"-monitor in zijn ROG Swift-serie voor gamers. De PG248Q heeft een resolutie van 1920x1080 pixels, responstijd van 1ms, verversingssnelheid van 180Hz en ondersteuning voor Nvidia's G-Sync-techniek.

Asus ROG Swift PG248QHoewel Asus niet noemt welk paneeltype het scherm gebruikt, is het vanwege de lage responstijd aannemelijk dat het om een tn-paneel gaat. Asus kondigde het scherm tijdens zijn ROG-evenement op de Computex-beurs aan. Volgens de fabrikant heeft het paneel een overklokbare refreshrate van 180Hz. Het is nog niet duidelijk of dat de snelheid is na overklokken, of de gegarandeerde snelheid van het paneel.

Het scherm is voorzien van een G-Sync-module, die werkt in combinatie met grafische kaarten van Nvidia. De monitor beschikt verder over de Asus GamePlus-modus, waarmee crosshairs, timers en fps-counters op het scherm kunnen worden weergegeven via opties in het on screen display. De behuizing heeft relatief dunne schermranden, wat het scherm geschikt moet maken voor opstellingen van meerdere monitoren.

Asus heeft nog geen adviesprijs bekendgemaakt. Ook is het nog niet duidelijk wanneer de ROG Swift PQ248-monitor op de markt komt.

Moderatie-faq Wijzig weergave

Reacties (101)

En waar zijn die dunne schermranden dan?
Mijn eerste gedachte ook ja, wat is hier dun aan, mijn 50inch tv heeft dunnere dan dit.
Denk dat jouw tv waarschijnlijk geen dunnere rand heeft, maar dat in verhouding misschien zo lijkt. Dit is wel een 24 inch, geen 50 inch monitor.
Denk overigens dat dit hetzelfde zal zijn als de 27 inch panelen.
De titel heeft het over dunne randen, maar in het artikel wordt er geen woord over gerept.

Als ik de foto (op mijn telefoon) Bekijk schat ik dat de randen al snel >1.5cm zijn. En net als bij -Markster- zijn de randen van mijn (55") TV en ook (40") monitor een stuk dunner.
De titel heeft het over dunne randen, maar in het artikel wordt er geen woord over gerept.
Jawel, namelijk:
De behuizing heeft relatief dunne schermranden, wat het scherm geschikt moet maken voor opstellingen van meerdere monitoren.
Er worden inderdaad geen cijfers gegeven maar aangezien er niet eens is vermeld wat voor paneel er wordt gebruikt is dit niet heel gek. Specificaties volgen waarschijnlijk later.

[Reactie gewijzigd door Pay op 30 mei 2016 22:52]

Het ziet er eerlijk gezegd hetzelfde uit als die van de ROG pg279q. Bij een monitor is het moeilijker om zonder problemen een smalle rand te hebben, je hebt al snel last van backlight bleeding. Waar de pg279q dus al erg veel last van heeft. Je zit er ook dicht op dus fouten vallen meer op, lijkt me. Ik weet zo even niet hoe breed die randen van de pg279q zijn, maar ze zijn vrij smal (ik heb er een). Of het 1,5 cm is kan ik niet zeggen, lijkt me vrij veel.
Idd, ik heb hier een Dell scherm van jaren oud en die randen zijn net zo dik.
Weer een populistische commerciële titel om meer kijkertjes te lokken? Titel slaat uiteindelijk nergens op.
Als ik kijk naar de afbeelding, dan vind ik dit inderdaad niet heel bijzonder dun...
Die waren zo dun dat je ze niet eens zag, daarom hebben ze die dikker gemaakt om te laten zien waar de dunne randen zitten, of is het dan zaten?
Ik dacht net hetzelfde.
Het scherm hier voor mijn neus heeft dezelfde randen en is zo'n 5 jaar oud.
Ja, grappig, ik zat gelijk te kijken en zie hier mijn oude monitor voor mij van een jaar of tien terug qua uiterlijk. :)
Die kun je er los bijkopen
Zo superdun zijn ze inderdaad niet. Maar wat ik wel heel fijn vind om te lezen is het gebruik van het woord "schermrand". Een goed Nederlands woord, wat precies zegt wat het is. In tegenstelling tot het woord "bezel" wat op deze site nogal vaak gebezigd word. Kudos complimenten dus voor de schrijver van het stukje.
Het menselijk oog kan meer dan wij beseffen.
Onlangs is er in een onderzoek nog aangetoond dat mensen een flikkering van 500hz konden onderscheiden.
Dat betekend niet dat al onze content nu naar 500 fps moet, gezien focus en contrast een grote rol spelen.
90hz wordt een beetje als de sweetspot gezien voor de normale sterveling. Daarboven gaat de wet van de diminishing returns op; veel investeren voor weinig verschil.
Ook heeft leeftijd en aanleg/training invloed op ons menselijk "maximum fps".
Hogere refresh rates helpen ook tegen screen tearing. Als je steeds maar hoger gaat dan kom je op een punt dat het niet meer te zien is en dan heb je gsync / vsync / adaptive vsync allemaal niet meer nodig omdat het verschil niet merkbaar is.
Bij hogere refresh rates zijn de tears minder lang zichtbaar en zal het minder vaak voorkomen dat het paneel niet in staat is om een aangeleverd frame volledig te weergeven, maar tearing bestaat nog steeds. Plus het feit dat naarmate je pc verouderd je alsnog in de 45-80 fps range terecht kunt komen. Er zijn daarnaast ook slecht geoptimaliseerde en/of zware games op de markt.

Kortom: G-Sync blijft nodig.
Het klopt dat ze nog steeds bestaan maar er zal een punt komen waar de refresh rate hoog genoeg is dat hoewel het probleem nog steeds bestaat het niet of nauwelijks zichtbaar is en dus een non issue wordt. Ook al heb je 10 fps dan nog kan simpelweg een gigantische refresh rate van de monitor het probleem verhelpen.

[Reactie gewijzigd door qlum op 31 mei 2016 10:13]

Onlangs is er in een onderzoek nog aangetoond dat mensen een flikkering van 500hz konden onderscheiden.
The work presented here attempts to clarify "the rate at which human perception cannot distinguish between modulated light and a stable field." Zegt dus helegaar niets over de nuttigheid van een hoge hz rate. Als je de laagste hz bekijkt waarbij een (zeer geduldige) tester het verschil ziet, is dat een reden om een lage hz aan te bevelen?
Jawel, het nut van een hogere refresh rate is dat het beeld stabieler oogt dan hetzelfde beeld onder een lagere refresh rate. Daarnaast is gebleken dat onze ogen 500 hz nog als een flikkerend beeld kunnen ervaren. Kortom: we moeten zsm. over de 500 hz heen in onze beeldtechnologie!

Je opmerking over 'de laagste hz' raakt imo kant noch wal. Als een tester het verschil tussen een hogere en lagere refresh rate voelt is dat altijd omdat een hogere refresh rate soepeler oogt dan een lagere refresh rate. Dat verschil merken is als het goed is in alle gevallen een reden om een hogere refresh rate aan te bevelen.
echt onzin 500 Hz, als je beetje goed leest merkt de test persoon een knippering. Dit wil niet zeggen dat dit van het beeld komt maar dat de test persoon een knippering ervaart dat komt van de omgevings verlichting en en licht dat van het scherm afkomt.

interferentie van de 2 bronnen (500 en 100hz (led) zou je een 5 hz flickering kunnen zien bij gewoon licht zou dat 50 hz kunnen zijn.

de test ging ook over 2 veschillende bronnen op het scherm. 1 deel van de projector en de andere deel waar de test persoon naar keek waar het ambient licht op scheen.

de kijker ervaart dus een knippering, niets vreemd aan. een scherm met 50hz en gewoon een glooilamp in de zelfde fase geeft het best knipper vrij kijk ervaring.
Leuk die 180hz maar het verschil tussen 144 of 180 zien we toch niet meer?
En jammer dat het geen 1440p is.
Natuurlijk zie je het wel. Toch een beetje jammer steeds van die reacties van "dat zie je toch niet" of "wat is daar nou het nut van". Er zijn meer factoren waardoor je het verschil wel merkt. Waaronder ook inputlag. Het verschil tussen 144 en 165 bij de 1440p variant van de ROG swift merken sommige mensen ook al. Het voelt toch iets vloeiender. Uiteraard niet iedereen, maar er zijn ook mensen die het verschil niet zien tussen 24hz en 100hz op een tv. Dus er is wel enige mate van subjectiviteit. Is een beetje dezelfde discussie als die met hogere resoluties. Het hangt af van de persoon en de situatie. Maar in mijn ogen fijn dat het kan.
ja en dan liefst nog een maatje groter a la 32-34 inch.
188hz is mij echt een raadsel, denk niet dat het echt merkbaar is en een beter resolutie juist wel.

*
Staan momenteel slechts 3 monitoren in de pricewatch die boven de 144hz uit komen
http://tweakers.net/categ...C6lspyuw12gmmMyY8hTZhTSj8

[Reactie gewijzigd door massareal op 30 mei 2016 14:38]

Volgens de "buren"

Verschillende grote eSports-teams gaan er gebruik van maken.
Veel gamers zouden volgens de fabrikant geen grote monitor willen, omdat ze het volledige scherm in één blik moeten kunnen overzien. Daarom is het formaat beperkt gehouden tot 24 inch.
Ik neem aan dat je HW bedoeld. Dat kan kloppen dat men dit in 1 oogopslag wilt overzien. (Als je meer ruimte hebt, kan je er verder vanaf zitten, maar dan heb je ook een ruimer budget nodig)
Tevens willen gamers hogere resolutie, maar die zie ik hier juist niet in terug.
eSports teams zijn niet echt de doorsnede gamer, deze hebben vaak grote budgeten en vaak ook nog andere 'belangen'.
Waar het mij meer om zou gaan is het ontbreken van de FreeSync.
Compenseert het aantal hz het ontbreken van de Freesync.
Zo ja, rond welk aantal hz topt dit af?
Ik denk eerlijk gezegd dat de markt voor 1440p+ resoluties op 120+ (of nu dus zelfs 180+) Hz schermen ook erg niche is. Moderne games op hoge resoluties vreten vaak al resources (die erg veel gamers niet hebben). Als je die ook nog eens op een minimum van 120 frames per second wil krijgen, heb je best een gruwelijke rig nodig.

Volgens mij blijft dit soort monitoren vooral voor spelers van actiespellen (zoals FPS) die graag een zo vloeiend mogelijk spel willen, niet per se het best uitziend (zoals hoge resolutie)
Moderne games op hoge resoluties vreten vaak al resources (die erg veel gamers niet hebben). Als je die ook nog eens op een minimum van 120 frames per second wil krijgen, heb je best een gruwelijke rig nodig.
Daarom zijn hoge Refresh Rates ook niet bedoeld voor grafisch prachtwerk zoals een Tomb Raider, Star Wars Battlefront of Battlefield 1, maar juist voor de Competitive Games als Counter-Strike, Starcraft en DotA2. Spellen die grafisch Okay er uit zien, maar niet zwaar zijn. Die hoge fps geeft spelers dan veel meer controle over hun acties, want dat verschil tussen 60 en 144 is gigantisch. Moet je nagaan als je van 144 naar 180 gaat, dat geeft je nog betere inputcontrole en laat het nog soepeler lopen. Je hebt het over 25% meer framerate, dat is best een groot verschil nog. En dat verschil tussen 144 en 180 zie je echt wel als je goed oplet, ik merk het bij mijn 144hz monitor al als ik van 144 naar 100 ga.
Beetje twijfelachtige redenering. Dat je het verschil tussen 100 en 144Hz ziet, wil niet zeggen dat dit ook voor 144 en 180 geldt. Dit is mogelijk hetzelfde als het verschil tussen 15 en 20KHz geluid kunnen horen, maar niet tussen 20 en 25KHz, omdat dit buiten je waarnemingsbereik ligt.
Alsof je ogen boven 144hz het niet meer kunnen waarnemen? Dat slaat dan toch ook nergens op? Ik kan echt wel het verschil tussen 144hz en 180 zien hoor... Dat met geluid is natuurlijk wat anders, dat is gewoon getest en bewezen dat we een bepaald gehoorbereik hebben, met framerates en ogen is het gewoon weten waar je op moet letten enz.
Tussen 120 en 144hz niet, maar straks tussen 120hz en 240hz/480hz wel
Ben wel benieuwd waar jij dan op let, en waar je het dan aan ziet, dat verschil tussen 144 en 100 hz? Naar wat voor soort dingen kijk je dan als je goed oplet?
Hoewel FreeSync ontbreekt, heeft dit scherm wel G-Sync, wat (nagenoeg) hetzelfde is, maar alleen geschikt voor nVidia kaarten. Indien je een nVidia kaart hebt, zal dit scherm (en ook alleen dan) tot zijn recht komen in gevallen waarbij de FPS niet de max. refreshrate van deze monitor haalt.

Zelf vind ik het een gemiste kans dat ze zijn blijven 'steken' op de full HD resolutie, maar wie weet komen dezelfde eigenschappen (>100hz bij schermdiameter > 24" & resolutie > 2k & niet-TN paneel) nog op andere modellen en/of fabrikanten voorbij.
Tevens willen gamers hogere resolutie, maar die zie ik hier juist niet in terug.
Deze monitor lijkt meer gericht op games als CS:GO en UT waar snellere reacties vele malen belangrijker zijn dan de resolutie van het scherm.
Waar het mij meer om zou gaan is het ontbreken van de FreeSync.
Dit scherm heeft ondersteuning voor Nvidia G-Sync, wat grofweg het zelfde doet.
Als het scherm op eSports is gericht is hogere resolutie zeker niet wenselijk. Men heeft liever 400fps op 720p dan 200fps op 1440p.
En ja, freesync en g-sync zijn eigenlijk een soort vervanging van motion blur maar dan op monitor niveau. Als je gewoon op de minimale 180hz blijft (en ver daar onder ook nog wel) voegt het weinig toe naar mijn begrip.
Niet van motion blur maar van vsync.
Je hebt gelijk, foutje.
Ik merk zelf ook dat op normale afstand groter dan 24 inch gewoonweg irritant begint te worden. Je moet je nek gaan bewegen om dingen te zien. Liever, 24inch met een goede specs dan, 27+ met matige specs.
Zullen vooral CS:GO players zijn. Die zitten vaak met hun neus op het scherm.
24 inch is inderdaad beter hiervoor. Ik speel nu bijna 2 jaar op 27 inch maar merk dat ik meer en meer terug naar 24 wil zodat ik de zijkant beter kan zien.
Volgens de "buren"

Verschillende grote eSports-teams gaan er gebruik van maken.
Veel gamers zouden volgens de fabrikant geen grote monitor willen, omdat ze het volledige scherm in één blik moeten kunnen overzien. Daarom is het formaat beperkt gehouden tot 24 inch.
:? Apart. Komt op mij een beetje over als de keuze maken om met of zonder oogkleppen op te spelen en dan voor mét oogkleppen te kiezen; de 24" 1080p gamer ziet dan wel alles wat er in 1 oogopslag op dat scherm getoond kan worden, maar bijvoorbeeld een ultrawide 3440*1440 gamer ziet én alles wat die 24"1080p gamer ziet, én krijgt als bonus nog de rest van de resolutie die buiten de 1080p valt.

Zelfs als zou je je niet kunnen focussen op datgene wat dan eventueel buiten je focusveld valt, heb je met die delen van het scherm in ieder geval nog het voordeel dat je vanuit je ooghoeken dingen kun opmerken die je op een 24" scherm helemaal nooit zou zien, en daar op reageren.

[Reactie gewijzigd door Kubrick op 30 mei 2016 17:59]

Google voor de grap eens iets als "CSGO black bars" :P

Blijkbaar zijn er veel spelers die graag met "oogkleppen" spelen.
Damn de breedbeeld tv ongelovigen ;) Moet ze nou eens kijken...
Je gaat pixels zien met zo n lage DPI. Op 27 inch is dat al merkbaar

Tevens is het "je ziet na x aantal FPS toch geen verschil" allang ontkracht. Het gaat niet om het zien maar om het verwerken waardoor het beeld er vloeiend uit komt.
Onlangs heb ik mijn 60hz scherm naast een 144hz GSync scherm gehad en het beeld is een stuk rustiger.

Waar je ook rekening mee moet houden is dat je videokaart snel afgeschreven is als je games 144 of180 fps moeten draaien.
Waar je ook rekening mee moet houden is dat je videokaart snel afgeschreven is als je games 144 of180 fps moeten draaien.
Dat is nieuw voor mij. Kan je dat uitleggen als je alle games toch al zonder V-sync speelt? (V-sync introduceert merkbare mouse input lag bij veel spellen, dus die staat bij mij altijd uit)
Nou correct me if I m wrong:
Er wordt ervoor gezorgd dat je beeld refreshrate gelijk is aan het FPS zodat er een vloeiend beeld komt. Als je Vsync uit hebt staan dan worden bepaalde beelden overgeslagen omdat er of teveel FPS zijn of te weinig. Wat uiteindleijk resulteerd in flikkeren. Denk bijvoorbeeld aan het bewegen in een shooter. Dan zie je letterlijk het beeld verversen doordat er verticale strepen komen.

Om het aantal FPS te matchen met je refresh rate, dan moet je videokaart wat beter zijn best doen omdat de frames van te voren berekend worden.

Al zou je zonder vsync 100 fps halen dan kan het zijn dat je met vsync op 60hz al moeite mee hebt omdat het simpelweg te zwaar is. Dat zorgt voor mouse tearing. De videokaart loopt dan achter met zijn berekeningen.

Gsync is dan weer een techniek van Nvidia die het weer op zijn eigen manier doet.

Dus stel je zou zo n 180hz Gsync scherm hebben, dan moet je videokaart ervoor zorgen dat die 180 FPS gehaald worden.
Normaal is eigenlijk 50-60 FPS ongeveer al redelijk speelbaar, tenzij je eist om met 180hz Gsync te spelen. Dan trekt je kaart het niet meer.
Nou correct me if I m wrong:
Je haalt nogal wat dingen door elkaar.
Als je vsynch AAN hebt staan dan worden er soms frames weggegooid.
Als je het uizet dan krijg je zogenaamde screen tearing (en niet mouse tearing, lol).
Screen tearing treedt op als de volgende frame alweer naar geheugen wordt getekend terwijl het aan de achterkant nog wordt uitgelezen richting het scherm. Die tear is letterlijk je videokaart die halverwege het weergeven van het scherm het geheugen met een nieuw frame overschrijft.

Verder ligt die mismatch tusse fps en framerate aan de asynchrone engines op de cpu en heeft op zich niks met de videokaart te maken. Als jij op tijd niet teveel data aan je videochip voert dan is er niks aan de hand qua framerate.

Gsync lost screentearing op door het beeld niet met een constante framerate naar de monitor door te sturen maar te wachten totdat het frame helemaal getekend is (op wat voor snelheid ook) en dan pas het frame aan de monitor doorgeven.Het is hetzelfde als vsync maar loopt op een variabele framerate.
Gsync past de framerate dus aan aan het fps.
Als je game 180fps haalt dan staat gsync in feite uit. Gaat pas werken als je fps lager is dan de max framerate van je monitor. Dan wordt de framerate aangepast aan de fps.

[Reactie gewijzigd door koelpasta op 30 mei 2016 16:27]

Voor csgo dus best vsync uit en fps_max 360, lijkt me dat weinig gpu/cpu combinaties 540 fps continue halen in dat spel.
Het hele idee achter GSync (en de vrij te gebruiken concurrent FreeSync) is dat er juist geen refreshrate meer gehaald hoeft te worden door de videokaart. Met deze technieken kan de videokaart net zo veel frames aan het scherm afleveren als er berekend kunnen worden, gelimiteerd door de refreshrate van het scherm zelf.

Ook als je videokaart 100Hz kan halen dan heb je sowieso geen issues met V-sync op een 60Hz scherm: V-sync is niet meer dan dat de videokaart een frame rendert, en wacht met verder renderen totdat dat frame opgestuurd gaat worden naar het scherm. V-sync zorgt over het algemeen dus voor een lagere belasting voor de videokaart. Het is echter wel naar als de videokaart met v-sync aan net niet de refreshrate van het scherm haalt: de uiteindelijke framerate is dan de helft van de refreshrate van het scherm, en de belasting van de videokaart is maar net meer dan 50%.
Denk dat hij bedoelt dat als je zo'n aso framerate wilt halen, je al snel een nieuwe grafische kaart moet gaan halen: 1 setting te hoog in je nieuwe game en je schiet dik onder de 140 :)
Dat kan ook betekenen dat de eigenaren heel erg tevreden zijn met die schermen. Ik ben er een van! Ik heb ook een 200hz paneel bekeken naast een 144hz paneel met CSGO en ik kon wel degelijk zien dat 200hz vloeiender was.
Ik denk dat het verschil wel te zien is, maar het zal niet zo groot zijn als 30 - 60 Hz of 60 - 144 Hz.
Het verschil is niet zo daverend. Ik denk dat de meeste mensen het niet bewust zullen merken.
Maar ik zie wel een niche toepassing voor pro-gamers.
Er staat een filmpje op YouTube waarbij iemand een blinde test doet en het verschil tussen 120 en 144Hz kan zien. Mogelijk is 188 dan ook zichtbaar. Of het nuttig is, geen idee. We zullen vast op een punt komen dat het inderdaad nutteloos is, mogelijk is dat nu al zo, maar misschien ook niet.
Een blinde test en dan het verschil kunnen zien? :+
Sorry...
Scheelt weer een milliseconde.
Had liever een 21:9 3440x1440 120Mhz of hoger scherm gezien, nu is de gene met de meeste Hz de Acer Predator XR341CK, die is standaard 75Hz, en kan je nog verder OC naar 85Hz
Hoe hoger de refresh rate, hoe soepeler en stabieler het beeld oogt en hoe beter de controls vanwege minder inputlag. Altijd.
Met een responsetijd van 1ms is 1000fps toch ook wel haalbaar? Of is die 180Hz niet het aantal trillingen (die we in hertz uitdrukken) maar het maximaal aantal fps dat de monitor door de kabel heen kan oppikken?

Want laten we eerlijk wezen, LCD-monitors zijn 0Hz al vanaf dag 1. Ze knipperen immers niet. En ze zijn [zoveel als de computer maar uitstuurt] fps. Of zal er op het aantal fps altijd al een technische limiet?
Het aantal Hz duidt het aantal frames per seconde aan.
De responsetijd duidt de vertraging aan dat het duurt om het beeld weer te geven. Voor gamen zijn beide dus belangrijk, voor een film zou het geen probleem zijn als er een responsetijd is van 500ms (indien audio synced blijft ofc) De responsetijd wordt voornamelijk bepaald door de interne elektronica die het beeld moet verwerken en de technologie van het scherm. Bij CRT was dit bijna 0, bij IPS met trage elektrica kan dit 100+ zijn.
Het al dan niet knipperen is niet gerelateerd aan de Hz. Wel was het zo dat bij CRT de knippering harder opvalt bij een lage frequentie. Maar ook bij een hoge frequentie knippert een CRT.
Het aantal Hz en de responsetijd staan wel degelijk in verhouding tot elkaar. Bijvoorbeeld een 16ms scherm kan hooguit 60Hz aan want 1000/16=62,5. De controller van het scherm zou misschien meer aan kunnen maar als de pixels het niet bijhouden dan heeft het geen nut en gaat de beeldkwaliteit er juis op achteruit. (het word een wazige bende)
Om de 180Hz te kunnen halen heb je 5,5ms nodig, maar aangezien de opgegeven waardes van schermen de meest optimale gray to gray waarden zijn kan het zijn dat een IPS paneel geen 180Hz aan kan omdat de zwart naar wit responsetijd boven de vereiste 5,5ms uit komt. Dat zal de reden zijn dat dit scherm dus een TN paneel gebruikt.
Ik vind het een mooi scherm, dit is precies wat de pro gaming scene wil hebben.
Dat klopt niet. Er kan prima ergens een delay zitten die niet aan de schermtechnologie gerelateerd is maar wel aan het verwerken van de input. Door deze delay wordt het beeld niet wazig, het loopt enkel iets achter.
Als een pixel de volgende kleurinformatie al krijgt toegezonden voor hij volledig is veranderd naar de kleur van de vorrige zending dan heeft hij niet de kleur gehad die hij zou moeten hebben. Nu is het natuurlijk wel zo dat dat in de praktijk niet voor zal komen omdat de refreshrate en het paneel op elkaar zijn afgestemd, maar zou je dit niet doen dan krijg je in theorie een wazig beeld want de kleuren lopen dan in elkaar over bij snelle bewegingen.
Lezen is precies niet je sterkste kant....
Er bestaat iets zoals processing (bv. verscherping, upscaling, kleuren aanpassen, ...) waardoor het beeld al met een vertraging bij het paneel aankomt...
Kleine correctie, Hz in het algemeen heeft niet concreet met trillingen te maken (dat is toevallig bij geluid wel), maar gewoon een frequentie, met iets wat x keer per seconde gebeurt. Een cpu trilt ook niet op 3GHz, nee die schakelt/berekent 3 miljard keer per seconde.

Met een monitor is Hz nou eenmaal ontstaan omdat dat los staat van het aantal FPS. Het aantal Hz kan bv 60 zijn, terwijl als je geen v-sync hebt, je GPU een heel andere FPS kan hebben; minder FPS dan 60 (waarbij er frames als het ware meerdere keren door de monitor getekend worden) of meer FPS dan 60, waarbij er uiteindelijk simpelweg frames wegvallen. Uiteindelijk krijg je hierdoor dan ook de bekende screen tearing, omdat de FPS nooit exact in de pas loopt met snelheid en timing van de verversing van je monitor. Overigens met v-sync aan, zul je veelvouden van 60 FPS krijgen, of halveringen. 30, 60, 120, FPS resulteren allemaal in beelden zonder screen tearing.

Maar kortom, de 'hoeveelheid Hz' betekent dan ook simpelweg de maximale verversingsfrequentie van de monitor. Echter met gsync, hebben ze deze variabel gemaakt zodat GPU en monitor in sync lopen zonder dat je vast zit aan exact 30, 60 of 120 FPS, en zou je kunnen zeggen dat de begrippen Hz en FPS een beetje samenvloeien. Maar vanuit het jargon van monitor vs computer, en gewoon voor de duidelijkheid omdat niet iedereen g-sync en v-sync aan heeft staan, zijn die termen zoals ze zijn.
Dun is een relatief begrip ....
Gerelateerd aan andere dunne randen zijn deze behoorlijk dik.
Om te spreken met Obelisk: "Ik ben niet dík! Een beetje gevuld misschien, maar niet dik.

P.S. Hoe kwam die Obelisk (van Asterix dus) eigenlijk aan zijn naam? Er zit wel veel van Obesitas in...

[Reactie gewijzigd door Bruin Poeper op 30 mei 2016 14:58]

Obelix was een beeldhouwer (of hoe je het noemt) hij maakte dus Obelisken waar zijn naam dus vandaan komt :)
Maar is er verschil tussen obeliskas en obesitas?
Of is het obelixas?

Obelix dunne randen dan voor deze monitor.

[Reactie gewijzigd door Bruin Poeper op 30 mei 2016 15:04]

Geen geschiedvervalsing graag. Hij was altijd met menhirs in de weer. Obelisken zijn vierkant.
De behuizing heeft relatief dunne schermranden
Vind ik best meevallen, mijn Illyama heeft niet bijzonder bredere randen en die heb ik toch alweer wat jaartjes.
Asus GamePlus-modus, waarmee crosshairs,
In combinatie met Esport? Opmerkelijk.
Noemen ze dat dun? Minstens 4 keer zo dik als deze van Dell: pricewatch: Dell S2715H Zwart
Goed het zal wel iets persoonlijks zijn, maar vind dit verre van dunne bezels. Ook al staat er 'relatief'.
Dit is gewoon een dikke rand! :)
Dunne bezels vind je terug op de Dell 2414H of op de onlangs geïntroduceerde Acer BM320

[Reactie gewijzigd door Tmaster op 30 mei 2016 15:15]

bij de acer lijkt de rand in verhouding kleiner omdat het hier om een 42" scherm gaat.

De dunne bezel heeft te maken met het fysieke randje wat er omheen zit
die is inderdaad minder dan 1 mm, maar het scherm zelf heeft ook nog een rand die dus niet helemaal tegen de bezel aan zit...

het enige scherm waarvan ik weet dat dat ok daadwerkelijk een dunne bezel en schermrand heeft is op de Dell XPS13
Jammer dat het G-sync en geen Freesync is. Als hier een Freesync variant van uit komt zou dit een goede opvolger kunnen zijn van mn huidige scherm.
ik kan echt niet meer zonder 144hz 1080p en g-sync,ik heb ook bewust gekozen voor 1080 resolutie omdat ik het beter spelen vind dan op 1440p in first person shooters,
mijn monitor btw is BenQ xl2420G.

[Reactie gewijzigd door d1zzje op 30 mei 2016 19:00]

zelfde hier freesync 34-144 hz range op 1080p
1080p is genoeg * hoogere resolutie is meer eisen aan de hardware * en ik wil nog wel ff een paar yr vooruit kunnen met mijn gpu :)
laat ik nou net een acer predator x34 gaan bestellen volgende maand :p 3440x1440 @ 100hz met gsync
veel plezier op die resolutie alles op max te draaien.
Ik geef elke 4-5 yr 400-500 euro uit aan een nieuwe gpu ( en 100-200 aan een nieuwe cpu )
Als ik nu op 3440p ga zitten ken ik elke yr een nieuwe gpu kopen om bij te blijven XD * als ik enegzins op 100 fps wil spelen met zon scherm XD

[Reactie gewijzigd door dragnar12 op 31 mei 2016 16:24]

Gelukkig heb ik nu een GTX980, die gaat 't wel aankunnen for the time being. Verder kan ik met een GTX1080 of GTX1080TI vast wel meer dan 60FPS op max kunnen draaien! Ik ga G-sync nemen, dus ik zet me vast bij nvidia ;)
vraag ik me af die nieuwe nvidia,s hebben nog steeds problemen met async compute naar wat ik heb vernomen * direct x12 shit *

[Reactie gewijzigd door dragnar12 op 31 mei 2016 17:19]

Wat voor problemen waren daar mee dan? Ik ben sowieso van plan om geen kaart te kopen met kinderziektes, design perfected en dan een vendor kiezen met een beter koeler. Waarschijnlijk EVGA. Wel jammer dat mijn GTX980 zo onderhevig is geweest aan inflatie door de komst van de nieuwe generatie.
en natuurlijk 1 ms ik weet niet als je dat ook haalt met een 1440pscherm met g-sync dat zou best kunnen maar kost ook meer en een betere setup is wel vereist.

[Reactie gewijzigd door d1zzje op 30 mei 2016 19:01]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True