Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 51 reacties

De op de CES aangekondigde Asus MG279Q-monitor met 27"-scherm en met een resolutie van 2560x1440 pixels trad dinsdag toe tot de lijst monitoren die AMD's FreeSync-technologie ondersteunen. Dat laat AMD weten via een tweet.

De tweet van @AMDGaming verwelkomt de monitor met een bijgevoegde productfoto waar het logo van AMD FreeSync op prijkt. FreeSync, AMD's alternatief voor G-Sync van Nvidia, moet haperingen in het beeld bij games voorkomen. Asus ondersteunde al wel G-Sync bij enkele monitoren.

De monitor maakte tijdens een eerdere presentatie op de CES gebruik van displayport 1.2a met Adaptive-Sync maar FreeSync-ondersteuning werd toen nog niet nadrukkelijk gemeld. Ook had de monitor toen een verversingssnelheid van 120Hz, schrijft PC Perspective. De maximale verversingssnelheid van het beeld is volgens de nieuwe marketingafbeelding 144Hz, voorgeschoteld via een ips-paneel. Mogelijk is sprake van een hardwarewijziging.

tweet twitter amd asus monitor

Moderatie-faq Wijzig weergave

Reacties (51)

144Hz, IPS en freesync, naar mijn idee een ultiem gaming scherm. Ik had dan wel liever 4K gehad, maar dat is er nog niet met 144Hz, dus als ik moet kiezen dan heeft 144Hz wel mijn voorkeur boven 4K.
Ik ben erg benieuwd naar reviews van dit speeltje. (zeker als amd een beetje opschiet met zijn nieuwe kaarten, dan kan ik mijn "vakantie" geld uit geven :p
Ik weet niet wat voor monster jij hebt, maar 4K op 144hz.......
Vraag me af of quad GTX 980 met een I7EP voldoende is om een recent spel op High/ultra te spelen.
CS GO lukt wel op 4K 144Hz met een crossfire setup of wellicht een enkele 380/390.
Maar een monitor koop je niet voor 2 jaar, mijn huidige 2 schermen zijn 8 en 5 jaar oud, ik hoop met een nieuw scherm net zo lang te doen. En al speel ik de nieuwste games op 1080p 144Hz omdat mn systeem niet snel genoeg is, dan nog heb ik een voordeel bij het kijken van films etc met een 4K resolutie.
Bij sommige reviews lees ik dat 1080p niet perfect scheelt op een 4k. Waar ligt dat aan?
Bedoel je dan 4K of UHD, daar zit namelijk een verschil in UHD is 4x1080p (16:9) dit zou dus geen probleem moeten zijn. 4K daar in tegen is 4096x2160 en heeft dus een beeldverhouding van 1.9:1 en schaalt dus inderdaad niet goed, dit omdat de breedte breder is dan bij een doorsnee 1080p scherm
DCI 4K = 4096x2160 -> Digitale film
UHD 4K = 3840x2160 -> Digitale Televisie
Voor beide varianten word vaak 4K gebruikt vandaar dat het niet altijd even duidelijk is welke variant er bedoelt word. DCI 4K is de dominante standaard, maar de massa kent 4K van televisie's en beeldschermen waar UHD 4K gebruikt word.
Schaal algoritme. De monitor gaat kleuren van pixels die ernaast liggen mengen. Dit doet de 4K monitor door gemiddeldes te gaan berekenen van de de pixels eromheen. Het is dus niet zo dat elke pixel van de 1080P beeld 4x zo groot wordt. Al zou dit wel ideaal zijn.
Ja, dat is meer wanneer je een 4K scherm op 2560x1440p laat draaien, dan krijg je toch enigszins vage letters (niet retina), omdat de monitor dan een soort 'halve pixels' invult, maar een 1920x1080 past vier keer in een 3840x2160 scherm, 1x naast en 1x boven elkaar, dus een raster van vier kwadranten.
Daarom schaalt 4K naar 1920x1080 wel lekker, met HiDPI heb je echt retescherp beeld (geinterpoleerd, dubbel ingevuld) maar naar alternatieven, buiten deze verhouding werkt het minder lekker.
Daarom kun je ook beter een native 2560x1440p scherm halen, als je deze resolutie lekker vind, dan een 4K scherm.
Ik heb nu een 4K scherm voor mijn neus (Dell P2415Q) op 2560x1440 @60Hz en dat werkt prima, maar native is beter. Eindelijk gelukt om 4K uit mijn Mac Mini late 2012 met HD4000 te krijgen, maar ik vind het net iets te klein (Mac OS X laat je niet de menubar resizen, alles kan gewijzigd worden- behalve die bar :') ) en zit daarom op 1440p. Daarnaast komt de monitor niet uit slaapstand of moet ik 4-5x rebooten voor hij het signaal oppikt en aangaat (anders blijft in powersave hangen, waar hij niet meer uitgaat dan)- hij gaat dus sowieso retour, maar 1440p vind ik zelf 'werkbaarder', met retina 1920x1080 ziet je scherm er wel uit als een glossy-tijdschrift, zo scherp- maar je levert veel werkblad in, qua ruimte (infantiel grote letters, imo.)
Daarom: scaling naar andere resolutie's dan de verhouding-resolutie op een 4K scherm- het valt tegen en je hebt een 'vaag' font, ipv scherp.
Zelfs met $K naar FullHD gaat die vlieger niet altijd op helaas. Het kost namelijk weer rekenkracht om alle pixels op te schuiven en 4x zo groot te maken.
Ben ik met je eens, maar het kost altijd bandbreedte*rekenkracht om je beeld weer te geven, als je native draait kost het wellicht geen rekenkracht, maar wel bandbreedte dus zit je vaak aan je specs en Hz limiet waar je tegenaan loopt, ga je naar 1920x1080 non-retina, heb je idd vager beeld dan met HiDPI want hij vult het idd niet 1:1 in, net gecheckt. Dus ook in de 16:9 verhouding van 4K schaalt het niet lekker idd. Je zou denken dat dit toch iets beter zou gaan, maar het valt tegen idd. Ofwel: koop de monitor die bij je past qua resolutie en niet op de groei ofzo- het valt tegen.
Exact, dit is ook mijn ervaring met mijn 4K scherm. Het zou perfect moeten zijn, maar het valt toch wel tegen.
Je kan het schalen ook door de videokaart laten doen. Ik zeg niet dat het beter is, maar de kans is groot dat het anders is.
3860 x 2160 is exact 4x full hd, dus dat zou perfect moeten schalen. Doet het dat niet dan denk ik dat het beeld word geschaald, ik had dit met mijn huidige samsung 27" monitor, hier moest de input worden veranderd van AV naar PC omdat hij anders overschaalt en er dus een deel van het beeld weg valt.
Over het algemeen is dit in de driver of op de monitor aan te passen.
Ik speel Hardline op 4K met twee R9 290's, i5 op ultra met >70fps gemiddeld. Een 980 is een pak sneller, schaalt misschien wel beter, ik denk dat het nog wel mee valt :P

Het grotere probleem is echter dat 4K/144 totaal niet aan te sturen is. Een Displayport kabel gaat tot 4K/60 en daarboven werkt ook gewoon niet. Dus voor 4K/120 zou je al twee van die kabels nodig hebben plus interessante hardware om dat goed aan te sturen :P

Aan de andere kant biedt 144hz een groot ander voordeel, namelijk dat het ook in andere framerates goed meeschaalt zonder dat je drops of tearing krijgt. Een 60fps monitor loopt alleen lekker als je 60 fps aanlevert, of 30 fps. Een 144hz monitor kan omgaan met 24, 36, 48 en 72 fps dus kan je framerate wat meer gevarieerd zijn - al is FreeSync (of G-Sync) sowieso een betere oplossing voor dat probleem.
Ikzelf heb al een tijdje de Asus PB278Q en het is heerlijk gamen op die resolutie mits je de power hebt onder de motorkap.

Als je een 4K monitor zoekt zou de Asus PQ321QE misschien wat voor je zijn. Maar daar moet je wel even wat voor neer tellen, geen goedkope jongen. Om dan nog maar te zwijgen over de kosten van je hardware om games te kunnen draaien.

[edit]
Volgens dit filmpje bevat die 4K monitor twee schermen in een en heeft het dus ook dubbele hdmi connectoren nodig of displayport 1.2 om op 4K 60Hz te werken.

[Reactie gewijzigd door Excorio op 8 april 2015 15:37]

De PQ321Q is leuk, maar ook die doet geen 144Hz, dan is de PB279Q een voordeligere 4K ips optie.
Maar 144Hz vind ik belangrijker dan 4K voor gamen en zoals het er nu naar uit ziet gaan we voorlopig nog geen 4K 144Hz schermen zien, er zijn nog geen schermen of videokaarten met een DP 1.4 aansluiting aangekondigd.
4K op 60Hz met alles aan kan zelfs een highend kaart op dit moment nog niet eens fatsoenlijk, laat staan 120Hz+..
Klopt, maar een scherm koop je niet voor dit moment, je koopt het meestal voor een langere tijd. Ik iig wel.
Gelukkig blijft de PC niet achter op de konsoles nee. Richting perfect voor AMD gebruikers. Voor Nvidea zou ik de Acer xb270hu voor nu doen, die heeft G-Sync. Bijde glorious 144Hrz IPS tech 1440lines. Ik wacht nog even, op schermen met Samsung PLS, dat zou nog net tikje beter zijn kwa kijkhoek en kleuren.
144Hz, IPS en freesync, naar mijn idee een ultiem gaming scherm.
Het ultieme gaming-schermzou ook nog motion blur reduction moeten hebben.
Bv. ULMB (Ultra Low Motion Blur) van nVidia.
Of BenQ's Motion Blur Reduction.
Of Eizo's Turbo240.
Waar ik naar uit kijk is een G-sync variant van deze monitor. Acer heeft ook een IPS 2560x1440 144hz monitor met G-sync en die heeft toch wel een prijskaartje waar je u tegen zegt. Ik hoop persoonlijk dat nu meerdere fabrikanten de gaming monitor markt met zulke monitoren vol laten stromen waardoor de prijzen toch wat in de buurt komen voor het gehele publiek. Natuurlijk zijn er early adopters, maar ik zie mijzelf niet 750 neerleggen voor een monitor.

De acer monitor met gelijke specs, maar dan met G-sync ipv FreeSync. pricewatch: Acer XB270HU Zwart
Ik vermoed dat deze monitor ook niet bepaald goedkoop gaat worden, prijzen zijn nog niet genoemd, maar het zal de prijzen van die Acer niet veel ontlopen ben ik bang met zulke specs.
Dat komt doordat g-sync gewoon veel duurder is dan Freesync. Freesync zit gewoon in de DP 1.2a specificatie wat gewoon een moderne scalar benodigd. Bij g-sync mag je bij nvidia gaan aankloppen voor een speciale module
Ik zou het eigenlijk jammer vinden als g-sync blijfjt bestaan en nvidia freesync gewoon niet ondersteunt.
De Acer XB270HU heeft precies hetzelfde panel als deze nieuwe Asus. Als je dus vooral geinteseerd bent in het beeld, en niet in de kleur van het aan/uit knopje, of de vorm van de voet van een monitor, dan kun je zeggen dat dit dezelfde monitoren zijn.

Deze Asus gaat tegen de 600 euro kosten. (Ik geloof dat ik ergens 580 euro heb gezien deze week).

Ik verwacht zo'n 2-3 jaar te doen met CPU/mobo en met m'n videokaart. Een monitor moet makkelijk 2x of 3x zo lang meegaan. De extra investering in een goede monitor per jaar valt wel mee dan.

Ik heb de Acer XB270HU 3 dagen in huis gehad. (Ik hoop volgende week mijn vervangend expemplaar in huis te hebben). Fantastisch monitor. Mijn twijfels vielen in alle opzichten mee. Ik was bv bang dat 1440p mijn framerates te laag zou pushen. Viel mee. En met 1440p heb je minder zware AA nodig dan met 1080p. En dat krikt de framerates weer wat op. Kleuren zijn inderdaad veel levendiger dan mijn oude TN. 8bit kleur is een verademing tegen 6bit kleur (geen color-banding!). Behalve de blacklight bleeding/ips-glow in donkere spellen in een donkere kamer. Daarom ging mijn exemplaar terug.
Wat gaat deze monitor ongeveer kosten, heeft iemand daar een idee van? :)
In vergelijking met soortgelijke schermen kun je rekenen op een prijs tussen de 650 - 750 euro
Wat gaat deze monitor ongeveer kosten, heeft iemand daar een idee van? :)
Ik heb prijzen van ~580 euro (en $600 in de US) gelezen de afgelopen weken.
Of dat echt zo zal zijn, zal pas blijken als de monitor in de winkels ligt.
Balen dat het een 27" scherm is. Ik heb liever gewoon een 24" op 1080p. 1440p vraagt toch net wat teveel en ik wil niet voor een GTX980 SLI opstelling of iets anders belachelijks gaan. De Eizo FG2421 is wel interessant, maar die heeft geen fatsoenlijke VESA-mount.
Een ding waar ik achter kwam, toen ik een paar dagen een 1440p monitor had: je hebt minder sterke AA nodig op 1440p/27" dan op 1080p/27". Dat scheelt weer in de framerates.

Ik had het niet verwacht, maar de hogere pixel-density is echt opmerkelijk. Veel scherper beeld. Echt veel scherper. Toen ik na 3 dagen terug ging naar mijn oude 1080p/27" scherm, schrok ik van het "pixelation"-effect. 1440p is echt de moeite waard.

In oude games configureer ik zo veel mogelijk eye-candy. Ik heb bv deze winter eindelijk The Witcher 1 uitgespeeld. Game uit 2007. Ik speelde met 4xSGSSAA en high-quality SSAO, via nVidia iNspector. Extra texture en model pack. En wat tweaking via SweetFX. Spel draaide netjes rond de 60 fps op 1080p. Met de nieuwe 1440p monitor dropte dat flink. Waarschijnlijk extra omdat vram-gebruik over de 2GB ging ? Ik heb toen 4xSGSSAA uitgezet, en SMAA in SweetFX aangezet. Resultaat: spel zag en nog steeds beter uit dan op 1080p. En de framerates waren terug naar 60-75.

Zelfde met Ethan Carter. 1080p met 4xMSAA draaide rond de 60. Op 1440p dropte dat naar de 30-35. 4xMSAA uitgezet, SMAA in SweetFX aangezet. Terug naar boven de 60 fps.

TLDR: als je op 1080p met hoge Anti-Aliasing speelt, dan kun je op 1440p met lichtere AA spelen, en toch weer acceptabele fps krijgen.
Off-topic:
Kijk anders is naar de FS2434 deze heeft wel VESA 100x100 en is wat leuker geprijsd.
Die doet geen 120hz of hoger.
Is dat hele G-Sync en Freesync niet gigantisch opgeblazen?
Nee. G-Sync is echt de moeite waard, imho. Je kunt het pas echt apprecieren als je het met je eigen ogen op je eigen computer hebt gezien.

Helaas is het erg moeilijk tegenwoording om nog goede monitors te kunnen zien, voor je er een koopt. Iedereen koopt via webwinkels. En echte winkels in een winkelstraat hebben alleen maar low-end en budget monitoren staan, lijkt het wel. Grote webwinkels zouden een showroom moeten hebben, met vooral monitoren er in. CPU, videokaarten, enzovoorts kun je zelf vergelijken door naar de specificaties te kijken. Of naar benchmarks op het web. Maar een monitor moet je eigenlijk toch met je eigen ogen gezien hebben.
Reactie op artikel:
"De maximale verversingssnelheid van het beeld is volgens de nieuwe marketingafbeelding 144Hz, voorgeschoteld via een ips-paneel. Mogelijk is sprake van een hardwarewijziging."

Het scherm is nog hetzelfde, er stond een aantal dagen geleden op de asus pagina "120hz +" ze werkten nog aan een 144hz specificering.

Top scherm!
In de nabije toekomst de Eizo foris of misschien wel deze Asus als die bij 1080p60 ook goed beeld geeft.
En jij weet alles ?

Ooit gelezen hoe gaming companies textures maken ? Ze beginnen met fotos op heel hoge resolutie. Daar rommelen ze mee tot het er goed uitziet. En dan *down-scalen* ze die textures naar een resolutie die geschikt is voor het spel en het platform waarop dat spel gaat draaien. Het is dus een fluitje van een cent om dezelfde textures in verscheidene resoluties aan te bieden. Sommige bedrijven doen dat niet (lui, kosten besparen). Andere bedrijven doen dat wel.

Heb je wel eens naar de verschillen gekeken tussen GTA V voor de PS3, PS4 en de PC ? Die verschillen zou je natuurlijk het beste kunnen zien als je met een 4k monitor gamet. Toevallig heeft iemand die verschillen even duidelijk gemaakt in een paar YT-filmpjes.

GTA V | 4K Graphics Comparison | PC / PS4 / PS3
---
https://www.youtube.com/watch?v=5A6EBL2t6Lo
https://www.youtube.com/watch?v=D39Vs2PFJws
https://www.youtube.com/watch?v=Ik2kwUNeJ_E

Ik vind de verschillen opzienbarend !
Enjoy.
Dit is misschien heel stom idee (of opmerking) maar ik zou best willen monitor met FreeSync en G-Sync (combinatie) zo dat ik zelf daarna kan bepalen welke GPU ik koop maar dan heb in alle geval mogelijkheid.

Ik weet niet hoe andere mensen maar ik ga vanuit dat niet elke 2 of 3 jaar mensen nieuwe monitor kopen maar wel nieuwe GPU. Als ik koop G-Sync monitor dat zit je beetje vast aan Nvidia en visa versa met AMD. Of heb ik het verkeerd?!
Freesync komt in de nieuwe aansluit "standaard" te zitten, en is reeds in diverse controller chips verwerkt.

G-Sync is een aparte chip van Nvidia welke door de monitor fabrikant ingebouwd dient te worden voor het werkt, deze chip is behoorlijk aan de prijs, derhalve heeft Freesync voorlopig een flink prijsvoordel tov G-Sync.

In de toekomst zal het vast komen, het kan alleen best nog wel even duren ....

Uitgebreid artikel op AnandTech over sync.

[Reactie gewijzigd door Jive op 8 april 2015 15:29]

derhalve heeft Freesync voorlopig een flink prijsvoordel tov G-Sync.
Het zou eerlijk zijn om ook te vermelden dat G-Sync waarschijnlijk een technisch iets betere techniek is. De G-Sync module in de monitor heeft geheugen. Daardoor kan G-Sync wat slimmere dingen doen als de framerate onder het minimum dropt. Dit zorgt er voor dat G-Sync wat smoother is bij relatief lage framerates (30-50 fps).

Hier is een YT-filmpje waar 2 reviewers metingen doen, en er achter proberen te komen wat G-Sync en FreeSync anders doen.
https://www.youtube.com/watch?v=VkrJU5d2RfA
"De G-Sync module in de monitor heeft geheugen. Daardoor kan G-Sync wat slimmere dingen doen als de framerate onder het minimum dropt. Dit zorgt er voor dat G-Sync wat smoother is bij relatief lage framerates (30-50 fps)"

... Wat?
Waar slaat dat nu op?

Monitor: Tijd om te refreshen komt er aan! Heb ik een nieuw beeld? Nee? Opnieuw hetzelfde beeld!
Of dit beeld nu komt uit je GPU of je 'monitor geheugen' maakt toch geen bal verschil? Het is toch niet alsof de monitor op zichzelf met dat beeld uit z'n geheugen een ander beeld gaat berekenen? Daarvoor dient namelijk de PC waaraan hij aangesloten is.
Of dit beeld nu komt uit je GPU of je 'monitor geheugen' maakt toch geen bal verschil
Dat maakt wel verschil.

Ik ga het niet allemaal opnieuw uitleggen. Maar er is verschil tussen wanneer de monitor besluit op een frame een tweede keer te vertonen, of wanneer de GPU dat doet. Er zit namelijk een kabel tussen de GPU en de monitor. En data over die kabel gaat niet instantaneously.

DP1.2a heeft een bandbreedte van 17.28Gbps. Als je daar frames van 2560x1440 overheen stuurt, dan kun je zo'n 180-190 frames per seconde versturen. Dat wil dus zeggen dat het versturen van 1 frame zo'n 5-6 milliseconden duurt.

Dat betekent dat een GPU 5-6 milliseconden eerder moet beslissen of het een frame een tweede keer vertoont of niet. Met andere woorden: G-Sync kan 6 milliseconden in de toekomst kijken (vergeleken met de GPU).

Dat maakt uit als de framerate onder de 30 (en zelfs onder de 40) fps dropt. Als je in detail wilt lezen hoe dat gaat, lees dan mijn post op AT van de link hierboven.

[Reactie gewijzigd door gryz op 8 april 2015 19:03]

Dus kan je beter die beslissing op de gpu nemen of een frame 2x moet dan op het beeldscherm omdat er anders 5ms tussen zit er er misschien al een frame onderweg was als je 1ms langer had gewacht.
G-sync kan niet in de toekomst kijken, tenzij ze een delay van 1 frame toevoegen, dit geeft inputlag (hoe lager de framerate hoe hoger die inputlag kan zijn) en als gamer wil je dit niet (ik in ieder geval niet, daarom speel ik ook altijd zonder vsync).

Dit is hoogstwaarschijnlijk mogelijk in drivers dus AMD zal dit wellicht nog inbouwen. De scaler van Nvidia is helaas niet superieur, anders had je veel meer highend monitoren gezien van A merken (Dell enzovoort).
Die gebruiken liever hun eigen scaler die meer mogelijkheden heeft.
... er misschien al een frame onderweg was als je 1ms langer had gewacht.
De monitor kan zien of er al een frame onderweg is. Zodra de eerste pixel van een nieuwe frame is ontvangen, weet de monitor dat er een nieuwe frame onderweg is. De monitor weet zelfs precies hoe lang het zal duren voor voor die frame helemaal binnen is (5.5ms).

Toen nVidia G-Sync ontwierp, kozen ze voor een oplossing met een aparte module met eigen geheugen. Dat is een aanwijzing dat die module echt een voordeel geeft. (Of denk je soms dat het malloten zijn daar ?) Ten tweede doet mijn eigen analyse me geloven dat G-Sync meer mogelijkheden heeft voor smoother beeld. En ten derde is daar die video die ik link, waar testers de zaak getest hebben, en concluderen dat G-Sync smoother is bij 30-50fps.

Maar als je het niet wilt geloven, dan niet.
Maar als je het niet wilt geloven, dan niet.
Beetje jammer van dat laatste stukje, we zitten hier niet op fok. Je zou verwachten dat je een normale discussie hier kan houden.
Ik beweer nergens dat ik je niet geloof, ik geef alleen een alternatieve oplossing en ik speculeer over wat de werking is.

Hoogstwaarschijnlijk heeft elke monitor een eigen stukje geheugen voor de scaler. Daarmee kunnen ze bepaalde dingen zoals upscaling en interpolatie uitvoeren. Dat de scaler van Nvidia toevallig ook zijn eigen geheugen heeft is goed voor ze.

Freesync is in het geval van de review waar je het over hebt smooth vanaf 37 tot de maximale hertz van een monitor. G-Sync kan door het verdubbelen van de frames smooth blijven tot 30fps, daaronder maakt het niet meer uit omdat het toch een grote slideshow wordt.
Nvidia heeft weinig tot niks losgelaten (bron pcperspective) over de daadwerkelijke werking van de chip, je kan dus alleen speculeren over hoe ze kijken wanneer een frame moet worden herhaalt.
Dit kan dus net zo goed door de driver worden gedaan in het geval van Freesync of er komen wellicht verbeterde scalers uit.

Het zou interessant zijn als pcperspective dieper ingaat op de werking van alles, of er inderdaad input lag ontstaat door het gebruik van g-sync en of het snel varieren v/d framerate microstuttering kan opleveren indien je onder de +/-40fps grens komt. Want dat hebben ze niet getest en dit is wel belangrijk voor de spelervaring, want het komt veel vaker voor dat de fps snel instort dan dat het zo traag gaat als in het voorbeeld van de pcperspective review.

http://www.pcper.com/revi...c-How-Technologies-Differ

Laatste toevoegging, in je reactie op Toettoetdaan zeg je dat het grootste voordeel van freesync/g-sync is dat je op lage framerates nog een smooth beeld hebt. Dit is een van de voordelen, wat voor mij persoonlijk het meest interessant is is dat ik geen v-sync meer aanhoef te zetten. Hierdoor heb je de voordelen van een gesyncte monitor en geen last van de input lag die je zou ondervinden, natuurlijk heeft niet elk persoon evenveel last van input lag maar ik kan er niet tegen :p.
Klopt, maar dat hangt ook af van het paneel, als de minimum refreshrate van een paneel relatief hoog is (>20Hz) dan weet de G-Sync module daar iets handiger mee om te gaan.
Maar als de minimum refreshrate onder een speelbare framerate vallen (zeg 15Hz) dan zou het verschil niet meer uit maken.

Toch vind ik dat wel een belangrijke range, van 40Hz /FPS tot 20Hz/FPS dat is juist waar deze techniek voor bedoeld is dus ik ben benieuwd of hier bij reviews extra naar gekeken wordt. (Of dat AMD nog iets gaat veranderen)
Maar als de minimum refreshrate onder een speelbare framerate vallen (zeg 15Hz) dan zou het verschil niet meer uit maken.
Klopt. En dus zijn er grappen-makers die zeggen: "ik zorg er toch voor dat al mijn spellen met minimum 60fps draaien, dus maakt het allemaal niks uit". Inderdaad. Maar dat zijn dan ook niet het doel-publiek van G-Sync en FreeSync. G-Sync en FreeSync zijn precies ontwikkeld voor gamers en spellen waarbij de fps onder de 60fps duikt.
Toch vind ik dat wel een belangrijke range, van 40Hz /FPS tot 20Hz/FPS dat is juist waar deze techniek voor bedoeld is dus ik ben benieuwd of hier bij reviews extra naar gekeken wordt. (Of dat AMD nog iets gaat veranderen)
Volgens mij begrijpt 90+% niet echt wat er nu gebeurt bij G-Sync en FreeSync. De meesten blijven praten over fps en Hertz. Terwijl fps een gemiddelde per seconde is. Bij stotteren gaat het niet om gemiddelden. Dan gaat het om inter-frame gaps. Hoe veel tijd zit er tussen twee frames. En daar hoor ik reviewers heel weinig over praten. Als je alleen maar denkt in fps en Hz, dan kun je G-Sync en FreeSync nooit echt begrijpen.
Prijsvoordeel? Ja, maar daar is ook alles mee gezegd.

Blijkbaar, van wat ik heb gelezen, ondersteunen Nvidia kaarten in ieder geval niet FreeSync. Wat dit wil zeggen? Nou, zodra je deze mooie monitor aansluit op je GTX 970 of GTX 980 kaart, dan werkt de monitor als een doodnormale IPS monitor en beschik je niet over de FreeSync functies. Gratis is leuk, maar het zou leuker zijn als het gewoon op Nvidia kaarten zou werken.

Ik was van plan om deze monitor aan te schaffen, aangezien deze dus een "stuk" goedkoper is dan de Acer versie, maar aangezien ik alleen maar Nvidia kaarten gebruik, zal deze vlieger niet opgaan voor mij. Dus; of ik hou mijn huidige overgeklokte monitor (96 Hz), of ik ga 3x zoveel uitgeven aan de Acer monitor.

Of Nvidia moet ook FreeSync gaan ondersteunen, maar dat lijkt mij niet, want dan gaat er niemand meer voor een G-Sync monitor natuurlijk, daar de prijs vele malen hoger ligt.

Of, misschien nog beter, iemand komt met een "hack" hiervoor. Hetgéén mij ook niet zou verbazen eigenlijk.
Offtopic: Bedankt voor je toelichting.... Ik hoop dat het echt komt :)
Nu nog een aantrekkelijk design. Techniek is super, maar voor iets wat je dagelijks gebruikt en tegen aankijkt wil ik wel een design die klopt. Dell monitoren vind ik prachtig, maar ook de EIZO FG2421 ziet er strak uit
nouja, zoals ik de foto zie is het enige dat me niet zo bevalt het 'asus' logo in zilver, dat is ook wat mij minder bevalt aan mijn Dell monitor, mooie zwarte smalle bezel maar dan zo'n overduidelijk zilver logo..
Ik zit al een tijdje te kijken naar Freesync monitoren, en heb de acer XG270HU op het oog. En ik wacht nog op een review over de nieuwe Samsung monitoren. Maar deze ziet er ook erg interestant uit :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True