Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 84 reacties
Submitter: Kid Jansen

Acer heeft een monitor voorzien van AMD's FreeSync-technologie. De monitor met typenummer XG270HU heeft een schermdiagonaal van 27 inch en een resolutie van 2560x1440 pixels. Het apparaat krijgt van de fabrikant een adviesprijs van 499 euro mee.

De FreeSync-technologie van AMD is de tegenhanger van Nvidia's G-sync. Het systeem moet haperingen in het beeld bij games voorkomen. Verder heeft de monitor volgens Acer een reactietijd van 1ms, een verversingsfrequentie van 144Hz en dunne randen. De monitor kan worden aangestuurd via hdmi 2.0, dvi of displayport. De schermhelderheid kan automatisch aangepast worden aan de lichtomstandigheden en een blauwfilter moet blootstelling aan dit type licht verminderen. Blauw licht kan invloed hebben op het circadiane ritme, wat slaapproblemen kan geven.

Het verschil met FreeSync ten opzichte van G-sync is dat het vrij te gebruiken en royalty-free is. Bovendien combineert Nvidia G-Sync met een hardwaremodule, al is deze niet vereist. Vesa, de organisatie die over videostandaarden gaat, heeft FreeSync als optionele component opgenomen in de displayport 1.2a-specificatie, als onderdeel naast de Adaptive-Sync technologie. De maximale verversingssnelheid van FreeSync is 240Hz. Momenteel is slechts een tiental apu's en gpu's van AMD, evenals een zevental monitoren compatibel met FreeSync.

xg270hu

Moderatie-faq Wijzig weergave

Reacties (84)

Hier is een complete lijst met verkrijgbare en aangekondigde FreeSync monitoren :).

Nu op de markt: LG 29UM67, LG 34UM67, BenQ XL2730Z en dus nu de Acer XG270HU.

Op de site van AMD kan je de laatste driver (AMD Catalyst™ 15.3 Beta Driver) met FreeSync ondersteuning vinden.

Momenteel ondersteunen alle grafische kaarten en processoren met de GCN 1.1 of nieuwere architectuur FreeSync. Dit zijn dus de:

Graphics Cards (GPU's)
  • AMD Radeon R9 295X2
  • AMD Radeon R9 290X
  • AMD Radeon R9 290
  • AMD Radeon R9 285
  • AMD Radeon R7 260X
  • AMD Radeon R7 260
Processors (APU's)
  • AMD A10-7850K
  • AMD A10-7800
  • AMD A10-7700K
  • AMD A8-7600
  • AMD A6-7400K
Edit:
Lolletje99: Waarom geen R9 280x? Iemand enig idee?
Omdat pas sinds de GCN 1.1 architectuur ondersteuning voor variabele vernieuwingsfrequenties is ingebouwd. GPU's die gebaseerd zijn op GCN 1.0 of ouder, zoals de R9 270(X) en R9 280(X), ondersteunen dus geen FreeSync. Zie hier een compleet overzicht welke videokaart op welke architectuur is gebaseerd.

Edit 2: Hieronder zie ik een discussie ontstaan over de verschillende (minimum en maximum) vernieuwingsfrequenties van de monitoren, in dit draadje zijn we daar ook al op in gegaan en vind je wellicht antwoorden :).

Edit 3: Sandw!ch, dat klopt inderdaad, maar dit is een zeer tijdelijk probleem. In de volgende (niet bŤta) driver zou dit al opgelost moeten worden.

[Reactie gewijzigd door Balance op 23 maart 2015 17:08]

De R9 295X2 is een kaart met twee GPU cores waarvan er ťťn uitgeschakeld moet worden voor Freesync ondersteuning. Freesync ondersteunt namelijk nog geen Crossfire, en ook geen Eyefinity.
In de huidige driver ja. Maar AMD heeft aangegeven in April (of mei ik weet het even niet meer) met een driver te komen waar Freesync wel met CF werkt.
Waarom geen R9 280x? Iemand enig idee?
Je hebt bij de GCN architectuur (waar de HD7xxx en Rx 2xx serie uit bestaan) een aantal verschillende versies:

Je hebt GCN 1.0. Hier begon het allemaal mee:
Cape Verde: HD7770 en HD7750 = R7 250(X)
Pitcrain: HD78x0 = R9 270(X)
Tahiti: HD79x0 = R9 280(X)
Deze kaarten hebben nog de oudere GCN 1.0 Architectuur. (er zijn nog een aantal low end kaarten maar sinds AMD APU's heeft met GCN zie je deze chips niet veel meer)

Toen kwam er een kleine update van deze architectuur namelijk GCN 1.1 (officieel gebruikt AMD geen GCN1.0, 1.1 enz maar techsites gebruiken dit wel om het verschil aan te geven)

De eerste chip was Bonaire (HD7790) en later werd dit de R7 260(X)
De 2e chip die uit kwam was Hawaii (R9 290(X) + R9 295X2)
Deze kaarten hebben onder andere een aangepaste Tesselator, Powertune 2.0, Freesync en Truesound

Dan heb je ook nog GCN 1.2 op dit moment is er maar een chip die deze architectuur gebruikt en dat is Tonga (R9 285). Deze chip heeft 2048 shader units net als Tahiti. In de R9 285 staan ze nog niet allemaal aan.
Deze architectuur heeft weer een betere Tesselator, lossless delta color compression (nVidia's Maxwell gebruikt ook zo iets), Een betere video encoder, Video high quality scaler en nog wat kleine optimalisaties waardoor de chip efficienter en sneller is in vergelijking met de oudere architecturen.

De verwachting is dat Fiji een GCN 1.3 architectuur zou gaan gebruiken. Maar hier is verder nog weinig over bekend. Geruchten hebben het over een 4096 shader chip wat de R9 390(X) zou moeten worden. Daarnaast heeft hij HBM geheugen wat 4x zo snel zou zijn als GDDR5.

Dit was eigenlijk niet helemaal je vraag. Maar zoals je ziet zitten er wat verschillen in de chips en kan het dus zijn dat bepaalde rebrands ondanks dat ze qua naam in dezelfde serie zitten toch wat features missen.

[Reactie gewijzigd door Astennu op 23 maart 2015 17:20]

Omdat het een "oude" 7970 rebrand is met een andere chip :)
Omdat een 280(x) (en volgens mij 270(x)) rebrands zijn van de inmiddels wat oudere HD7950 en 7970, die overigens nog steeds redelijk goed meekomen :) .
Omdat dat een 7970 is met een iets hogere clock. De hardware voor freesync is pas geintroduceerd met de 7790 (nu bekend als 260x)
Oudere kaarten worden ook ondersteunt, alleen niet voor games.
Ik kan de bron nu even niet vinden maar dit zijn dus kaarten die freesync voor video's, desktop etc ondersteunen.
Ik bezit op dit moment de R9 290X en de U28D590D monitor van samsung en die heeft op dit moment uiteraard nog geen freesync, maar zou het kunnen dat deze in de toekomst wel ondersteuning gaat krijgen? Of weet iemand hoe dat werkt?
Het lijkt erop dat dit paneel een TN paneel heeft. Zelf zou ik voor de XB270HU gaan. Deze monitor is tegelijkertijd met deze aangekondigd.
The star of the show is the XB270HU, which is a 27" monitor with an IPS panel and a resolution of 2560 x 1440. On top of that, it has an extremely high refresh rate of 144 Hz, with a response time of just 1 ms, and support for Nvidia's G-Sync. As far as IPS screens go, this is unseen territory, and we're curious how Acer has managed to pull this one off.
bron
Als er inderdaad een TN-paneel in zou zitten zou dat best wel zonde zijn.
Als er inderdaad een TN-paneel in zou zitten zou dat best wel zonde zijn.
Het blijkt dat de meeste gamers niet kijken naar de kleuren/kijkhoeken en contrast. Veel hebben de illusie dat gameschermen die worden gepositioneerd met responstijden van <1 ms, slechter zijn dan gameschermen (IPS/VA) met responstijden van 5ms. Echter, in de praktijk blijkt dat 1ms schermen soms trager zijn dan IPS/VA varianten. Veroorzaakt doordat niet de gemiddelde waarde geadverteerd worden, maar alleen de snelste. (TN- heeft bij bepaalde kleurtransities snellere waarde)

Vandaar dat er veel TN gameschermen te koop zijn. Gameschermen met hogere responstijden verkopen namelijk slechter. Onder gamelaptops zie je dit niet of minder, omdat hier minder naar scherm wordt gekeken, maar juist naar de CPU/GPU.

Mijn theorie is trouwens dat dit komt door midden jaren 2000. Toen waren voor consumenten alleen TN-schermen qua prijs rendabel. Aangezien alle panelen ongeveer hetzelfde waren, konden schermen zich alleen onderscheiden op basis van responstijden. Zelfs DVI/resolutie deden er toen niet toe |:( .
Je hebt TN en TN.
Als in Low budget panelen die echt slecht zijn en je hebt tegenwoordig ook high end TN schermen die wel goede kleuren hebben.

TN is veel sneller dan IPS en worden vaak voor 144Hz schermen gebruikt. Tegenwoordig zie je ook VA schermen deze zijn ook redelijk snel. Ik heb zelf nog geen 120Hz of 144 HZ IPS PC Schermen gezien.
De eerste komt in April uit, op tftcentral al een uitstekende review:
http://www.tftcentral.co.uk/reviews/acer_xb270hu.htm
Ah interessant zal hem vanavond lezen.

Hier zat ik op te wachten.
1ms g2g, dat moet wel een TN panel zijn.
De XB270HU heeft na mijn weten geen Freesync. Alleen G-Sync.
waarom zou je zo een dure monitor kopen als je kunt gamen op een plasma ofzo van 50 inch wat ook mooi is?
-Input lagg
-Lage resolutie
-Je zit niet dicht op je scherm zoals bij een PC
-Ik speel liever met muis en toetsenbord aan een bureau dan op de bank met een gamepad
downscaled op 2560 en ik zit op een meter of anderhalf afstand op een 50 inch
het ziet er prachtig uit vooral watch dogs en far cry 4 met een gtx 970
plasmas hebben vrijwel geen last van input lag
ik heb nergens last van en ben altijd crt fan geweest
op led en lcd is het minder

[Reactie gewijzigd door Birdyman op 23 maart 2015 18:06]

Ik zou die specifieke plasma dan moeten zien maar bij een lid zie ik de pixels overduidelijk op die afstand.

En dat je geen last van die inputlagg hebt betekend niet dat die er niet Is. Je kan zo maar een 5x hogere inputlagg hebben. Tv's hebben tegenwoordig niet voor niets speciale game modes om die lang zo laag mogelijk te maken en zelfs dan zit toen ze 3 tot 5x hoger dan pc gaming schermen
geen input lag en ik game niet lager dan 2560 ook game ik 1 meter voor de tv met toestenbord en muis en gebruik nooit een gamepad
Nee jij merkt geen input lag. Maar input lag is er altijd tn hebben mestal 1ms en de meeste tvs hebben standaard rond de 15ms. In game modus rond de 7. En tussen de 5-10ms is gebruikelijk en valt voor de meeste niet op. Maar genoeg mensen die het wel merken.
Omdat niet iedereen op de bank wil gamen, maar liever gewoon achter een bureau kruipen. Dan is een plasma TV van 50 inch gewoonweg geen optie, veel te groot. :)
dat gebruik ik ziet er mooi uit op 2560x1440
voorheen alleen maar op crt gegamed
hij staat nog in de box
ik heb geen bureau monitoren of wat dan ook nodig

[Reactie gewijzigd door Birdyman op 23 maart 2015 16:16]

Zit je nu serieus te beweren dat je op een plasma-TV van 50" en een resolutie van 2560x1440 zit te gamen?
ja 2560 downscaled maar is mooier dan 1920 en dan me ouwe 22 inch crt
en ik heb best een goede crt
ik weigerde vroeger altijd over te stappen op lcd omdat ik crt suprier vond maar nou op de plasma heb ik geen bureau stoel of monitor meer nodig
mijn gezicht ging ook altijd gloeien als je langdurig achter een crt gamed op zo een 60 cm afstand na vele uren
ik heb in het verleden een paar keer een lcd en ips monitor gekocht die heb ik elke keer terug gestuurd die konden nooit aan die crt tippen
nou hoef ik beide niet meer

[Reactie gewijzigd door Birdyman op 23 maart 2015 18:00]

Ja op die manier kan ik ook op 8k gamen op mijn 20 jaar oude crt monitor..... Misschien moet je eens naar oled kijken. Is nog een stapje beter als plasma.
dat zal wel de volgende stap zijn ja
maar over een jaar of 5 als ze wat goedkoper zijn
ik game op de plasma op 2560
plasma is het beste en betaalbaarste om op te gamen op het moment van alle tvs
ik vertel geen nonsense als het niet zo was
ik weet dat het wat meer energie verbruikt maar wth

[Reactie gewijzigd door Birdyman op 23 maart 2015 22:50]

Klopt voor tvs is plasma beter als lcd. Om zowel te gamen als gewoon tv kijken. Heb er zelfs ook 2 staan. Alleen jammer dat iedereen lcd promoot en niet plasma.
lagere dpi, geen freesync (en dus kans op tearing), meer ghosting, meer verbruik, etc..
geen ghostin heb je op plasma en ook geen input lag
wel met lcd tvs en led

[Reactie gewijzigd door Birdyman op 23 maart 2015 22:47]

Tuurlijk heb je wel inputlag. Gegarandeerd zelfs, als je een 1080p scherm een 1440p signaal te eten geeft. Je dacht toch zeker niet dat het downscalen geen tijd kost, hoop ik?
Dan moet je het gezien hebben. Monitoren zoals deze zien er echt ongelofelijk veel mooier dan dat. Als het hier echt gaat om een TN paneel is dat wel zonde maar je betaald nog steeds wel voor de kwaliteit van dit scherm. Dat kan je haast niet vergelijken.
ze zullen ook wel heel mooi zijn maar ik ben nu gewnd op die grote 50 inch te gamen
ik had laatst nog gegamed op een 42 inch plasma toen dacht ik al wat een klein beeldje
en ik wil geen bureau meer en alle ruimte die dat inneemt
de input lag van televisies is zoveel keer hoger dan die van een dure monitor. Oke als je patience speelt kan het maar voor de rest is een tv aansluiten op een game pc ontzettend zonde.
geen enkele lag op plasma hier
en ik speel alleen shooters
werkt en ziet er perfect uit
De lag is ook niet goed zichtbaar omdat er niks hapert. Het beeld loopt gewoon constant een bepaalde tijd achter, omdat tv's veel meer aan beeldverwerking doen dan game monitors.
valt allemaal wel mee hoor, ik speel al 7 jaar op lcd/led tv's en nooit ergens last van gehad en niet een van die tv's was duurder dan 400 euro.. maar wel 40" tov 27" ...
en ik speel van alles...
Het is maar wat je gewend bent en ook niet alle mensen merken evenveel verschil. Wel eens een FPS game op een 120/144 Hz monitor gespeeld?

Plasma tv's zijn wel een stuk sneller dan LCD tv's als ik mij goed herinner, dus ook dat kan weer veel schelen.
Kan inderdaad prima. Maar er zijn mensen die hebben hogere eisen net zoals audiofielen die geluidinstallaties van duizende euro's kopen terwijl ik het verschil nauwelijks hoor.
Kennelijk ben ik er dan toch wat gevoeliger voor, ook inderdaad bij geluid. Nu woon ik niet alleen thuis en is een hele dure muziek installatie zonde van het geld omdat ik die dan nooit echt lekker hard kan zetten, maar ik koop wel altijd goede koptelefoons.
Ik hoor het verschil nauwelijks en hecht er geen waarde aan. Daarmee geef ik geen oordeel over anderen. Ik kan me best voorstellen dat andere dit wel belangrijk vinden. Zelfde met beeld ik vind de ervaring en het verhaal veel belangrijker dan of het 720P of 1080P is. Het maakt voor mij weinig uit voor de ervaring van de film. Andere die willen alleen 1080P ieder zijn voorkeur.
Ja ik geloof je wel maar
van text RPG tot twitch FPS games maakt een zeer groot verschil.

Grote sandbox games is MVA 1440P fijn en 60hz geen problem.

rocksmith je wilt geen TV delay hebben

Mijn PS3 hangt aan een 120fps TN monitor

TV kunnen ook heel sterk verschillen misschien heb je geluk.

[Reactie gewijzigd door SG op 23 maart 2015 17:24]

Mjah, als je 144Hz hebt, heeft de FreeSync ook niet veel nut meer... FreeSync heeft juist effect op monitoren met 60Hz panelen.

[Reactie gewijzigd door maartenverbaan op 23 maart 2015 15:56]

Volgens mij klopt het niet wat je zegt. FreeSync heeft effect in gevallen waarbij een game draait op een framerate die onder de verversingssnelheid van je monitor ligt. Dus loopt je game op 40-50 fps (variabel) en draait je monitor op 60Hz, dan is er voordeel. Je ziet dan geen tearing, terwijl dat zonder freesync wel zo zou zijn. Hetzelfde voorbeeld gaat ook op als je monitor draait op 144Hz.

Alleen wanneer je game v-sync aan heeft staan en constant die maximale framerate haalt, heeft freesync weinig of geen nut (dus 60 fps op een 60Hz-monitor, of 144 fps op een 144Hz-monitor). Dat is voor velen vaak niet het geval. 144 fps halen in een nieuwe game met nette grafische instellingen is een lastige opgave voor veel configuraties. Dus heb je snel een flink verschil tussen framerate en verversingssnelheid van de monitor, waarbij freesync dus uitkomst biedt.

Edit: zoals hieronder terecht opgemerkt, is tearing bij een 144Hz-monitor wel een minder zichtbaar verschijnsel omdat zo'n monitor gewoon meer weergaves doet per seconde. Ik vermoed dat Maartenverbaan daar ook op doelde, en daar zit dus wel iets in. I stand corrected.

[Reactie gewijzigd door geert1 op 23 maart 2015 16:32]

Freesync geeft inderdaad een dynamische refreshrate tussen 9 en max 240hz. Hierdoor hoef je geen vertragende vsync meer aan te zetten en krijg je beeld zonder tearing.

wiki linkje: http://en.wikipedia.org/wiki/FreeSync
"Een tweede belangrijke verschil is dat Nvidia G-Sync werkt tussen de 30 en 144 Hz. Voorals die ondergrens is van belang: zodra een videokaart minder dan 30 fps berekent, kan de synchronisatie geen standhouden en moeten beelden alsnog dubbel getoond worden. AMD roept trots dat FreeSync geschikt is voor 9 tot en met 240 Hz. Echter, als je in de kleine lettertjes duikt, zie je dat dat de limieten zijn voor de standaard, maar dat iedere implementatie ervan anders zal zijn. Aan de bovenkant van het spectrum betekent het dat beeldschermen met een refreshrate van meer dan 144 Hz vooralsnog simpelweg niet bestaan. Aan de onderkant van het spectrum geeft AMD stilletjes toe dat de panelen die op dit moment gebruikt worden in FreeSync-schermen beperkt zijn tot circa 40 Hz voor het vasthouden van beelden. Ofwel: de 9-240 Hz is in de praktijk momenteel eigenlijk 40-144 Hz."
http://nl.hardware.info/r...freesync-en-nvidia-g-sync
Is een kwestie van tijd he, de eerste FreeSync monitoren zijn pas net uit... ;)

Grote verschillen zul je overigens blijven houden; op termijn zullen zelfs de goedkopere schermen ook standaard over FreeSync beschikken omdat er vrijwel geen meerkosten zijn.

[Reactie gewijzigd door db87 op 23 maart 2015 16:49]

Op zich heeft hij wel een punt wat "de buren" ook opmerken

http://nl.hardware.info/r...-en-benq-getest-conclusie

Het hangt dus af van welke resolutie, welke instellingen etc etc, wat je zelf ook wel aangeeft.

[Reactie gewijzigd door Amorac op 23 maart 2015 16:17]

Ja, maar een 120/144Hz monitor scant vaker, dus tearing e.d. valt veel minder op dan op een 60Hz monitor.
Als de nextframe niet de next sync halt dan moet die minstes 1/60sec wachten bij 60hz monitor. Bij 120hz en 144hz is respectievelijk 1/120 en 1/144 framesync.time

1/60 > 1/120 > 1/144
hoe hoger de vsync des de korter de penalty van sync mis.
G-sync/freesync zou dan ook het beste tot zijn recht komen op een 4k 60hz display met een fps tussen de 30 en 60.
Leuk
Goedkoopste Asus Republic Of Gamers Swift PG278Q Is de vergelijkbare monitor (TN, 144HZ 1440p 27") met G-sync en kost 680§.

Freesync maakt dus de belofte waar dat het een stuk goedkoper zal zijn.
Dat hangt nogal van de fabrikant af. De BenQ XL2730Z is qua prijs vergelijkbaar met de ASUS PG278Q; en deze Acer is qua uitvoering vrij 'kaal' - maar het is zeker wat goedkoper. Aan de andere kant, een niet-Freesync 2560x1440 TN-scherm van Acer heb je al voor zo'n 300 euro. De meerprijs voor 144Hz en Freesync is dan stevig. De meerprijs voor een 144Hz vs 60Hz paneel is bij Full HD rond de 100 euro.
Die meerprijs is er voor 144hz , die is er immers nu al zonder freesync.
Wat ik niet begrijp is dat dit niet wordt gepromoot voor filmkijken. In theorie zou je met dezelfde monitor perfecte weergave van alle video-refreshrates kunnen hebben, voor 24fps dan mischien vanuit de player dubbelen naar 48.
Er was een paar testen dat ze gedaan hebben met filmen op 48fps te tonen ipv 24fps. En blijkbaar als men op 48fps draaide verloren films de "film" achtige kwaliteit. Films werden te realistische.

Nog nooit opgemerkt dat als een amateur filmmaker films maken, dat die vreemd aanvoelt? De kleuren zijn vaak "realistische" omdat ze geen post processing doen, ... maar we verwachten dat niet als we een film bekijken.

Voor veel commerciŽle film worden de kleuren aangepast om ze een bepaald gevoel op te wekken. Ofwel meer grijs of rood of blauw ...

Een goede B-film kan aanvoelen als een A-film, zelf met minderwaardige acteurs gewoon dankzij het actueel werk dat ze steken om de film "film achtig" te maken.

Hetzelfde probleem heb je met 48 fps voor films... een film voelt dan meer aan als een TV-Serie episode ( waarbij men met hogere fps draait voor meer "realistische / real world" gevoel ).
Er was een paar testen dat ze gedaan hebben met filmen op 48fps te tonen ipv 24fps. En blijkbaar als men op 48fps draaide verloren films de "film" achtige kwaliteit. Films werden te realistische.
Dit heeft helemaal niks te maken met wat ik voorstelde. :)
Bij het verhaal dat jij noemt is de werkelijke framerate van het materiaal 48fps waardoor de film er uit gaat zien als tv.
Wat ik bedoel is simpel alle frames dubbelen (dus 2x achter elkaar hetzelfde frame) en op 48fps uitspuugen. Als het goed is valt dat binnen de grenzen van freesync en loopt het beeldscherm strak met het video mee.Je krijgt dan geen 'tv-gevoel' ofzo, de framerate die je waarneemt blijft gewoon 24fps. Dit in tegenstelling tot wat je normaal krijgt, d.w.z. 24 frames geprakt in 50 of 60fps, wat stotteringen geeft.
Nog nooit opgemerkt dat als een amateur filmmaker films maken, dat die vreemd aanvoelt? De kleuren zijn vaak "realistische" omdat ze geen post processing doen, ... maar we verwachten dat niet als we een film bekijken.
Mijn ervaring is dat amateurs (en beginners in de filmwereld) nog het meest gaan klooien met vanallesennogwat en het verklooien omdat ze het nog niet kunnen.
Voor veel commerciŽle film worden de kleuren aangepast om ze een bepaald gevoel op te wekken. Ofwel meer grijs of rood of blauw ...
Voor commerciele films wordt er sowiso al op een belachelijk dynamisch bereik geschoten (bv 12 bits per kleurkanaal) en dan moet je achteraf alles dus nog in het dynamisch bereik van het eindformaat prakken. Je ontkomt dus niet aan deze productiestap. En elk shot is ook anders geschoten dus wil je uiteindelijk dat de kleuren en dynamiek van al die shots van een scene een beetje met elkaar matchen. Dus ook daarvoor moet je aan de kleuren draaien. Als je dat niet doet dan ziet een film er meestal niet uit.
Een goede B-film kan aanvoelen als een A-film, zelf met minderwaardige acteurs gewoon dankzij het actueel werk dat ze steken om de film "film achtig" te maken.
Daar prik ik best wel snel doorheen, vooral als de acteurs 'minderwaardig' zijn. Maar op zich heeft beeldkwaliteit niet persee iets met acteertallent te maken.
In het artikel staat dat een g-sync module niet nodig is bij beeldschermen(die ondersteuning hebben voor g-sync) en er is een link gekoppeld aan het artikel, echter word hier gesproken over laptops en niet monitoren, ook wordt er in die link gezegd dat bij een lage framerate of zelfs naar 0 en scherm zwart(uit) kan vallen en een g-sync module zou dit voorkomen.

Een beetje verwarrend vind ik...
Dan klopt het toch? Er zijn schermen die G-sync ondersteunen zonder dat ze die module gebruiken - namelijk laptopschermen. Er staat nergens dat het om losse monitoren zou gaan, maar ik vermoed dat het daar ook best op kan, maar dat de drivers voor niet-laptopkaarten gewoon dienst weigeren op het moment dat ze die module niet detecteren. Dat trucje haalt nVidia wel vaker uit.
Er word gesproken over een monitor in het artikel, een laptop scherm is geen monitor.
Is de minimale verversingssnelheid ook bekend? Want blijkbaar ondersteunen sommige schermen Free-sync pas vanaf 40 FPS, wat ik toch aan de hoge kant vind. De ondergrens zou IMO maximaal 30FPS moeten zijn.
Het beste zou natuurlijk zijn als de panelen het hele VRR range zou afdekken. Bij IPS panelen bijvoorbeeld de 17-120Hz range. Een film kijken zou dan ook op 24Hz ook kunnen. (23.96xxxHz)

Aangezien bij Eyefinity de systemen het wel eens wat moeilijker hebben, zou de 17fps best vaak langs kunnen komen. Trouwens heb ik wel een paar Eyefinity eisen waaraan een monitor zou moeten voldoen:

- IPS
- VESA mount
- "Zero"-bezel
- Werkelijk lage VRR minimum.
Van de zotte eigenlijk dat je nu een speciaal monitor moet hebben om die problemen te verhelpen, Dat zou gewoon moeten werken op elk scherm/monitor. Ik vind het allemaal geen oplossing...
mee eens
en gelukkig heb ik uitspraken gelezen over nvidia die zijn kaarten compatible wilt maken met freesync anders betekend dat nog meer verxeling in de schermenmarkt
Heb je hier een bron voor?
Update: So Nvidia’s Senior PR, Bryan Del Rizzo contacted me and stated the following: “Untrue. Solely focused on delivering the best gaming experience with G-SYNC—which is shipping today from leading monitor OEMs.”. Looks like Nvidia doesn’t support the optional Adaptive Sync after all.
Ik kan herinneren dat op verschillende sites verscheen dat nVidia het ging ondersteunen in hun mobile GPU's. Omdat daar de kostrpijs van de G-Sync modules moeilijk lag (kleine marge op laptops). Ik vind echter de bron niet terug.

However vond ik nog steeds dit:
http://wccftech.com/nvidia-promises-support-freesync/


@Hieronder.
Die update stond op een te logische plaats.
Ben gewoon dat die vanonder staan :)
Ach ja daar ging onze hoop...

[Reactie gewijzigd door AMD_Aero op 23 maart 2015 23:00]

Heb je de update gelezen?
https://www.youtube.com/watch?v=pPrCvyDaOhU Guru3D heeft een video betreft Freesync met hetzelfde Monitor.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True