Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 131 reacties

AMD heeft drie nieuwe mobiele videokaarten op basis van de Graphics Core Next-architectuur aangekondigd. De R9, R7 en R5 M200-gpu's zullen dit jaar verschijnen in systemen van onder andere Alienware, Clevo, Lenovo en MSI. Ook komt AMD met een alternatief voor Nvidia's G-sync.

AMD komt dit jaar met zes nieuwe mobiele gpu's, waarvan het bedrijf er drie heeft aangekondigd tijdens de CES-elektronicabeurs. De R9 M290X is een high-end model, dat de HD 8970M moet opvolgen. De R7 M265-serie is de opvolger van de HD 8700M-reeks voor krachtige mainstream-laptops en de R5 M230-gpu's zijn meer voor het instapsegment, als aflossing van de HD 8400M-serie. Details over de gpu's geeft AMD nog niet, maar wel komen Alienware, Clevo, Lenovo en MSI met systemen met de videochips. Volgens ComputerBase gaat het om Volcanic Island-gpu's, die ook de basis vormen voor de R9 290- en R9 290X-desktopkaarten.

AMD mobile gpu roadmap

Daarnaast heeft AMD de technologie Freesync aangekondigd. Dit is een alternatief voor Nvidia's G-sync, dat tearing en stuttering moet voorkomen. Waar Nvidia een hardwaremodule naar voren schuift die door monitorfabrikanten moet worden ingebouwd, maakt AMD gebruik van een bestaande VESA-standaard om de vblank-intervals te beheren en een variabele verversingssnelheid te verkrijgen. AMD's apu's en gpu's ondersteunen dit al enkele generaties en als ook de displays ondersteuning bieden, is verder geen nieuwe hardware nodig, schrijft AnandTech.

Moderatie-faq Wijzig weergave

Reacties (131)

Interessant, alternatief voor G-Sync, maar Nvidia zal echt niet zo stom geweest zijn om zelf iets te bouwen waar al een volwaardig alternatief voor is.
Ik denk dat AMD de aandacht naar zichzelf wil toetrekken, halsoverkop een weerwoord heeft moeten verzinnen op een innovatieve techniek van het groene front.
Freesync is niet geimplenteerd bij de monitoren, dus je zal ofwel een firmware upgrade danwel een nieuwe monitor nodig hebben.

Stukje tekst uit een forum bij Overclock.net;


FreeSync is not GSync alternative.

FreeSync uses variable VBI, meaning the driver needs to setup the proper VBI for the next frame, therefore requires the driver to predict the future. If the app isn't running in constant FPS, then FreeSync will fail when FPS changes, and you will still see stuttering. Also, you need to enable VSYNC, therefore you still have the lag issue that GSync solves by working without VSYNC. Sure you will have a better experience, but not as good as GSync. With FreeSync you will have have software overhead, and if you predict conservatively you lose FPS, if you predict aggressively you might end up with more stuttering than plain VSYNC.

GSync solves the problems by holding VBI until the next frame is drawn, therefore there is no speculation, so it works under all circumstances. You simply can't do that in software, because software runs on the computer, not the monitor. You have to have a monitor smart enough to wait for the next GPU command to do the drawing, and that's why NVIDIA has to do it with a separate board. There is no VESA standard for that.

GSync is "GPU drives VBI," whereas FreeSync is "driver speculates VBI." The outcome can be close, but one is superior than the other.

[Reactie gewijzigd door Thijs_ehv op 7 januari 2014 11:28]

Innovatief? De eerste mainframe schermen werden ook al zo aangestuurd. Het is leuk dat het nu wordt geÔntroduceerd voor een specifiek probleem in moderne schermen maar echt innovatief (als in nooit eerder gedaan) is het niet. VESA is voor een groot deel zelfs opgericht om dit soort dingen te voorkomen (hoewel comptabiliteit natuurlijk in dit geval wel behouden blijft)

Qua afweging gaat het afhangen van het verschil in prestatie en de prijs. Als freesync 80% van de performance haalt van g-sync en het is gratis versus een exclusieve monitor van 200 euro meerprijs dan gaat het voor 99% van de mensen een eenvoudige keuze worden. Het gemiddelde budget voor een game-PC met monitor is zo'n 800 euro. Elke meerprijs groter dan zeg 50 euro heeft eigenlijk geen kans behalve bij een exclusieve groep mensen. Helemaal als het om 1 stuttering frame per minuut gaat.
Je gaat ervan uit dat de implementatie van de VESA standaard gratis is wat misschien helemaal niet zo is. Daarbij komt dat monitor fabrikanten geld ruiken en dus AMD compatibel monitors als zodanig gaan verkopen en dus met een hogere prijs.

[Reactie gewijzigd door ChicaneBT op 7 januari 2014 13:10]

De implementatie is gratis, de standaard niet. Het gebruikte protocol bestaat echter al en alle fabrikanten voldoen in principe aan de algemene specificatie. Bovendien gebruikt G-sync achter de schermen exact dezelfde specificatie, alleen de aansturing is anders. Monitoren met G-sync moeten dus ook voldoen aan dezelfde specificatie.

Natuurlijk gaat men dit eerst introduceren op topmodellen, er is nog steeds ontwikkeling / IC development nodig. Het verschil met G-sync is echter wel dat dit in principe morgen door alle fabrikanten op de markt kan staan. NVIDIA heeft gekozen voor een exclusief contract plus levering later dit jaar.

Het is dus niet alleen een race van begeerlijkheid maar ook beschikbaarheid. Het feit dat nvidia een exlusive heeft gegund aan 1 concurrent kan er zelfs toe leiden dat de andere fabrikanten dit sneller en goedkoper in de markt gaan zetten.
er zijn meer dan genoeg monitor fabrikanten om de concurrentie gezond te houden. dus op heel in het begin na zie ik dit niet gebeuren.
Wat Belgar al schreef:

Alles uit het forum van Overclock.net is theoretisch. Het zijn ook typisch mensen die zich niet met praktijk maar met theorie bezig houden. Je kan een krachtige auto ermee vergelijken: Je kan die automotor tunen en er 99.9% uit persen met allerlei extra's, maar in de praktijk gebruik je het nergens op de weg. De mensen die die powermotor dan wťl echt gebruiken doen dat voor records of manifestaties, niet om ermee op de weg te rijden... Ik vergelijk het ook met CPUs van de laatste tien jaar: Je kunt een dual-core vervangen door een triple- quad- of meer-core, maar heb je het ook nodig en merk je een verschil als je alleen maar enkele spellen speelt of misschien wat films kijkt? Nee, de mensen die er wat van merken doen er andere dingen mee.

Het gebruik van de techniek G- of Freesync is dan een kwestie van kosten en baten, ben je tevreden met een betere sync/vloeiender beeld, of ben je tevreden met een perfect beeld wat dan 200,- of meer extra kost? Het gaat om de ervaring en tegenwoordig ook het geld, als je het verschil niet merkt heb je er ook weinig aan.

De hardcore gamers nemen ongetwijfeld nVidia, net zoals dat de meeste mensen een gewone auto kopen en niet een getuned racemonster.

[Reactie gewijzigd door Ramoncito op 7 januari 2014 12:49]

+3 voor zo'n speculatief stukje? Het lijkt me evident dat het verschillende technieken betreft, en dat Nvidia allicht een wat betere (maar ook minder toegankelijke) techniek in huis heeft. Wat dit verschil precies inhoudt weten we nog niet, en zullen we gewoon moeten afwachten.
'If the app isn't running in constant FPS, then FreeSync will fail when FPS changes, and you will still see stuttering.' - dit is alleen maar speculatie, gebaseerd op extrapolatie van de feiten van nu (voorzover ik heb begrepen is variable VBI nog niet eerder op deze manier gebruikt). Wacht nou maar gewoon af tot ze het demonstreren. Dat VSync aan moet staan geeft aan dat Nvidia hier een voordeel heeft, maar hoe groot is dit voordeel?

[Reactie gewijzigd door Freefrag op 7 januari 2014 13:06]

Dank voor je uitleg! Het lijkt (helaas) dus een besliste strijd. AMD komt hier met een non-oplossing waar niemand wat aan heeft?

Al vind ik de chip van Nvidia ook geen goed idee. Je zit namelijk met een propriŽtaire chip, die niet door alle videokaarten gebruikt kan worden. Liever een open standaard waar iedere videokaartbouwer eigen gebruik van kan maken. Nu moet je straks een Nvidia kaart matchen met de juiste monitor, wat erg lastig is. Als je dan al eisen hebt qua hardware, word deze nog meer beperkt.

Kortom; dit schiet helemaal niet op!
Dank voor je uitleg! Het lijkt (helaas) dus een besliste strijd. AMD komt hier met een non-oplossing waar niemand wat aan heeft?
Er staat toch duidelijk dat het boven vsync voordelen bied en dus niet nutteloos is zoals jij het brengt...

Je hebt er wel degelijk wat aan maar volgens die tekst niet zo veel als dat van nvidia, is het dan meteen nutteloos? Een kleine verbetering is geen verbetering omdat die klein is?
Nou ja, gezien de uitleg hierboven is het geen verbetering, het is hoogstens een verŠndering in de manier waarop voorspeld wordt wat de refresh rate moet worden in het volgende frame. Eigenlijk combineert Freesync gewoon de inputlag van Vsync met de tearing van variabele FPS. Als je pech hebt, is het dus gewoon alleen maar nadelig. In elk geval is het dan al een stuk efficienter om naar Adaptive Vsync over te stappen, dan heb je minder inputlag als bij Vsync en dus ook Freesync, en minder tearing als wanneer je variabele fps gebruikt.

[Reactie gewijzigd door Vayra op 7 januari 2014 13:33]

Echter, wanneer er dan vervolgens triple buffering (of een andere frame buffer techniek) wordt gebruikt is dit probleem (volgens mij) ook opgelost?
Maar dan zit je weer met variabele input lag en slechtere ondersteuning vanuit de APi's.
(een workaround voor een probleem wat G-Sync oplost)
Schijnbaar met de "originele" vorm van triple buffering, waarbij de GPU frames blijft doorrekenen en telkens een van de twee buffers ververst(vandaar triple), gaat dit niet op, en werkt Freesync wel degelijk zoals G-Sync. Hier meer.
Klinkt allemaal heel plausibel, en ik geloof ook wel dat g-Sync beter is..

maar mij zou het echt niks verbazen als nVidia het allemaal wist, maar alsnog voor een gesloten platform zijn gegaan omdat ze willen dat het alleen op hun kaarten beschikbaar is, en zo hopen meer kaarten te verkopen (zelfde verhaaltje met physix)
maar Nvidia zal echt niet zo stom geweest zijn om zelf iets te bouwen waar al een volwaardig alternatief voor is.
Volgens mij ken je nVidia nog niet zo goed ;)
Hmmm moet de firmware op de graka sowieso niet al de data doorsturen naar de monitor?
Dit lijkt me een simpel rekensommetje namelijk. stel 30 frames van de graka, framerate monitor 60 Hz. 30 blank screens.

Zoiets kan gewoon "realtime" (lees tijd verwaarloosbaar)
Jawel, maar nu is het dus zo dat de gpu maar door blijft 'pompen' met beeldjes. Bij G-Sync is het zo dat de monitor de refresh rate aanpast aan het aantal beeldjes dat doorgepompt kan worden, waardoor de twee wat harmonieuzer samenwerken. De monitor hoeft geen beeldjes meer 'weg te gooien' = geen tearing, en bij te weinig frames laat de monitor fracties van een seconde 'stilstaand beeld' zien ipv een refresh van wellicht een halve frame.
Alleen varieren het aantal frames van een videokaart enrom afhankelijk van de load. Vsync trekt dit normaal al strakker, maar stotter blijft toch min of meer waarneembaar bij bewegingen en zeker bij dips in de framrate. Verder denk ik dat de overhead flink is om dat realtime bij te stellen door de driver waardoor de prestaties onder druk komen te staan.
Dan vind ik Freesync toch wat mooier klinken. Je zou dit met elk scherm moeten kunnen gebruiken. En je zit dan dus niet vast. Nu is het wel de vraag of het net zo goed werkt als de oplossing van nVidia. Maar tijd zal het leren.

Ik houd niet zo van die closed standards die nVidia de hele tijd introduceert. Het zijn mooie technieken maar ze willen die vervolgens voor zichzelf houden. En dit zorgt er voor dat dit soort dingen dus niet echt veel gebruikt gaan worden. Zie bv GPu PhysX van nVidia. Die specifieke nVidia only Implementatie wordt maar weinig gebruikt. Er wordt veel vaker gebruik gemaakt van andere generiekere oplossingen waar AMD, nVidia en Intel gebruik van kunnen maken.

En over de R9 M290X. Ik denk zelf niet dat hier om een Hawaii GPU gaat. de 8970M was maar een Pitcrain GPU (HD7970) ik denk dat ze dan eerder een Tahiti (HD7970) GPU gebruiken of een nieuwe SKU.

[Reactie gewijzigd door Astennu op 7 januari 2014 11:02]

Ik vind het business model van Nvidia soms ook wel erg raar. Niemand met verstand van zaken koopt nu een GPU van hen voor zaken als PhysX, want het wordt toch nauwelijks gebruikt. Doordat hun ideeŽn nooit worden gebruikt (wat weer wordt veroorzaakt door de geslotenheid van de technologieŽn) worden die leuke ideeŽn van Nvidia dood geboren. Ze zouden er beter aan doen om de techniek met AMD te delen en vervolgens te proberen simpelweg beter te zijn. Een beetje zoals AMD en Intel. Beiden gebruiken x86, maar voor ruwe per core performance, als geld verder niet zo'n issue is, moet je echt bij Intel zijn (al is het soms weer een ander verhaal als je een mid range/low end systeem wil en performance/prijs verhouding meespeelt). Als ik niet zulke slechte ervaringen had met AMD driver support op Linux en ik niet juist Nvidia juist tegenwoordig hier hard aan zag werken had ik opnieuw AMD gekozen, maar nu vertrouw ik ze voor geen cent bij AMD.
en ik niet juist Nvidia juist tegenwoordig hier hard aan zag werken had ik opnieuw AMD gekozen, maar nu vertrouw ik ze voor geen cent bij AMD.
Als je echt Linux wil ondersteunen, koop dan alsjeblieft AMD. Argumenten:
Het is een beetje een lastig verhaal, AMD gpu's op Linux. De open-source drivers voor all kaarten van de HD 6000 series en ouder zijn geweldig. Ondertussen zijn er nog steeds geen drivers voor de HD 7000 series en nieuwer die de verwachtte prestaties leveren in Valve games. Nvidia levert prestaties vergelijkbaar aan wat ze op Windows doen, maar de open-source drivers zijn compleet waardeloos en Nvidia wil er niks mee te maken hebben lijkt het.
Een pluspunt voor AMD is dat ik in het afgelopen jaar een enorme vooruitgang heb gezien in hun Linux ondersteuning. Mijn kaart begint nu eindelijk te presteren op open-source drivers en op de closed source drivers ging het van de ene op de andere patch van Dota die niet startte, naar 20 fps en toen naar 50 fps. Nog even en Windows geeft zelfs met AMD kaarten lagere prestaties dan SteamOS/Linux.
Compleet geen vertrouwen hebben in een heel merk heeft niet echt veel te maken met mindere driver support voor een niche OS...
Dat argument van matige drivers bij AMD is echt zo 2007. Tegenwoordig is er al ontzettend veel verbeterd. Slap excuus voor fanboyism tegenwoordig.
En toch had ik een half jaar geleden alleen maar problemen toen ik de laatste Linux Mint een beetje degelijk draaiend wilde krijgen op de AMD kaart die ik toen nog had. Nieuwere drivers die mijn kaart niet willen ondersteunen, oudere drivers die mijn nieuwere kernel niet willen ondersteunen, etc. Overstap gedaan naar Nvidia en sindsdien niets meer te klagen gehad. Mijn ervaringen liegen mij toch echt niet voor.
AMD op Linux is ook een drama, daar is weinig veranderd.

En ook in Windows is driver support gewoon beter in het groene kamp. Nog steeds zijn er sneller profiles beschikbaar, worden nieuwe drivers sneller uitgebracht en zijn er sneller game ready drivers voor de nieuwste games. Dat argument is niet 2007, het is 2013, want tot voor kort hadden we nog een leuk relletje omtrent microstutter. De focus ligt meer en meer op randvoorwaarden en details dan op de gpu zelf nu de midrange ook vrijwel alles aan kan voor de meest gangbare resolutie. Een logisch gevolg.

Ook Nv drivers zijn trouwens niet vlekkeloos, de 7- serie heeft nu wat problemen bijvoorbeeld.

[Reactie gewijzigd door Vayra op 7 januari 2014 14:26]

AMD op Linux is ook een drama, daar is weinig veranderd.
Lang niet zo'n drama als nVidia.

AMD is altijd veel opener geweest met documentatie en bewust opener richting Linux, in tegenstelling tot nVidia die telkens hun eigen spelletje willen spelen.

Ik gebruik al zo'n tien jaar AMD met Linux, en voor het huis tuin en keukengebruik heeft het altijd prima gewerkt (b.v. X1950XTX, HD4870, nu R9 270). Het enige wat problemen gaf was 50 Hz PAL via S-Video (sync zat er altijd net naast). Ik gebruik wel de open source driver, misschien ligt het daaraan, multi monitor via RGB e.d. werkt prima. Hoe goed een en ander werkt kan natuurlijk ook aan je distro liggen, keuze van desktop environment etc.

Mijn grootste gemis op dit moment is dat Youtube video's in 1080p of hoger stotteren, maar dat ligt aan de Adobe flash plugin (geen hardware acceleratie sinds een jaar of twee toen Adobe in hun eindeloze wijsheid besloot Linux support te stoppen) en de alternatieven zijn of abandonware of nog niet zo volwassen (gnash, lightspark, shumway, HTML5).

Maar goed, volgens mij gaat het juist de goede kant op met Linux en grafische drivers, niet in de laatste plaats vanwege Android en SteamOS.
Als je linux mint gebruikt kan je jezelf ook geen serieuze linux gebruiker noemen. Hier werken drivers perfect met 3 hd6990 en xubuntu. Dus je doet echt eat fout
Mint en (X)Ubuntu zijn praktisch hetzelfde OS, het grootste verschil is de standaard meegeleverde DE, daarnaast heeft Mint zijn eigen GUI's voor configuratie van bepaalde zaken (maar wie gebruikt daar nu ooit een GUI voor?), en misschien het feit dat Mint en Cinnamon (de DE dus) iets meer op elkaar zijn afgestemd. Oja, en een handjevol packages die vaak geforked zijn, zoals Nemo (gebaseerd op Nautilus) en ik meen dat Mint zijn eigen Flash implementatie heeft, maar packages zijn toch uitwisselbaar en vind ik niet meetellen in de verschillen.

Als AMD niet zijn policies verandert zou het me niets verbazen als jouw videokaarten binnen jaar vervangen moeten worden. Geheid dat in nieuwe drivers de HD6990 niet meer wordt ondersteund en de oudere drivers niet werkend te houden zijn als je je OS een beetje up-to-date wil houden. Mijn iets oudere kaart onderging datzelfde lot.

[Reactie gewijzigd door Amanoo op 8 januari 2014 00:24]

Als AMD niet zijn policies verandert zou het me niets verbazen als jouw videokaarten binnen jaar vervangen moeten worden. Geheid dat in nieuwe drivers de HD6990 niet meer wordt ondersteund en de oudere drivers niet werkend te houden zijn als je je OS een beetje up-to-date wil houden.
Oplossing: de prima open source driver gebruiken. Ik heb onlangs nog mijn oude X1950XTX en HD4870 in Kubuntu 13.10 geprobeerd, ze werken nog steeds prima, inclusief OpenGL voor desktop effecten, hw acceleratie voor video e.d.
Jij had toevallig ook een HD4 nogwat kaart een half jaar geleden, en die kreeg jij wel aan de praat onder Linux? Anders weet ik wel wie van ons de fanboy zonder verstand van zaken is, en ik ben het niet. De meeste spellen draaiden nog prima. Op Windows kon ik zelfs Battlefield 3 redelijk draaien (alleen is dat spel de grootste misaankoop van mijn leven geweest, teveel Call of Dutyficatie), dus kom niet aanzetten met dat het tijd wat voor een nieuwe, dat bepaal ik wel wanneer een goed deel van de games niet meer wil, en zover was het nog lang niet. Op Windows was er nog wel ondersteuning, maar Linux bleek teveel het ondergeschoven kindje. Toen zag ik ineens op Tweakers.net ook nog een artikel langs komen over legacy drivers voor Nvidia, en besloot ik toch maar voor het eerst sinds de GeForce 2 MX weer naar het Nvidia kamp te stappen. Tot nu toe moet ik er nog spijt van krijgen.

Hoezo is Mint zo'n brakke distro volgens jou? Op de frontend na (en misschien iets meer aanpassingen her en der omdat het OS geschreven is met de Cinnamon DE in het achterhoofd) is het vrijwel hetzelfde als Ubuntu. En Xubuntu is weer simpelweg Ubuntu met opnieuw een andere frontend. Overigens was juist XFCE het net niet helemaal toen ik het voor het laatst probeerde, al zal dat 1 of 2 jaar geleden zijn geweest. Destijds ben ik juist daarop afgeknapt, zuivere Gnome 3 en Unity vond ik maar niets, en XFCE (en daarmee Xubuntu) was gewoon een half af product.

[Reactie gewijzigd door Amanoo op 8 januari 2014 14:38]

X86 is de core, er zijn allerlei extensies om programma's te versnellen, dat moet dan wel opgenomen zijn bij het compileren.
Dat is het grote voordeel van x86_64, je weet dat al de extra's instructies beschikbaar zijn op de x86_64 cpu.
Maar instructies evolueren en er zijn alweer heel wat nieuwe instructies bijgekomen

(eg: MMX SSE4 SSE4.1, ...)
Ook hier moeten intel en AMD overeen komen. Als ze niet dezelfde instructies toevoegen, dan zal je ze moeten emuleren, met een gigantische vertragen.

In dit opzicht onderhandelen AMD en Intel dus over de volgende nieuwe instructie. Wat er dan gebeurt is dat AMD keihard werkt om de instructie toe te kunnen voegen. terwijl Intel na een tijd laat weten een slap aftreksel te implementeren. Gezien de instructies niet identiek zijn, kan je het ene niet gebruiken voor het andere. Niet zo mooi van intel..
(Enja ik heb het over de C=A+B, en A= A+B instructies)
Nog een voorbeeld: CUDA vs. OpenCL voor GPGPU. nVidia had met CUDA een voorsprong, maar is nooit echt doorgebroken. Dat lijkt openCL nu wel te gaan doen.
Blijkbaar wordt het volgens AMD al generaties door hun videokaarten ondersteund, waarom dan nu pas met een oplossing komen???? Ergens zal er nog wel een addertje zitten lijkt me....
de drivers zullen moeten worden geupdate, eventueel een firmware-flash.

Ik begrijp eigenlijk niet waarom dit niet al reeds standaard was.

In de VGA-specificaties staat heel precies hoe en wat van de "VGA-sync timing"

Een goeie werkwijze, is alle wijzigingen van je beeld doen in je buffer, en als de v-blanc afgelopen is, begin je aan een nieuw beeld in je buffer, terwijl het oude beeld onveranderd lijn per lijn word verstuurd.

http://www.cs.ucr.edu/~jtarango/cs122a_lab4.html


Vroeger was de blanking-time nodig om de kathode straal van de rechter-onder-hoek te brengen naar de linker-boven-hoek. Deze is bepaald op een aantal microseconden.
De monitor mag terug iets beginnen weergeven, als de V-sync afgelopen is. De V-sync langer rekken, doet een goede monitor dus langer wachten.
Feit is dus dat AMD nu de Blanking-time langer wil rekken, maar het is niet standaard zover ik het begrijp.

Ik weet trouwens ook niet hoe het zit met DVI/HDMI, DP, worden de beelden ook lijn per lijn gestuurd? Daar zit dan eigenlijk al meteen het probleem, waarom het beeld niet in een keer sturen. Het is uit de boze om tijdens je beeld opbouw er iets in te gaan veranderen, het volgende beeld is na 1/60 van een seconde, sneller kan zelfs.

[Reactie gewijzigd door g4wx3 op 7 januari 2014 13:38]

Het addertje is waarschijnlijk dat deze techniek ietwat inferieur is aan wat G-Sync te bieden heeft.
Dat AMD hier NU mee komt is omdat er veel staat te gebeuren op Game- en Monitor gebied en zij natuurlijk het liefst de meeste aandacht willen genieten op dit moment ;)

AMD is verder niet de meest innovatieve partij; om een voorbeeld te noemen, dat innovatieve Mantle is ook maar een 'kopie' van de PS4 Api die tůch al ontwikkeld was ;) Los van dat het echt wel aardig zal werken hoor daar ben ik niet bang voor.

Ze hobbelen achter Nvidia aan , daar is namelijk geld voor R&D, bij AMD niet echt ;)
om een voorbeeld te noemen, dat innovatieve Mantle is ook maar een 'kopie' van de PS4 Api die tůch al ontwikkeld was
goed, jij snapt het echt niet. mantle voor de PC uitbrengen is een geniale maar erg gedurfde zet. als het zo gemakkelijk was hadden zowel AMD als nvidia jaren geleden al naar game ontwikkelaars geluisterd en het gedaan.

mantle is het belangrijkste wat er gebeurt is in de laatste 7 jaar in graphics land. al zou het maar zijn als schop onder de kont van DX en openGL ontwikkelaars, Mantle zet grote, belangrijke en noodzakelijk verandering in gang voor het PC platform.

g-sync is echter gewoon nvidia's nieuwste poging om propriatry rommel door de strotten van mensen te duwen. hun vorige grote voorbeeld was physics, wat toen enkel beter werkte op een GPU omdat de CPU implementatie so slecht was gemaakt. Cuda is wat succesvoller maar opnieuw overbodig gemaakt door openCL. misschien niet compleet nu maar zeker in de toekomst.

ik kan me NIKS van nvidia bedenken de laatste 10 jaar dat ook maar in de beurt komt van wat mantle gaat betekenen.

[Reactie gewijzigd door Countess op 7 januari 2014 13:50]

Een geniale zet vind ik het ook, gedurfd, mwoah; zoals ik al zei die API komt grotendeels overeen met die van de PS4, Mantle zou er niet geweest zijn als AMD niet ook de console gpu's had gebouwd. AMD heeft daar in potentie veel voordeel van. Neemt niet weg dat er ook nog NVidia is ... en intel gaat ws. ook meespelen in de game-wereld, dus het is een extra'tje voor AMD.

Veel langer dan 7 jaar geleden was er Glide, ook een low-level api destijds geintroduceerd door 3dfx. Hopeloos gefaald , want initieel niet open en alleen voordelig voor de Voodoo kaarten.

Ik weet niet hoe open Mantle nu is; ik heb her en der gelezen dat het open is maar ken de feiten niet. Voor zover ik nu weet is dit ook gewoon 'propriatary rommel' in het voordeel van AMD.

De Mantle Api voor windows zie ik ook wel als een belangrijke stap, blijkbaar zorgt DirectX voor veel onnodige overhead en is het tijd voor wat anders\beters (de gigantische hoeveelheden horsepower die PC Gamers hebben wordt niet goed benut)

G-Sync is een oplossing voor een probleem wat sinds jaar en dag bestaat en heeft hier eigenlijk niet veel mee te maken. Ook dit had open mogen\moeten zijn, wellicht is het dat ook, in elk geval reverse engineering zou niet moeilijk moeten zijn , het zijn geloof ik wat extra headers in de pakketjes die over de displayport gaan. Zal wel iets van een licentiemodel achter zitten zou ik verwachten.

Verder, physics en cuda; volgens mij erg goede techniek, volgens mij is de GPU altijd nog beter in het berekenen van dit soort zaken dan de CPU.
Had het liefst ook open gezien, dan was het ws. al lang en breed geaccepteerd als standaard bij bepaalde berekeningen.

Ik vraag me af of er gaandeweg niet wat geruild gaat worden tussen AMD en Nvidia, of dat ze stug alles voorzichzelf blijven houden!

Concurrentie is meestal goed voor de consument, maar de situatie die nu ontstaat, namelijk dat je moet kiezen tussen het een of het ander, vind ik wat minder..

[Reactie gewijzigd door Thijs_ehv op 7 januari 2014 14:56]

Ik vraag me af of er gaandeweg niet wat geruild gaat worden tussen AMD en Nvidia, of dat ze stug alles voorzichzelf blijven houden!
dat ligt geheel aan Nvidia. al AMD's standaarden zijn open (inclusief mantle bij release) terwijl Nvidia alles gesloten houdt.
Neem even een teugje lucht en lees dan dit eens door:

http://www.anandtech.com/...evel-graphics-api-for-gcn

#Perspective 4.

Kijk dan even naar de steam hardware surveys:
52% Nvidia
31% AMD

Dus voor slechts 1/3e van de markt gaat een developer bezig met Mantle? Om dan misschien voor meer dan de helft van de gebruikers niks meer te bieden?

I don't think so. Hoe gaat het ondertussen met Battlefield 4, dť Mantle titel:

Oh wacht, die is WEER uitgesteld.

G-sync monitors zijn al verkrijgbaar, en worden in reviews positief ontvangen.

mantle is het belangrijkste wat er gebeurt is in de laatste 7 jaar in graphics land

8)7
Dus voor slechts 1/3e van de markt gaat een developer bezig met Mantle? Om dan misschien voor meer dan de helft van de gebruikers niks meer te bieden?
mantle is open standaard (en ja hij kan ook werken op nvidia kaarten, daar is genoeg abstractie voor aanwezig). of nvidia het ondersteund is de vraag(te arrogant), maar juist omdat het zo veel lijkt op de API's van de console is de omzetting van console naar PC veel gemakkelijker met mantle. dat maakt het meteen al interessant voor ontwikkelaars los van de extra performance en mogelijkheden die het biedt.

belangrijker is dat mantle pijnlijk duidelijk maakt dat zowel DX als openGL een flinke schop onder hun gat nodig hebben. de API bottlenecks van beide zijn verschrikkelijk en vormen een enorme belemmering voor game ontwikkelaars en heeft zijn weerslag op alle aspecten van games. dat gaat zo ver de texture artiesten zich bezig moeten houden met iets technische low level als het reduceren van draw-calls op de GPU.

DAAR verandering in brengen is wat mantle sowiso gaat doen zelfs als het niet op grote schaal gebruikt gaat worden. het zet de rest in beweging.

en DAT is wat mantle het belangrijkste van de afgelopen 7 jaar maakt.

de game dev's zelf aan het word:
http://www.youtube.com/watch?v=QIWyf8Hyjbg

kijk vooral even naar de graph op 12:44. dat is het verschil tussen wat de API aan kan en wat de GPU's aan kunnen. als je niet snapt dat er wat gedaan moet worden aan dat enorm en exponentieel groeiende gat moet je wel een ENORM bord voor je kop hebben.

[Reactie gewijzigd door Countess op 7 januari 2014 16:44]

Weer zo'n figuur die de problemen van Dice in de schoenen van AMD probeert te schuiven, te sneu voor woorden.

Als jij denkt dat iets doen voor 1/3 van de markt niet de moeite waard is is niet bijzonder goed bezig geweest op school. 1/3 van de markt extra goed kunnen bedienen is uitstekend.
Het resultaat hiervan is dat voor een zeer aantrekkelijk percentage van je gebruikers opeens de zwakkere broeders TOCH mee kunnen spelen met hun oude grafische kaarten en je toch je games aan hun kunt slijten.
Als je de Mantle techniek eenmaal goed kan implementeren kun je altijd je recentere games blijven verkopen aan mensen met oudere hardware.
Je bent blijkbaar geen student economie.
Het enige wat ik kan zien is dat het NU gewoon NIET werkt.
nee, battlefield4 werkt niet. dat heeft niks met mantle te maken. mantle werkt uitstekend en er zijn met de pre-release alpha al verbluffende resultaten te behalen zonder hoge extra kosten (one-time fixed cost investment)
Het enige wat ik kan zien is dat het NU gewoon NIET werkt.
en? het is nog niet geleased. overigens werkt prima. De pre-alpha waar een aantal ontwikkelaars al mee aan de slag zijn gegaan laat nu al verbluffende resultaten zien.
Als AMD hiermee de waarde en levensduur van hun kaarten kunnen vergroten verliezen ze wellicht een beetje sales bij de paupers die anders noodgedwongen zouden hebben geupgrade, maar je trekt er meer sales mee binnen bij mensen die gewoon meer performance willen voor minder geld dan de concurent, en dat zijn er veel meer.

Nee, je bent geen student economie.

Je kan niet stellen dat Mantle niet werkt want er zijn nog geen games uitgekomen waar het niet werkt. Je kan wel stellen dat het WEL werkt want een onafhankelijk bedrijf heeft reeds een tech demo gepresenteerd waar de mogelijkheden real time worden gedemonstreerd en meerdere bedrijven zijn al op de bandwagon gesprongen en dat is vast niet zomaar. Maarja, als zelfs dat niet genoeg is voor je.
en is er dus wederom geen verschil meer tussen de twee...
Het ging er al niet om wie van de twee kampen beter was, maar of Mantle waarde heeft of niet. Ik heb liever 45% prestatiewinst across the board dan dat ik het 'ik niks dan jij ook niks' principe aanhang.

Tech demo's zijn vaker wel waar dan niet. Als jij er een 99.9% percentage aan wil hangen van niet, dan moet je dus 1000 voorbeelden hebben waarvan er maar 1 wel gelukt is en anders ben je een windboei.
Er staan nergens dat het open source is. Er staat dat het vrij tw implememteren is door ontwikkelaars. Niet om door nvidia gebruikt te worden. Amd zal als ze slim zijn mantle zo aanpassen dat t alleen blijft werken op amd. Net zoals nvidia doet.
KIJK. Iemand met een beetje besef van de realiteit.

Gelukkig, ze zijn er nog :)
Dan vergeet je voor het gemak dus even tesselation (trueform) en eyefinity die allebei van ATI/AMD komen.

Buiten het feit om dat ze vaak genoeg voorlopen op nvidia wat betreft directx.

Nvidia verzint misschien wel leuke dingen alleen zijn het altijd proprietaire standaarden zoals CUDA, Physx (overgekocht...), GameWorks en nu dus G-Sync. Daar heeft de industrie weinig aan, daar belemmer je de groei en inovatie mee.
Rare stelling, dat AMD achter nVidia aan zou hobbelen terwijl het wel AMD is dit gratis 45% extra performance geeft met Mantle (en elke nV GPU daar vet mee voorbij zou stuiven, to be proven) en gratis een G-sync alternatief biedt die stiekem al een standaard is en daarmee nV's 'superuitvinding' snoeihard neer maait...

Lijkt mij vet meer dat nV zich meer in allerlei hoeken wringt om beter te lijken en dat het net steeds niet lukt. Als ik AMD was zou ik lieflijk glimlachen :)

[Reactie gewijzigd door Tijgert op 7 januari 2014 13:36]

gratis 45% extra performance geeft met Mantle

Geloof je het zelf, dit statement?

We hebben nog niets, maar dan ook helemaal niets van Mantle gezien. Geen bench, geen preview, niets. Alleen een opengewerkt bolletje dat symbool staat voor "Mantle" en een paar slides marketinggelul, plus de toezegging van DICE dat het in BF4 gebruikt wordt - maar ook daarvan zien we nog niets - sterker nog, BF4 moest gerushed en kwam met veel bugs op de markt. Laat ze eerst maar eens uberhaupt de game 100% werkend krijgen.

Hetzelfde is aan de hand met deze 'Free sync'. Weer een mooie marketing term, een 'open' standaard die goed valt bij de consument, maar concrete info is heel, heel ver van ons verwijderd. Ook wel heel frappant dat er nu ineens een VESA standaard is die al jaren ondersteund wordt, maar waar AMD nooit brood in heeft gezien kennelijk, en nu ineens wel?

Ik ga maar eens op zoek naar een hele grote korrel zout, ergens in de dode zee ofzo.

[Reactie gewijzigd door Vayra op 7 januari 2014 13:28]

Gezien de demo en de grafieken.. ja, die statement is al als waar bewezen, zoek maar op. Niet altijd en met elke config, maar zeker wel mogelijk.
Niet echt sterk van je dat je bugs in BF4 aan haalt om je argument tegen Mantle kracht proberen bij te zetten.

Of het frappant is of niet dat AMD nu Free-sync promoot, het bestaat. De waarde daarvan moet zich wel nog bewijzen.

Enig zout is altijd wel handig, maar azijnpissers hebben daar vaker meer van nodig.
Sceptisch zijn is tegenwoordig meteen azijnpissen? Apart.

We hebben in het verleden al meerdere malen meegemaakt dat AMD met technieken komt die daarna niet voldoende worden geperfectioneerd. Met het voorbeeld van BF4 wil ik maar aangeven, dat er altijd heel veel wordt geroepen door developers, publishers en fabrikanten, maar dat de praktijk toch wel even tegenvalt. Hele volksstammen hebben BF4 gepre-orderd maar hebben daar echt wel spijt van gehad - die preorders ontstaan vanuit marketing, en die marketing heeft er uiteindelijk voor gezorgd dat BF4 gerushed werd (want: kerstperiode). BF4 is daarvan een groot voorbeeld, en Mantle ligt in het verlengde daarvan, heel direct ook nog omdat het in BF4 gebruikt moest worden.

AMD is momenteel maximaal bezig om de tijd tussen aankondiging en daadwerkelijke implementatie zo lang mogelijk te benutten om de Radeon sales een boost te geven. Dat is toch wel duidelijk? Het is niet meer dan gezond om al deze bewegingen en 'nieuwe' technieken in twijfel te trekken, helemaal als ze zo prachtig worden getimed.

Oh, en omdat je op die 45% hamert, heb ik hier het linkje, aangezien je zelf de bron niet wil aanleveren: http://www.lazygamer.net/...-performance-by-up-to-45/

Een stelling gebaseerd op powerpoint slides. Awesome, dude. In een wat beter onderbouwd stuk lees je dan weer dat DICE aangeeft dat implementatie van Mantle zo ongeveer 5 miljoen dollar kostte voor BF4. En je leest daar dan ook dat eigenlijk de enige toekomst voor Mantle om die reden ligt in brede acceptatie van de techniek, en ook AMD heeft er oren naar om de techniek breed te laten ondersteunen en open te maken. Dus op dat moment is het voordeel voor AMD grotendeels weg.

[Reactie gewijzigd door Vayra op 7 januari 2014 14:36]

Waar te beginnen...

Je hebt scepticisme en azijnpisserij, als je zelf niet inziet naar welke richting je neigt dan heeft het voor mij geen zin je te proberen te overtuigen. Wel grappig dat je bijna de helft van je epistel weer over BF4 laat gaan en dat dan weer op AMD en Mantle probeert te betrekken, alsof het opeens hun schuld is en niet van Dice. Zure koper?

Gezien je zelf praat over korrels zout wil ik voorstellen dat je die dan zelf neemt en niet direct de slechtste resultaten uit het verleden ziet als garantie voor de toekomst (hier komt de azijnpisserij om de hoek kijken).
Denk liever niet dat je door een overmatig sceptische en kritische houding te hebben opeens een waardevollere mening hebt en boven anderen verheven bent.

Als AMD volgens jou echt zo bezig was om de tijd tussen aankondiging en launch te benutten dan hadden ze veel meer hun Hawaii chip uitgemolken in plaats van nVidia completely off guard te catchen hiermee. En als je dit geloof dan toch echt aanhangig bent wees dan ook een echte vent en geen fanboy en geef dan gewoon toe dat nVidia dit nou juist wel/ook doet door nu de 790 aan te kondigen.
Denk jij die voor de zomervakantie te hebben? Dat is dan weer het omgekeerde van azijnpisserij, meer de rose brillerij dan.

Als laatste:
Ik 'hamer' ook niet op die 45%, dat is een getal dat al veelvuldig hier is langsgekomen en derhalve geen bronbenoeming behoefte, zo dacht ik.
De tech demo geeft ook direct het effect van Mantle weer.
Powerpoint slides zijn blijkbaar in jouw ogen per definitie onwaar en hebben geen relatie tot de werkelijkheid? Ik ruik weer azijn...
Misschien moet je even proberen de focus te leggen op de concrete situatie ipv de benadering die ik kies en hoe die verschilt van de jouwe. Als je de markt een beetje kent, dan weet jij net zo goed als ik dat er maar wat graag met grote cijfers en marketing gesmeten wordt, maar dat de praktijk vaak wat weerbarstiger is. We hebben 'dodelijke' Killer netwerkchips (die misschien 1ms winst geven?), we hebben 'ongelofelijke' visuele kwaliteit en 'geweldige' prestatiewinsten (zie de Nvidia driver releases, 'up to' x% winst kan dus ook gewoon 0% betekenen).

Als jij niet wil inzien dat AMD momenteel met een charmeoffensief bezig is en als je ook niet wil inzien dat dit wel heel toevallig samenvalt met de release van de R-kaarten, is dat je goed recht. Ik signaleer dat wel en meld het dus voor mensen zoals jij, die direct op de juichmodus overgaan en melden dat het allemaal geweldig wordt, zonder dat er een concrete, real-world bench voor is gedraaid.

En, nee, ik heb BF4 niet gekocht, want ik kijk altijd even de kat uit de boom en doe goed onderzoek, zodat ik weet waar ik mijn geld aan uitgeef :)

[Reactie gewijzigd door Vayra op 7 januari 2014 15:40]

Was het enkel AMD die de loftrompet schalt dan zou ik ook wat terughoudender zijn geweest. Maar er zijn meerdere bedrijven die de techniek waardevol vinden en de tech demo zelf, die niet van AMD was, was ook positief. Ik ben zelf dan wel bereid een technologie het voordeel van de twijfel te geven.

Toevalligheid is enkel daar waar je het wilt zien. Het zou heel goed kunnen dat dit gewoon getimed is en geen toeval is. Als je toch een nieuwe gen kaarten lanceerd, doe het dan goed. Ze hebben de ogen op zich die nVidia probeert af te leiden met een productaankondiging uit de toekomst, de 790.

Ik vind het zelf wel hilarisch dat AMD gewoon een antwoord heeft op het dichttimmeren van 'hun eigen fantastische' techniek.

Wat gameonderzoek betreft; BF4 schijnt Da Bomb te zijn als het goed werkt :) (kreeg hem bij mijn kaart maar nog niet gespeeld).
Vayra heeft gewoon gelijk.
Goede statement, heeft men veel aan.

Dat Mantle uitgesteld wordt omdat Dice de Mantle launchgame verklooit is volgens jou ook de schuld van AMD? Stelletje fanboys hier... sneu.
En Pretty much nobody? Sjees, wat een oogkleppen hebben de mensen hier op, de onwetendheid is om te schaterlachen... of is het weer de fanboyerij? 1 en 2, als voorbeelden, zoek de rest zelf maar.

Tja, hardware zal vast beter zijn, ik wil ook graag het verschil zien. Maar als het een redelijk percentage hetzelfde effect heeft maar geen cent kost dan weet ik wel wat ik ga doen...
Dus als voorbeelden noem je THIEF, crowd funded Star Citizen (als het ooit af komt) en een of andere start-up genaamd Oxide?

Nou, dus toch pretty much nobody he.

Horen we over een paar maanden weer van je? Als DICE Mantle maar heeft opgegeven en Freesync alleen blijkt te werken met zeer stabiele framerates zoals in techdemo's? :X
Ja hoor, breng het maar op als het zover is. Maar dan wel een vent zijn en mij contacteren en toegeven als het toch allemaal een stuk beter werkt dan jij dacht, ok?
Uhmm de Mantle techniek zit ook in de PS4. Dus alle game developers kunnen perfect gebruik maken van dit techniek op PS platform. En je weet ook dat de PS4 hardware 99,99% x86 gebaseerd is en dus kunnen de game ontwikkelaars zonder veel moeite dit gaan overzetten naar de desktop. Dus ik zou zeggen pretty much everyone...
Ik moet u ongelijk geven man.
http://www.pcgamesn.com/v...ee-amds-mantle-api-action
Hier kan je Mantle in actie zien op een r9 290 als ik me niet vergis. De prestaties zijn niet mis, al kan ik het niet vergelijken met het spel draaiende op DX11 omat ik het daarop nog niet heb zien draaien.
Dat ze het idee misschien kopiŽren zegt niks over geld. Om de techniek erachter voor elkaar te krijgen is toch een fiks budget nodig.
Variabele VBLANK is bedoeld voor mobiele schermen, zodat ze het scherm kunnen verversen als er een nieuwe frame klaar staat, in plaats van 60 keer per seconden het scherm verversen. Dit om weer wat extra energie te besparen.

Daarom zal het wel meer in laptopschermen aanwezich zijn dan in desktop schermen, maar de techniek bestond gewoon al, alleen was het bedoeld voor een andere markt met een ander doel.
Hoe weet je of de display die ondersteuning heeft?
...maakt AMD gebruik van een bestaande VESA-standaard
Als je monitor deze ondersteund dan ondersteunt hij dus ook Freesync.
Ja..en hoe kom je daar achter?
Ik dacht dat VESA een mount was.
Kan er verder niks over vinden.
VESA is een heel uitgebreide standaard, waar onderandere de mounting holes voor een standaard/muurbeugel/etc ook in staat.

En gewoon even googlen op VESA levert je direct de wikipedia link op, waar alle informatie op te vinden is.


Overigens jammer dat van de 9 bedrijven die VESA opgericht hebben er officieel nog maar 2 bestaan.

[Reactie gewijzigd door knirfie244 op 7 januari 2014 12:02]

Kan iemand dit in 'noobtaal' uitleggen, want het staat wat ingewikkeld in het artikel.. 'maakt AMD gebruik van een bestaande VESA-standaard om de vblank-intervals te beheren en een variabele verversingssnelheid te verkrijgen.'

En hoe weet ik of mijn monitor dat ondersteund? Bijv de 2411 van BenQ.
De VESA standaard bepaald niet alles dat er in een scherm moet zitten, zo kan de vblank functie door de fabrikant in de firmware verwerkt zijn, maar dit hoeft niet. Ik gok dat het niet lang duurt voor fabrikanten laten weten welke van hun schermen geschikt zijn, dit is geen informatie die makkelijk terug te vinden is in de specs.
Hoe dan ook is dit heel goed nieuws, dit betekend dat met een AMD kaart we kunnen genieten van zowel "free/G sync" als mantle. Voor een fanatieke battlefielder als ik is dat natuurlijk super nieuws. Ik wacht met smart op meer info van monitor fabrikanten.
Ik zie zelf nog steeds geen waarde in G-Sync en FreeSync. Wanneer je de framerate met een programma limiteerd tot 1 fps onder je refresh rate dan heb je al geen merkbare input lag meer wanneer V-sync aanstaat. Gooi hier triple-buffering overheen en het kost je ook bij geen performance meer. Ik gebruik dit al ongeveer een jaar en nog nooit problemen mee gehad behalve dat DX11 games niet altijd werken met D3DOverider (wat de triple-buffering verzorgt).
De waarde is dat je geen tripple crossfire nodig hebt voor smooth gameplay. (ga maar eens 60fps op ultra settings regelen op een 1440p of 4k scherm)
Ook op een notebook met beperkte GPU capaciteit kan je dan redelijk high-end gamen.

Verder is de lag\stutter die je ervaart op 40 fps onterecht; die stutter is gevolg van het niet in sync zijn van de videokaart met de monitor, ('random' dupliceren van frames omdat er nog geen nieuwe frame klaar was), dat is dus niet niet omdat 40 fps ansich niet smooth zou kunnen zijn.
(een film is doorgaans ook maar 25-30 fps, echter je ervaart geen stutter!)
Met G-Sync of FreeSync krijg je ook geen smooth gameplay op die settings en resolutie zonder een (stel) goede grafische kaart(en). Bovendien voellen games voor mij zoizo minder smooth wanneer V-sync uit staat. En het geld dat je extra moet uitgeven aan een G-Sync scherm kun je ook besteden aan een betere grafische kaart wat voor mij meer waarde heeft.

Ik zou zelf wel eens een test willen zien: Een stel pc's waarvan er een groep met G-Sync draait, Een groep met normale V-sync, Een met mijn methode en een groep zonder enige vorm van V-Sync. Dan mensen erop laten gamen en kijken of ze verschil merken (zonder van te voren te weten welke pc wat heeft).
Probleem is idd dat niemand het nog gezien heeft, afgezien van een handjevol reviewers die toch stuk voor stuk zeer enthousiast zijn, dus ik vermoed dat je test zal uitwijzen dat G-Sync als beter ervaren wordt... maarja vermoedens ;)
Ik ervaar zeker wel stutter bij films, maar dat is het filmgrafische effect wat iedereen kent en waarom film 'Film' is. Als je bijvoorbeeld The Hobbbit kijkt met AFR dan voelt dat heel anders in het begin. Dan wen je er aan en is het ronduit fijn.
The Hobbit ziet er op een normale TV ook nep uit. Het kan ook gewoon aan de film liggen.
een film is doorgaans ook maar 25-30 fps, echter je ervaart geen stutter!
Dit houdt verband met het principe van interlacing.

http://nl.wikipedia.org/wiki/Interlaced_scanning
(een film is doorgaans ook maar 25-30 fps, echter je ervaart geen stutter!)
Vooral die skylines in films zijn altijd supervloeiend en totaal stotteren totaal niet. /sarcasme
meestal echter veroorzaakt door de automatische omzetting van American fps naar de in de EU gebruikelijke. daar zit een halve frame verschil tussen en zorgt dus voor veel problemen bij dat soort panning shots.

[Reactie gewijzigd door Countess op 7 januari 2014 16:48]

?? Is dit de reden waarom de refresh rate wel eens 59Hz aan geeft op een 60Hz scherm? (en niet door mij ingesteld).
Je hebt wel nog microstutters. Als je 59 beelden per seconden uitstuurt maar je monitor wilt er 60 tonen gaat 1 beeld 2x zo lang blijven staan als de rest. Zak je naar bijv 50fps dan gaan dat tot wel 10 beelden zijn die langer blijven staan dan de rest.

Je verhelpt ook de inputlag niet. Als je monitor kijkt maar geen nieuwe frame kan vinden, toont hij gewoon dezelfde als ervoor. Op je GPU heb je dan inderdaad geen extra inputlag, maar je scherm blijft in het vast regime refreshen waardoor je toch last krijgt als je onder de refreshrate gaat.

Ik heb het zelf nog niet kunnen proberen dus ik zou niet weten of het nu daadwerkelijk zo veel verschil maakt, maar wat ze zeggen heeft support langs de monitor kant nodig om te kunnen werken.
Omdat je niet altijd een stabiele framerate hebt. Vind de variable vsync van Nvidia wat dat betreft wel een goede oplossing tot nu toe.
Nvidia: Ja we hebben dit awesome iets uitgevonden om het scherm in sync te houden met de videokaart i.p.v. andersom, maar alleen Asus mag er voorlopig gebruik van maken.
AMD: Dafuq, hier, we hangen een label aan een bestaande technologie.

Way to go AMD. Ik was altijd nvidia fanboy maar ik zie laatste tijd echt goede ontwikkelingen vanuit AMD komen.
Ik lach me ook helemaal suf :) NVidia beetje stoer doen en lange neus trekken naar AMD met hun 'super uitvinding'... blijkt het al te bestaan, een standard te zijn die nu al veel vaker geimplementeerd is ondertussen dan G-synch vermoedelijk ooit zal zijn en het kost geen stuiver!

Ik zou de gezichten van de NV exec's we eens willen zien en de engineers die ze op het matje roepen...
Vast niet de performance van de techniek van nVidia zal vast beter zijn. Als AMD dit kan bedenken heeft nVidia hier ook al lang naar gekeken. Zie ook: Thijs_ehv in 'nieuws: AMD kondigt laptop-gpu's en alternatief voor G-sync aan'
Ik kan me wel degelijk voorstellen dat Nvidia hardware maakt voor een bestaande oplossing die softwarematig te doen is. Aankondigen dat je via een bestaand protocol iets kan oplossen verkoopt geen exclusiviteitscontract met ASUS en trekt minder goed nieuwsberichten.

Maar wie weet heb je gelijk. G-Sync doet volgens mij ook meer dan synchroniseren; Het deed ook iets met scaling dat de latency zou verlagen.

[Reactie gewijzigd door Gamebuster op 7 januari 2014 12:55]

Moet je toch beter het nieuws lezen hier. Philips heeft ook zo'n monitor geÔntroduceerd. nieuws: MMD introduceert Philips-monitor met Nvidia G-sync en uhd-model
Maar voorlopig mag alleen Asus het op de markt brengen... de reden warom die Philips nog niet verkrijgbaar is...
Goeie set van NVidia om het closed to maken en alleen aan Asus aan te bieden. Dat forceerd AMD voor een tegen aanval en de wapenwedloop is begonnen. Dat betekend dat we straks volop keuze hebben aan leveranciers en concurrerende prijzen, performance en technologie. Ik vraag mij af wat het antwoord van NVidia hier op is :D
Ik denk wanhoop... hoe kan je met extra hardware en kosten nou concureren tegen een al bestaande standaard die geen extra hardware vereist en gratis is?

Zonder dat nVidia er geld op toe gaat leggen is er geen wapenwedloop.
Er is vast een reden dat Nvidia er speciale hardware voor nodig heeft.

Immers, G-sync werkt ook met het V_BLANK interval, maar dan wel aangestuurd door speciale hardware. Ik denk dat de hardwarematige manier van Nvidia toch beter werkt. Bij AMD krijg je waarschijnlijk wat software overhead.
Ik kan me ook niet voorstellen dat nVidia die hardware voor niks maakt en enkel hoopt dat de mensen het niet door hebben. De vraag is of het echt zo veel beter werkt dan de software oplossing want marginaal beter rechtvaardigt de prijs mogelijk niet.

De vraag is ook dat als de kwaliteit van Free-sync redelijk vergelijkbaar is, of in relatie staat tot de kosten namelijk: geen, of de software overhead enkel wat CPU cycles betreft of een merkbare vertraging geeft. Met de huidige CPU's kan ik wel een paar cycletjes missen, net als met audio processing.
Het bestaat misschien al, maar ik heb het nog nooit eerder gezien. Dan is het dus nog niet goed genoeg voor de consumentenmarkt.
Wat een overhaalde conclusie trek je hier Tijgert. De oplossing van Nvidia is zo gemaakt dat er geen enkele tearing/framebuffer/stutter meer is wat fout gaat, terwijl deze techniek slechts een enhancement is die maar een beperkte verbetering kan brengen.

Er is nog niets te voorspellen maar over het algemeen werken de Nvidia oplossingen toch beter zowel hard- als softwarematig.

(en uiteraard zal dit wel op fanboy gedrag worden gemod terwijl ik dit vanaf een AMD systeem typ!)
Ik vind Freesync een mooi antwoord op G-Sync. Ik zie het zelfs eerder een standaard worden omdat alle fabrikanten hun firmware er simpelweg voor aan kunnen passen zonder contractueel geneuzel of de noodzaak extra hardware toe te voegen.

Natuurlijk is het fantastisch om screen-tearing bij gamen/film kijken tegen te gaan. Maar een refreshrate van 75Hz is natuurlijk tijden het tekstverwerken ook onzin. Het is natuurlijk veel efficiŽnter om alleen nieuwe beelden naar de monitor te sturen als er daadwerkelijk iets veranderd is.
Dan heb je bijvoorbeeld tijdens het scrollen 75Hz, en tijdens het typen alleen een refresh bij een toetsaanslag.

Ook vind ik het tof dat ze meteen laten zien dat hun techniek ook op laptops werkt, dat had ik van G-sync nog niet gezien. Anderszijds is het ook logisch dat het werkt op hardware dat de VESA standaard volgt.

[Reactie gewijzigd door donotwant op 7 januari 2014 11:07]

Ik vind Freesync een mooi antwoord op G-Sync. Ik zie het zelfs eerder een standaard worden omdat alle fabrikanten hun firmware er simpelweg voor aan kunnen passen zonder contractueel geneuzel of de noodzaak extra hardware toe te voegen.
Inderdaad het gevecht van CF vs SLI all over again :P

[Reactie gewijzigd door watercoolertje op 7 januari 2014 11:09]

voor mij komt amd met de betere oplossing
gewoon al omdat er geen proprietaire chip voor nodig is die 250§ kost waardoor uw monitor veel te duur word
dank u amd
Die chip kost geen 250 euro, op dit moment is de meerprijs iets van 150 dollar (zullen wel wat royalties in zitten ;) ) maar dat is omdat ze nog geen dedicated chip gebakken hebben en het nog in een FPGA chip zit.
wel de goedkoopste monitors met Gsync kosten 500-600§ en dan zijn het standaard 1080p tn-panneeltjes, ik denk wel dat het meer als 150 § kost
Uhm.

144Hz panelen zijn geen "standaard 1080p TN-panelen"...

En leuk dat jij denkt dat je de meerprijs van de FPGA chip wel even kunt schatten:

Normale ASUS VG248QE: 300 euro
ASUS VG248QE met G-sync: 499 dollar bij bepaalde retailers. Prijs gaat nog verder zakken naar 399 dollar, als native modellen met G-sync uitkomen.
Maar niet voor de fabrikant zoals je het lijkt te bedoelen in je eerste post, maar wel voor de consument ;)
De ironie in de naam 'free sync', niemand opgevallen? ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True