Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties

Nvidia's G-Sync, een module voor in het beeldscherm waarmee een einde moet worden gemaakt aan tearing en stuttering bij 3d-content, wordt mogelijk gedurende een groot deel van 2014 exclusief voor Asus. Beide bedrijven zouden hiervoor een overeenkomst hebben gesloten.

Nvidia kondigde half oktober G-Sync aan, waarmee met een module in het beeldscherm een einde gemaakt moet worden gemaakt aan tearing en lagging bij 3d-games. Nu blijkt uit een gerucht op het Zweedse Sweclockers.com dat G-Sync gedurende enige tijd exclusief gebruikt zal worden in Asus-beeldschermen.

Nvidia en Asus zouden een exclusiviteitsovereenkomst hebben getekend, waardoor andere fabrikanten tot het derde of vierde kwartaal van 2014 moeten wachten voordat ook zij de module in hun beeldschermen kunnen inbouwen. De deal lijkt een slimme zet voor in ieder geval Asus, gezien veel gamingbeeldschermen zich in dezelfde prijsklasse bevinden en het bedrijf nu de mogelijkheid heeft zich meer te onderscheiden. Nvidia heeft eerder gezegd dat het G-Sync graag in veel beeldschermen zou zien, waardoor de stap voor Nvidia om het exclusief met een aanbieder op de markt te brengen minder logisch klinkt.

In eerste instantie zal G-Sync in beeldschermen met een vernieuwingssnelheid van 120 of 144 Hz verschijnen. Het eerste scherm is al door Asus aangekondigd, namelijk de VG248QE met een prijskaartje van ongeveer 298 euro en een verversingssnelheid van 144 Hz. Deze nieuwe versie zal begin 2014 verschijnen; huidige varianten kunnen tegen die tijd gebruikmaken van een upgradekit. Na verstrijking van de deal zullen beeldschermen van BenQ, Philips en Viewsonic met G-Sync verschijnen. Nvidia hoopt dat op den duur dat ook schermen met een 4k-resolutie uitgerust worden met de technologie.

G-Sync wordt in het beeldscherm ingebouwd en communiceert continu met de videokaart. De module vervangt de videoscaler van het scherm en maakt een dynamische en hogere refresh rate mogelijk, waardoor tearing en stuttering bij 3d-content niet meer voor zouden kunnen komen. Hiervoor is wel een recente gpu van Nvidia vereist, zoals een Kepler-kaart.

Nvidia G-Sync

Moderatie-faq Wijzig weergave

Reacties (46)

Idd een gerucht, en niet waar.
https://twitter.com/bdelrizzo/status/394908419976470529

alle techsites zijn weer lekker van elkaar aan het kopieren.

[Reactie gewijzigd door haarbal op 2 november 2013 16:05]

Omg, weer een BUZZ nieuwsflash. Gaat lekker zo :O
Naar mijn gevoel hebben ze hiermee voorkomen dat G-Sync een standaard wordt.
Ik had de technologie graag geprobeerd, maar nu heb ik opeens een Asus monitor (en misschien zelfs een nVidia kaart van Asus) nodig...

Het wachten is nu op AMD die iets vergelijkbaars bedenkt en het wel meteen vrijgeeft aan alle monitorfabrikanten.

[Reactie gewijzigd door donotwant op 2 november 2013 10:42]

..wordt mogelijk gedurende een groot deel van 2014 exclusief voor Asus.
In de beginperiode dus exclusief, daarna niet meer. Daarnaast interesseert het potentiele kopers niet welke merk het is? Mensen die specifiek een scherm zoeken met G-sync kopen volgens mij voornamelijk vanwege die techniek.
Ik kan mij ook met geen mogelijkheid voorstellen dat je enkel met ASUS nvidia kaarten hier gebruik van kan maken aangezien er voor een beeldscherm geen verschil zit tussen de merken videokaarten. Ook lijkt het mij dat ASUS er een extreem belachelijk bedrag voor neer zou moeten tellen om dit exclusive te krijgen op hun monitoren en videokaarten dat ik mij bijna niet voor kan stellen dat ze dat financieel zouden kunnen redden.
De tijdelijke exclusive voor een fabrikant (mogelijk omdat ze helpen met de ontwikkeling oid) lijkt mij dan financieel nog wel haalbaar.
Hoe dan ook is het geen straf om een ASUS monitor te gebruiken, de glanzende rand van de gaming modellen heeft niet mijn voorkeur, maar kwalitatief zijn het uitstekende schermen, ik zit dagelijks achter een Pro Art series monitor van Asus voor grafisch werk, en ik kan zeker niet klagen.
tja maar dat word moeilijk voor de fabrikanten omdat ze dan een AMD versie en een Nvidia versie moeten uitbrengen.Ik denk niet dat 2 modules in èèn beelscherm gaat werken.
Ik neem aan dat als antwoord op G-Sync er nu een open standaard zal worden ontwikkeld voor AMD en Intel GPU's. En dan langzaam zal die ook beschikbaar worden op schermen.

Zie ook: Elke andere techniek die duidelijk de toekomst is, maar eerst door één fabrikant werd ontwikkeld.
zal amd echt een weg rondom nvidia zijn patent moeten zien te vinden.
Niet per se. Het is niet omdat 2 voorwerpen dingen hetzelfde doen/functie hebben dat ze intern ook hetzelfde werken.

@ onder: In dat patent is een methode gepatenteerd. Geen functie. De blokdiagrammen verduidelijken de methode en zijn niet per se bepalend voor de interne werking van de methode.

Patenten zijn inderdaad opzettelijk vaag om zo breed mogelijk een bepaald concept te beschrijven maar dat wil niet zeggen dat nVidia hier nu alle gelijkaardige technieken kan cockblocken.

[Reactie gewijzigd door Lorefice op 3 november 2013 00:08]

Nvidia heeft patenten op functies, patenten gaan vaak niet eens in op hoe het interne werkt, met wat blokdiagrammen moet je het meestal doen. Ook in dit geval zijn paar tekening die eigenlijk heel vaag zijn en niet veel zeggen, net als de tekst, alleen vage functie omschrijving niks in detail en al helemaal niet de interne werking van de chip.

http://patentimages.stora...is.com/pdfs/US8120621.pdf
Nee dat is nier nodig, het scherm kan ook nog op een normale wijze worden aangestuurd ( dus zonder NV GPU), echter werkt G-Sync dan natuurlijk ook niet.

Het kan natuurlijk wel dat ze 2 verschillende versies ontwikkelen vanwege het verschil in de prijs die ong. 100 euro duurder is door deze chip.
Een standaard zal het nooit worden. Het is en blijft voor NVIDIA hardware en software (3DVISION).
Net als Cuda, 3D en SLI vroeger ook Nvidia Exclusief waren heb je nu de beschikking daarover (althans eenzelfde functie) op AMD en Intel GPU's (al moet ik eerlijk zeggen dat alle 3 beter op Nvidia spullen werken).

Eerst zal het een kleine groep Gamers zijn die dit zal kopen en als het echt iets is vertellen zij het heel enthousiast door aan al hun andere gamervrienden.
Dit is zowieso niets voor de gemiddelde consument want die gamed niet, dus weggegooid geld voor die mensen.
Net als Cuda, 3D en SLI vroeger ook Nvidia Exclusief waren
Alleen Cuda is "exculsief". 3D oplossingen zijn er al langer van andere fabrikanten, oa gebaseerd op 3dfx hardware (Wicked3d bijvoorbeeld) en SLI is een techniek die nVida met de overname van 3dfx in handen heeft gekregen. Als het gaat om multiple GPU oplossingen (wat SLI is) waren Ati met de Rage Max (2x Rage 128 op één kaart) en 3dfx nVidia al voor.
en weet je wat nou zo jammer is ?

Dat net als bij RAID, SLI e.d. geen industriele standaard is. Waarom kan het daar, bij RAID kaarten wel en hier niet ? Heb ik maar 1 goed antwoord op: onwil!

Ondertussen mag de consument zich een weg banen door het woud aan verschillen, kunstmatige, opzettelijke verschillen.

prachtig hoor, die kunstmatige concurrentie :X
RAID is geen industriële standaard.

RAID is een principe van HDD redundancy, welke door verschillende partijen op verschillende manieren wordt uitgevoerd.

De reden dat jij wellicht denkt dat het een standaard is komt door het feit dat alle implementaties een bepaalde vorm van redundancy bieden (RAID1, RAID5 etc) welke wèl gelijk blijft. Iets in tweevoud uitvoeren zal altijd dezelfde redundancy (RAID1) bieden, ongeacht hoe het werkt.

Dat de geboden redundancy gelijk is betekent echter niet dat de implementatie gelijk is.

bijvoorbeeld: Als ik mijn RAID6 of RAID1 schijven welke zich op een Areca raid controller kaart bevinden aan mijn mobo SATA poorten zou hangen betekent dat nog niet dat de on-board intel ICH10R deze schijven herkent als RAID en ze automatisch als RAID array overneemt en kan gebruiken.
Was het maar zo'n feest...

Het enige wat dus 'standaard' is aan RAID is de naamconventie betreffend geboden redundancy en data-bescherming.

OT: Zeer slechte zaak dit.
Nvidia schiet zichzelf hiermee ernstig in de voet als je het mij vraagt. Wat Nvidia wellicht over het hoofd ziet hier is dat vele 'hardcore gamers' - wat toch wel in eerste instantie hun beginnende doelgroep is voor deze nieuwe techniek - wellicht zeer nadrukkelijke voorkeuren hebben voor fabrikanten.

Belangrijker echter nog is dat ze nu de deur openen voor de concurrentie om met een alternatief te komen.
Dit is een beetje hetzelfde als een bedrijf welke een vaccin tegen kanker ontwikkeld het vervolgens enkel aanbied in land X voor de komende 10 jaren omdat dat land hun een grote som geld hiervoor aanbied/heeft geholpen met de research.
Zo stimuleert dat bedrijf enkel dat concurrerende farmaceutische bedrijven hun recept gaan stelen en het vervolgens zelf gaan aanbieden. Met dusdanige revolutionaire vernieuwingen zal de concurrentie namelijk echt niet schromen om een groot budget op te stellen voor het op 'legale' wijze omzeilen van enige patenten welke op de betreffende techniek van toepassing zijn/zijn geclaimd.

De enige manier om zulke innovatie diefstal tegen te gaan is door vanaf het begin af aan zo breed mogelijk aan te bieden tegen eerlijke prijzen. Anders zal je nooit een monopolie op de techniek kunnen verkrijgen.

Maw: àlle monitor/tv fabrikanten voor hetzelfde bedrag per chip en àlle GPU fabrikanten (intel/amd) een licentie aanbieden op de techniek tegen een eerlijke vergoeding (lees: nèt laag genoeg om te voorkomen dat ze liever zelf geld in R&D gaan stoppen om het na te bouwen).

Je wilt zo veel mogelijk marktaandeel en naamsbekendheid creëren alvorens de concurrentie doorheeft dat je zojuist een kip die gouden eieren legt gekweekt hebt.

[Reactie gewijzigd door Ayporos op 3 november 2013 08:07]

offtopic:
Ook geweldig hoe je naam hier bij aansluit, haha.


Ik denk dat je echt alleen maar een nVidia kaart nodig hebt van welke merk dan ook. Het gaat om de technologie in de Kepler GPUs en niet om wat extras dat Asus erbij gaat solderen want ik denk niet dat ze dat gaan doen. Dit zal wel Asus populairder maken dan ooit voor de meeste mensen op het groene kamp en misschien ook voor nieuwe mensen die nog een overstap moeten/willen maken op een nieuwe monitor en/of videokaart. Vraag me af wie na Asus G-sync ook gaat aanbieden.. BenQ? Iiyama? Dell?
Je hebt sowieso een nvidia kaart nodig. Er staat in het bericht dat je een Kepler gpu nodig hebt.
perse een asus kaart heb je zeker niet nodig het bevat een stukje hardware/software van NVIDIA zelf dus alle kaarten kunnen hiermee mee omgaan van NVIDIA
Gaat niet G-sync is gepatenteerd. En wat ik te horen kreeg is dat ze het niet onder licentie aan amd willen verkopen.
Even gelezen en filmpje van hardware.info gekeken en ik krijgen een erg groot "waarom is dit niet al eerder gemeen goed geworden?" gevoel...
Bij de oude CRT's was alles gebaseerd op de frequentie van het stroomnet, dus dat kan ik begrijpen. Maar met LCD panelen hoeft dat al lang niet meer en de aangehaalde problemen (tearing en stutter) bestaan al zo lang als dat er games bestaan. Zo moeilijk lijkt het me niet om een extra timing signaal vanuit de videokaart te sturen, toch?

[Reactie gewijzigd door DropjesLover op 2 november 2013 13:16]

Timings worden ook verstuurd vanuit het videosignaal. Het was alleen wachten tot een interface of API waarmee monitirfabrikanten daar iets mee konden doen. Ik heb het idee dat monitorfabrikanten gewoon niet innoveerden in dit gebied, dus kwam Nvidia ket een oplossing op de proppen en leveren dit aan. Er is dan ook niet zo gigantisch veel te verdienen lijkt mij op de monitormarkt om hier de investering van te verantwoorden voor fabrikanten.

Vindt dat overigens ook raar dat er bij geen twee mensen bijna hetzelfde monitormodel terug te hinden is (of televisies for that matter) en de industrie gewoon blijft bestaan. Als een telefoon geen x miljoen verkoopt maken ze al verlies, wat bijvoorbeeld over lumias gezegd wordt, maar die zie ik toch nog altijd iets meer dan meerdere modellen van hetzelfde type.
Dus als BenQ dit niet gaat gebruiken in hun monitoren, is nVidia dom bezig? Dus... Sorry hoor, maar ik vind je beredenering een beetje dom, of je hebt het echt krom verwoord. Als je bedoelt dat je het dom vindt van nVidia dat ze het niet aanbieden aan BenQ, dan heb je de tekst niet goed gelezen, daar er toch duidelijk staat dat overige fabrikanten later in 2014 aan de beurt komen, dus ook BenQ.
Rollout Plans by Monitor Manufacturers
Many of the industry's leading monitor manufacturers have already included G-SYNC technology in their product roadmaps for 2014. Among the first planning to roll out the technology are ASUS, BenQ, Philips and ViewSonic.

http://nvidianews.nvidia....-Artifacts-of-th-a41.aspx
De hele manier waarop Nvidia dit aanpakt blijft klinken als een doodlopende zaak, je kunt toch niet gaan hopen dat G-Sync een relevant marktaandeel krijgt als je iedereen blijft uitsluiten? Het is een niche, de meeste gamers op de PC zouden we wel iets aan hebben (ook al denken ze van niet) maar ze zullen er nooit extra een Nvidia kaart voor gaan kopen en daar bovenop een extra duur scherm. De enigen die dat overwegen zijn de mensen die nu al een 120/144hz scherm hebben of overwegen, en dat is al een best kleine groep.

Ik vrees dat het idee een stille dood gaat sterven en dat zou enorm zonde zijn. De enige hoop die ik heb is dat dit AMD en Intel motiveert om een dergelijke standaard in Displayport te gaan pushen.

[Reactie gewijzigd door Fiah op 2 november 2013 12:14]

Ernstige is nog wel dat Nvidia het niet toelaat om hybrid te draaien. Vroeger was er een hack mogelijk om een main ATI te draaien en een goedkooe Nvidiakaart ernaast voor de PhysX. Heeft Nvidia ook helemaal disabled.

Anders had je nog een low end Kepler GPU kunnen draaien voor g-sync en physx.

Vindt het overigens raar dat er zo een ophef wordt gemaakt over de xbox one en ps4, waarbij er velen uit principe de xbox niet nemen omdat microsoft niet het beste met zijn klanten voor heeft, terwijl dit bij Nvidia schering en inslag is om consumenten over te naaien tot en met. Community hacks waar Nvidia totaal geen last van heeft hardcoded disablen, technologiën propriëtair houden in tegenstelling tot ATI (want bv. Mantle is gewoon vrij te gebruiken, niet ati-specifiek). CrossFire is gewoon vrij te gebruiken voor moederbordfabrikanten i.t.t. SLI. Het moedwillig dwarsbomen en kutten van ATI...En dat wordt dan niet benoemd.
Mantle is helemaal niet vrij te gebruiken, ja voor game devs, echter werkt de API voor Mantle ALLEEN met Ati GPUs, wat betreft Physx, dit is het zelfde als Mantle (niet de techniek), er gaan duizenden euro's in voor de ontwikkeling, natuurlijk wil je dit dan niet weg geven aan de concurrentie, dan geef je dus een Key feature van je product weg.

Tevens hebben Ati kaarten icm een low end Nvidia kaart nooit goed gewerkt aangezien de Nvidia kaart dan niet snel genoeg is om alle beelden of physx onderdelen op tijd te berekenen.

Tevens zou ik wel eens een bron willen zien over de info dat er voor SLI betaalt zou moeten worden door MB fabriekanten en voor Crossfire niet.
Je gaat de kern voorbij: Nvidia wil zijn patent niet in licentie aan AMD "verkopen", andersom wil AMD best licenties van Mantle aan Intel en Nvidia "verkopen".

De laatste twee draineren dus een potentieele standaard, ten faveure van hun eigen "gewin".
Nvidia wilt dit inderdaad niet aan AMD verkopen, hier zijn ze behoorlijk duidelijk in geweest, echter hebben ze nooit gezegt dat ze het niet aan Intel willen verkopen, echter is de kans klein dat Intel iets heeft aan deze techniek op dit moment aangezien de GPUs nog niet echt krachtig genoeg zijn om uberhuabt te kunnen gamen.

Echter zou ik wel willen weten waar jij dan het gelezen dat AMD zijn Mantle API wel wilt verkopen aan de concurrent, want dit is toch wel een belangrijk iets voor AMD om er weer boven op te komen en als ze dit dan verkopen aan Nvidia hebben ze dus niets speciaals meer want de concurrent heeft de zelfde techniek.

Edit: Typo

[Reactie gewijzigd door Keffa18 op 3 november 2013 11:42]

Intel gaat ook mantle gebruiken. Het lijkt mij niet ondenkbaar dat nvidia dat ook gaat doen.

Overigens staat tot nu toe nergens dat je geld moet betalen voor het gebruik van mantle, er is geen sprake van verkopen, want het is gratis.
Kom dan eens met een bron, jullie zeggen dit wel maar het is geen enkele manier onderbouwt.

Tuurlijk zou het mooi zijn als Mantle beschikbaar komt voor Intel en Nvidia, echter de enige manier om dit gratis te maken is door er een open standaard van de maken zoals OpenGL etc. tevens als AMD zelf alles voor Mantle zal uitbrengen zullen zij altijd een macht positie hebben om bijvoorbeeld niet alle onderdelen van Manlte uit te brengen waardoor het dus op AMD kaarten beter werkt bijvoorbeeld, de enige manier om dit te voorkomen is door de API door te laten ontwikkelen door een andere organistatie zoals bij OpenGL het geval is.
Mantle is helemaal niet vrij te gebruiken, ja voor game devs, echter werkt de API voor Mantle ALLEEN met Ati GPUs
Nonsense. Mantle werkt met alle GPU's, AMD is echter de enige die momenteel een implementatie heeft geschreven. Nergens heeft AMD tot nu toe gemeld dat andere videokaarten niet met mantle kunnen werken.
Het heeft niet specifiek met 3D te maken.

Hardware.info had hier eerder een artikel over en daar gaven ze ook aan dat het voor andere schermen zou komen en nu staat er zelfs een artikel op hun staat die dit gerucht specifiek tegen spreekt.
http://nl.hardware.info/n...usief-voor-asus-monitoren

Het maakt ook niet echt een hogere refresh rate mogelijk, alleen als je het vergelijkt met een spel waar je nu V-sync aan hebt. Dat kan dan uit en je krijgt eigenlijk een soort betere variant van / dan V-sync.

[Reactie gewijzigd door Devata op 3 november 2013 00:50]

Nvidia hoopt dat op den duur dat ook schermen met een 4k-resolutie uitgerust worden met de technologie.
Flikker op met 4k, kom eerst eens met een 2560x1440 scherm met een hogere beeldverversingssnelheid. Vind het een beetje bizar om het al over 4k schermen te hebben terwijl dat aangekondigde scherm van Asus ook nog steeds maar 1080 beeldlijnen heeft. Ik wordt er erg moe van dat we gedwongen worden om te kiezen tussen vloeiend beeld enerzijds, en goede resoluties en kleuren anderszijds... Of zelf importeren uit korea en de boel officieel buiten spec draaien.
Dit zal nooit opgenomen kunnen worden in de HDMI standaard. Want HDMI heeft een fixed clock rate. Variabele refresh rate is alleen mogelijk met displayports' packet based protocol.

Nog een reden om HDMI zo snel mogelijk de zak te geven.
HDMI de zak geven? Ben je nou helemaal gek geworden? Voor een niche markt en een niche functie?

Dan krijgen we straks weer duizend en 1 aansluit rommel. HDMI is tenminste een standaard, en hoewel standaard altijd in enige mate gebukt gaan onder compromissen, ze dienen wel het merendeel van de consumenten, niet een kleine niche groep.
HDMI de zak geven, ja. Een displayport host heeft zo ontiegelijk veel voordelen tegenover een HDMI host dat ik echt niet kan begrijpen dat fabrikanten er uberhaubt nog over denken om HDMI te gebruiken op bijvoorbeeld laptops.

Het enige wat HDMI red is dat het ingeburgerd is.
"Asus G-Sync is tijdelijk exclusief voor Asus" moet denk ik zijn "Nvidia G-Sync is tijdelijk exclusief voor Asus"
Dat weet ik wel zeker en daarom is het frappant dat je een nul krijgt. Daarom +3 van mij, want deze techniek komt toch echt van Nvidia.

Wat mij betreft ook weer zo'n smerig commercieel truukje, handjeklap tussen twee bedrijven om de rest "een oor aan te naaien". Alleen daarom koop ik geen Nvidia videokaart en geen Asus monitor.
Dit soort praktijken moet je niet aanmoedigen, vind ik. Hoe leuk die techniek ook is.
Ik kan me nog een veel mooier systeem voorstellen, laten we het Sync++ noemen: de videokaart stuurt x/y/width/height coordinaten van een region in het scherm wat ververst moet worden, en dan de data. Kan die kogel met 288Hz vliegen en de blauwe lucht met 30Hz.

En als het moet ververs je het hele scherm telkens on demand, wat dan weer gelijkwaardig is aan GSync en dat stomme trivial patent via het blank signaal.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True