Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 97 reacties
Submitter: -The_Mask-

Nvidia's G-Sync-technologie, die stuttering en tearing voorkomt tijdens het gamen, komt naar laptops en vereist dan geen extra hardwaremodule. Dat bevestigt Nvidia nadat een testdriver G-Sync op een laptop mogelijk bleek te maken.

Met behulp van G-Sync lopen de gpu en beeldscherm synchroon. Als de videochip een frame berekent, zorgt een signaal naar het beeldscherm ervoor dat de verversing van het scherm hierop gelijkgezet wordt. Dit moet stuttering en tearing voorkomen en een soepelere weergave van beelden opleveren.

Vorige week verscheen in een blog van Gamenab de claim dat Nvidia's G-Sync een marketingtruc was. De technologie werkte ook op een laptop met de GeForce GTX 980M, zo toonde de site aan, en een hardwaremodule was niet nodig. Nvidia brengt monitorfabrikanten geld in rekening voor het gebruik van die module en beeldschermen met G-Sync-ondersteuning zijn dan ook duurder dan varianten zonder ondersteuning.

G-Sync Asus ROG laptop

De mogelijkheid om G-Sync op een laptop werkend te krijgen ontstond nadat een alfa-driver voor de Asus ROG G751 was verschenen. Na installatie toonde de laptop een pop-up dat een G-Sync-scherm was aangetroffen en de technologie bleek ook daadwerkelijk te werken. Gamenab concludeerde dat de module een verkapte drm-component was en dat  G-Sync in feite hetzelfde deed als VESA's Adaptive-Sync-variant, die mogelijk is op elk scherm met displayport 1.2 en embedded-displayport. De Adaptive-Sync-standaard komt voort uit AMD's Freesync.

PCPer dook dieper in het onderwerp en kreeg G-Sync eveneens werkend. De site speculeerde dat G-Sync inderdaad op een Adaptive-Sync-achtige manier werkt en dat de timing-controller van het LG-scherm van de laptop in staat was zodanig voor variabele verversingssnelheid te zorgen dat dit goed genoeg was voor G-Sync. Het ging daarnaast om een paneel met een maximale refreshrate van 100Hz. De werking zou wel enige nadelen hebben. Zo vertoonde het scherm drop-outs bij lage fps en bij onverwachte overgangen naar 0fps. Een beeldscherm met een G-Sync-module zou hier minder last van hebben.

Navraag bij Nvidia leerde dat laptops inderdaad ondersteuning voor G-Sync krijgen zonder dat een module vereist is. De desbetreffende driver was bedoeld voor fabrikanten om alvast aan troubleshooting te kunnen doen. De fabrikant zou de technologie kunnen optimaliseren doordat Nvidia de implementatie van de specifieke panelen en timing-controllers kent. De grote vraag is nu of Nvidia het dan nog noodzakelijk vindt om de hardwaremodule bij beeldschermen te eisen om G-Sync te kunnen ondersteunen. Die vraag wordt echter nog niet beantwoord door het bedrijf.

Moderatie-faq Wijzig weergave

Reacties (97)

FreeSync daarentegen van AMD vereist geen rare chips.
Net als de CrossFireX, wat, in tegenstelling tot SLI, ook gewoon vrij te implementeren en gebruiken is.
FreeSync vereist DPAS (Display Port Adaptive Sync). Dat is een onderdeel van de specificatie van Display Port. En Adaptive Sync vereist hardware support in de monitor.

Toen nVidia aankwam met G-Sync zat DPAS niet in de DP specificatie. Wel in iets dat eDP heet. Maar dat werd (wordt) alleen in laptops gebruikt. Pas nadat nVidia G-Sync aankondigde en liet zien, ging het DP consortium eens nadenken over een aanpassing/uitbreiding van de spec. DPAS kwam pas in de DP spec toen er al G-Sync monitoren te koop waren. DPAS en FreeSync kun je nog steeds niet gebruiken. De eeste monitoren komen er aan. (Deze maand of volgende maand hopelijk). Al die monitoren hebben spiksplinter nieuwe chips (rare chips, in jouw bewoordingen). Zonder die spiksplinter nieuwe rare chips zou geen enkele monitor FreeSync kunnen doen.

Het verschil is dat G-Sync proprietary is.
Beide features (G-Sync en FreeSync) hebben speciale hardware nodig.
verschil zit hem in het feit dat DPAS in de DP standaard zit nu, waardoor vanaf nu elke fabrikant die zijn monitor wil certifiëren voor de laatste nieuwe DP versie verplicht is om die functie te ondersteunen.

Goed, je kan zeggen, "ja dan gaan de fabrikanten maar de oudere DP standaard aanhouden, immers is DPAS maar een minuscule meerwaarde voor 99% van de markt". Klopt, zolang we nog DP 1.2 varianten van de spec gebruiken. Vanaf DP 1.3 zullen fabrikanten wel mee willen (hogere resolutie oa), en zal DPAS mee met het totaalplaatje moeten geïmplementeerd worden.
en zal DPAS mee met het totaalplaatje moeten geïmplementeerd worden.
Moeten ?
Specificaties zijn vaak opgebouwd uit mandatory (verplichte) en optional features. Ik weet niet of DPAS optioneel of mandatory is. Ik vermoed optioneel.

Het zou zeker mooi zijn als alle nieuwe monitoren straks DPAS gaan ondersteunen. Het zou me niks verbazen als dat het geval zal zijn. Iedere monitor heeft een aantal chips. Eentje daarvan heet "de scaler". Dat is de chips die DPAS moet ondersteunen. Toen nVidia G-Sync introduceerde hebben ze een eigen chip gebakken om de scaler te vervangen. Chips ontwikkelen kost veel geld. Dat haal je er pas uit bij grote aantallen. Geen wonder dat G-Sync iets extra kostte. Echter alles alle monitoren DPAS ondersteunen dan hoeven de scaler-chips niet meer dan normaal te kosten. En gaat FreeSync/DPAS niks extras kosten. En dan moet nVidia wel volgen.

Note. de meeste G-Sync monitoren doen meer dan alleen G-Sync. Meestal doen ze ook ULMB (en hoge refresh-rates, tot 144Hz). Je betaalt die extra prijs bij G-Sync dus niet alleen voor G-Sync, maar ook voor ULMB.
Is ULMB compatibel met G-Sync? Had de indruk dat die twee technieken niet tegelijk gebruikt konden worden.
Inderdaad, ze kunnen niet tegelijk gebruikt worden. (Nog niet). Maar een monitor kan wel beide ondersteunen. Je moet dan per spel kiezen wat je wilt: G-Sync of ULMB.

Gelukkig is de keuze niet zo moeilijk.
G-Sync werkt het beste bij lage fps. Bij hoge fps (fps = refreshrate) heb je er zelfs letterlijk niks aan.
ULMB werkt het beste bij hoge fps. Liefst bij fps = refreshrate. Dus als je een spel met 120fps of 144fps speelt.

Conclusie: als je een spel speelt met lage fps, dan gebruik je G-Sync. Als je een spel speelt met hoge fps, dan gebruik je ULMB. Je kunt dus altijd gebruik maken van je dure monitor.

PS. Ik hoop dat het in de toekomst mogelijk wordt om G-Sync (of DPAS) tegelijk te gebruiken met ULMB. Er moeten dan eerst een paar slimme techologieen ontwikkeld worden. Bij ULMB moet je de backlight constant stroben (aan/uit/aan/uit). Makkelijk als je dat met een constante frequentie moet doen. Maar moeilijker als je dat in wisselend tempo moet doen. De brightness wordt dan variabel (flikkering). En om het moeilijk te maken schijnt dat ook nog per kleur (RGB) te verschillen. Maar in theorie moet het in de toekomst mogelijk zijn.
Kijk aan, thx voor de toelichting, zo wist ik het niet :) Blijkt in dit geval dat Nvidia de aanjager vna het geheel was, in dit geval kan ik dus wel stellen dat Nvidia goed bezig was :)
Beetje kort door de bocht zoals gryz het brengt. Zowel nVidia als AMD maken gebruik van de technieken die al gangbaar waren in eDP (embedded DisplayPort). De voornaamste reden dat ze nog nooit officieel waren opgenomen in de 'normale' DP standaard, is dat de voornaamste reden voor de technieken binnen de laptops stroombesparing is, iets wat op de desktop gewoonweg minder prioriteit heeft.

Enfin, nVidia besloot om met een gesloten variant te komen en 3 weken nadat nVidia G-sync voor het eerst toonde, toonde AMD voor het eerst Freesync, waarbij AMD op dat moment de technieken binnen eDP gebruikte. AMD is alsvolgd de aanjager geweest om Adaptive Sync als heel pakket in de DP standaard te krijgen. Deze zal uiteindelijk ook niet optioneel zijn. Momenteel is het 'optioneel' toegevoegd in 1.2a, waarbij het optionele is om ondersteuning te bieden bij een DP1.2 scherm. Bij een DP1.3 scherm zal Adaptive Sync gewoon ondersteund moeten worden.

Bovendien heb je voor Adaptive Sync geen speciale hardware nodig. Het heeft een scaler nodig die refreshrates kan veranderen, tegenover de oude scalers die het op een vaste frequentie zetten. Die scalers bestaan al, omdat het anders ook niet binnen laptops zou kunnen werken. Het enige wat er bij Adaptive Sync moet worden gedaan, is dus het veranderen van de scaler in de monitor. Er is niets extra's nodig. NVidia's oplossing heeft (officieel) wel wat extra's nodig.

[Reactie gewijzigd door dahakon op 2 februari 2015 21:16]

In dat opzicht is een AMD kaart voor een budget gamer een must-have. Laten we hopen dat de 3xx series vam AMD mijn aandacht zal trekken!
FreeSync en G-Sync zijn gewoon precies hetzelfde.

En daarbij, de gemiddelde gamer heeft ondertussen geleerd V-Sync standaard uit te zetten voor betere performance, tel daarbij op dat realistisch gezien de gemiddelde gamer echt geen "tearing" zal ontdekken in een game die met 60fps draait, en de conclusie is dat we al deze sync tech helemaal niet nodig hebben.

Als je een beetje snelle pc hebt (en vergeleken met de consoles van vandaag de dag is dat niet heel moeilijk) dan doe je er over het algemeen beter aan alle vormen van sync uit te zetten, waarom je gpu 'limiteren' om minder frames te tekenen? (nogmaals, meeste mensen zullen tearing niet eens zien, zeker met een beetje normale framerate van zeg meer dan 40fps)
Er was iemand (mag geen namen noemen) die meer dan 150 posts in nota bene het algemene AMD topic heeft gepost dat Nvidia G-sync zeker weten beter was dan AMD's Freesync juist omdat er een extra hardware module voor nodig was die omdat deze kostbaar was wel beter moest zijn.
(150 posts en dan wanneer er bekend word dat het graaiwerk was niets laten horen :F)

Destijds hebben veel mensen tegenargumenten gegeven dat dit een kwestie van afwachten was.
Aan dat wachten is nu een einde gekomen, het blijkt dus een marketing trick om geld binnen te harken.

Free Rules !
Da's kort door de bocht. Feit is dat je met de huidige desktopmonitors geen adaptive sync hebt tenzij er aparte hardware in zit. Op laptops wel omdat die de hardware hebben, maar dat was al langer bekend (dankzij AMD). Als DP 1.2a-1.3 gemeengoed is werkt FreeSync op alle monitors die dat ondersteunen, maar die zijn op dit moment voor zover ik weet niet te krijgen. GSync-monitors kun je nu al kopen, al zijn de beschikbare modellen beperkt. Dus zie het eerder als meer betalen zodat je het nieuwe snufje eerder hebt -- dat is gewoon Nvidia die vroeg in de markt staat, geen truc. Het is nog maar de vraag of FreeSync er uberhaupt gekomen was als Nvidia niet eerst met G-Sync gekomen was. Het zou in ieder geval minder een item zijn geweest.

Als prijsbewuste consument met een monitor die nog wel even mee kan wacht ik natuurlijk ook gewoon tot FreeSync gemeengoed is, daar niet van. En op dit moment weet niemand objectief wat "beter" is omdat er nog geen test is geweest die de technologieën naast elkaar heeft gebruikt op vergelijkbare hardware.
Nee, Nvidia heeft altijd gezegd dat er hardware nodig was, dat blijkt dus bewuste misleiding.
...maar dat zeg ik net: er is hardware nodig. Ik kan met mijn huidige monitor echt geen AMD-kaart kopen die me FreeSync gaat geven. Dat Nvidia niet zegt "oh en by the way, de volgende generatie monitors zal die hardware sowieso hebben zodat je niet per se nu eentje hoeft te kopen die onze G-Sync ondersteunt" kun je geen misleiding noemen.

Als Nvidia gezegd heeft dat die extra hardware ook nodig is op laptops is het wat anders, maar dat zou dom zijn, want AMD demonstreerde nota bene al eerder dat dat niet zo is.

[Reactie gewijzigd door MneoreJ op 2 februari 2015 20:44]

Nvidia heeft altijd gezegd dat er dedicated Nvidia hardware nodig was met een waarde van 100 tot 150 dollar. Dit blijkt nu niet waar aangezien er alleen een nieuwere software versie nodig is van V-sync. In theorie kan dat via een bios update in de praktijk is dat lastig en zullen de nieuwste versies dit standaard ondersteunen.
Het prijsverschil is minder dan 10 dollarcent, Lees: bewuste misleiding.
Ja, ik vind het persoonlijk ongelofelijk schokerend dat Nvidia's (negatieve) markt manipulatie met open armen wordt ontvangen. Het lijkt bijna dat mensen bewust willen bedrogen worden door Nvidia. Onderschat nooit trouwheid aan een merk, blijkbaar?
Van wat ik begreep van het originele artikel (waarin ze Gsync op die laptop zonder module aan de praat hadden gekregen) en andere speculatie er omheen, was die module vooral bedoeld voor betere werking van G-Sync zelf en extra functies er aan toe te kunnen voegen.

En ze hadden G-Sync aan de praat gekregen, de performance moest verder bagger zijn.
Hardware matig vs software matig?
Denk zelf niet dat ze die hardware voor de lol in plaatsen.
waarom lukt AMD/ATi het dan wel?

marketing verhaal en typische buy-in. consumenten zijn de dupe
Omdat AMD het softwarematig doet, en dat werkt uiteraard ook prima. NVidia heeft er in mijn ogen alleen een hardware-stukje bijgemaakt om iets verkoopbaars te kunnen hebben (vergeet niet dat FreeSync... gratis is). Waarom dat 150 euro moet kosten? Nou, omdat de die-hard fans het toch wel kopen, en de rest van de wereld de gratis versie prima vindt. Uiteindelijk blijven we het prima vinden om voor hardware te betalen, en kan software gratis zijn ;)
FreeSync werkt alleen met speciale hardware. Net zoals G-Sync. Een chip in de monitor die om kan gaan met DPAS uit de Display Port specificatie. Tot voorkort hadden alleen TFT-schermen in laptops die via eDP werden aangesproken die functionaliteit. Vandaar dat je alle demos van FreeSync, en ook deze geleakte driver, alleen ziet op (specifieke) laptops.

FreeSync (of DPAS) op gewone monitoren vereist speciale hardware. Die was er eerst niet. En deze maand (of de volgende) komen de eerste monitoren met zulke speciale chips die DPAS ondersteunen.

We weten dus ook nog niet of DPAS (FreeSync) echt net zo goed gaat werken als G-Sync. Eerst reviews zien.

Er zijn twee potentiele issues.
1) Wat doe je als de framerate onder de 30 fps valt. Om precies te zijn, wat doe je als de GPU te veel tijd nodig heeft om het volgende frame te berekenen en versturen, voordat het vorige frame zijn maximale tijd op het scherm heeft gehad. LCD schermen kunnen een frame maximaal 25-35 milliseconden laten zien. Daarna doven de pixels weer uit. 60 fps betekent iedere 16ms een nieuw frame van de GPU. 30 fps betekent elke 33ms een nieuw frame van de GPU. Ieder frame moet dus twee keer geshowd worden. Maar met G-Sync/FreeSync weet je niet precies wanneer de monitor het volgende frame krijgt. Wat doe je als je bijna aan het einde van die 25-35ms bent ? Hopen dat je snel een nieuw frame krijgt ? Wachten tot het niet meer kan ? Dat geeft geknipper. Als je de reviews van deze geleakte nvidia-driver leest, dan zie je dat als de framerate dropt (onder de 30) het scherm begint te knipperen.

Een oplossing zou zijn als de monitor geheugen had, om het laatste frame in te bewaren. Dan kun je dat laatste frame een tweede keer vertonen, als het te lang duurt voor je de volgende krijgt. Geen geknipper in dat geval. Kan FreeSync dat ook, zonder extra geheugen in de monitor ? Ik wil het eerst zien.

2) Tweede probleem is de helderheid. Als je een fixed framerate hebt, weet je precies hoe lang ieder frame op het scherm staat. En hoeveel tijd er geen beeld staat (het uitdoven en veranderen en weer aangaan van iedere pixel). Als dat constant is, heb je een constante helderheid. Als het fluctueert, fluctueert ook de som van de tijd tussen iedere pixel-verandering. En dat kan invloed hebben op de helderheid (brightness). Ik weet het precieze hier niet van. Maar wat ik wel weet is dat toen de eerste monitoren met LightBoost kwamen, een van de nadelen was dat de brightness veel lager was. Pas toen nVidia kwam met G-Sync en ULMB, was dat probleem verholpen. Die G-Sync hardware module deed dus iets dat de brightness ten goede kwam.

Nogmaals, ik wil eerst onafhankelijke reviews zien van FreeSync/DPAS monitoren. Pas daarna kunnen we echt vergelijken.
Ik vraag me af waarom nvidia nog altijd fpga's gebruikt, dat is toch een behoorlijk overbodige kostenpost. En laat daar nu juist veel kritiek op zijn.
Ik weet weinig van hardware. (Ik heb net een idee wat een FPGA is). Maar wat is dan het alternatief volgens jouw ? Zelf een hele nieuwe chip (processor) ontwikkelen is volgens mij nog veel duurder. Tenzij je hele hoge oplages kan bakken en verkopen.
Een monitor heeft een scaler. Die scaler is al dan niet geschikt om variabele refreshrates door te kunnen geven aan het panel. In laptops worden al scalers gebruikt die dat kunnen en diezelfde/dergelijke scalers zullen nu dus hun weg naar de monitoren moeten vinden om op die manier Adaptive Sync/G-sync te kunnen ondersteunen. Zoals het nu lijkt, heeft nVidia daar een extra chip, de hierboven genoemde FPGA (programeerbare chip) toegevoegd, zonder dat duidelijk is wat deze doet.
Een FPGA is inderdaad een programeerbare chip. Ze worden vaak gebruikt bij het ontwikkelproces van een chip of bijvoorbeeld op school, omdat je er je eigen chipdesign/logica in kunt programmeren. Het voordeel is dus dat je een chip kunt testen zonder hem daadwerkelijk van silicium gemaakt te hebben. Het nadeel is dat deze chip erg complex is en dus ook duur. Ontwikkelbordjes met software kosten al snel een paar honderd euro.
Het zou voor nvidia dus beter zijn als ze het ontwerp dat ze nu in de fpga stoppen echt gaan printen op een normale chip, de mogelijkheid tot herprogrammeren wordt nu immers niet gebruikt in de g-sync modules. Dat werkt echter alleen als er ook veel chips verkocht kunnen worden.

Techreport:
In order to make G-Sync happen, Nvidia had to build a new chip to replace the one that goes inside of most monitors to do image scaling and such. You may have noticed that the first version of Nvidia's solution uses a pretty big chip. That's because it employs an FPGA that's been programmed to do this job. The pictures show that the FPGA is paired with a trio of 2Gb DDR3 DRAMs, giving it 768MB of memory for image processing and buffering. The solution looks to add about $100 to price of a display. You can imagine Nvidia could cut costs pretty dramatically, though, by moving the G-Sync control logic into a dedicated chip.
Anandtech
On the flip side NVIDIA could easily get those costs down by migrating from an FPGA to an ASIC, although to justify that move we’d have to see pretty broad adoption of G-Sync.
Uh uitdoven? Dat is alleen aan de orde met CRT (en plasma), niet met LCD e.d..... Dus dat verhaal klopt niet helemaal volgens mij.

[Reactie gewijzigd door arnova op 2 februari 2015 18:44]

Zoals ik al schreef, ik weet het fijne er niet van.
Maar zoals ik begrepen heb, zijn er twee dingen die meespelen.

1) Pixels hebben een maximale "hold-time". Als het scherm een pixel vertelt om een kleur aan te nemen, dan moet het scherm binnen de tijdsframe van die hold-time de pixel opnieuw vertellen wat het moet doen. Als het dat niet doet, dan wordt de pixel wit of zwart (weet ik niet). Dit zou er de oorzaak van zijn dat bij tests met deze gelekte g-sync driver op laptops, het scherm begint te flikkeren als de framerate onder de 30 fps gaat. Maw, als de monitor niet binnen 33ms een pixel opnieuw vertelt wat hij moet doen.

2) Het andere issue met "uitdoven" is met ULMB. CRTs hadden vroeger minder motion-blur dan LCDs, omdat het fosfor op het CRT scherm inderdaad uit doofde tussen twee beeldjes.
ULMB (en daarvoor LightBoost) probeert dit te imiteren op een LCD. ULMB laat de backlight knipperen (strobing). Daardoor gaat het scherm tussen twee beeldjes heel eventjes op zwart. Hierdoor krijg je hetzelfde effect als bij een CRT, en dus minder motion blur.
Het probleem hier is, als ik het goed begrepen heb, is dat die knipperende backlight er voor zorgt dat de brightness minder wordt. Kun je natuurlijk compenseren door de backlight harder te laten branden. Maar het is niet allemaal triviaal.
Weet je zeker dat het AMD wel lukt ? Niemand heeft nog ooit een Free-Sync monitor in handen gehad. Geen enkele consument, maar ook geen enkele review-website. Geef anders aub. even een link naar een review-artikel op het web. Bvd.

https://tweakers.net/cate...zNwHRZYk5SlZKFuamJkq1tbUA

Drie Free-Sync monitors in Nederland. Maar nog geen een is te koop.

Eerst zien. Reviewen. En vergelijken. Dan pas kan iemand zeggen of FreeSync en G-Sync precies hetzelfde zijn.

[Reactie gewijzigd door gryz op 2 februari 2015 16:05]

http://www.trustedreviews...-should-have-amd-freesync

als het op ces ter display staat van verschillende merken buiten AMD dan kan je er zeker van zijn dat er wel degelijk iets moet werken...
Ja, er werkt wel iets. Maar om een product echt te kunnen evalueren, moet je het gewoon thuis op tafel hebben staan. En er mee kunnen doen wat er in je opkomt.
Real Soon Now !
Misschien hier wel en dat het daarom niet goed liep, het enige wat er gebeurd is is dat hun G-Sync aan de praat hebben gekregen met deze driver, de laptop uit elkaar hebben gehaald en geen G-Sync module konden vinden. Maar het wordt in bijde gevallen, G-Sync of Free Sync hardwarematig gedaan, tenminste dat is de bedoeling, als je bijvoorbeeld kijkt naar de requirements van Free Sync, dat je een monitor moet hebben die compatible is met DisplayPort Adaptive-Sync en een AMD kaart. Er zijn op moment ook nog maar een handjevol monitors (aangekondigd) dit dit ondersteunen.
Ik game tegenwoordig graag in Borderless Fullscreen. Dit zorgt ervoor dat ik nooit naar Vsync hoef om te kijken. Het is alleen wel zo dat dit niet altijd even feilloos werkt.
En je hebt lekker Screen Tearing.
Daarom júist niet. Lijkt me anders een vrij rare reactie. M'n pc'tje kan het allemaal gerust aan.

[Reactie gewijzigd door prodygee op 3 februari 2015 19:26]

Ik ben een Commodore Amiga fan, vroeger draaide alles op 50Hz (PAL) en 60hz (NTSC), 50hz zorgde altijd voor vloeiende scrollende bewegingen, 60hz daarintegen krijg je "tearing".

Eigenlijk zouden ze LCD / LED Schermen op 50hz moeten maken. (Of 100Hz maar dan moet het spel ook minimaal 100FPS kunnen draaien voor een soepele weergave).
Als de bron 60Hz is dan heb je geen tearing, een 50Hz bron op 60Hz afspelen inderdaad wel. Daarom zorgen ze met G-sync/Freesync er ook voor dat de bron gelijk loopt met het display. Dus LCD /LED schermen op 50Hz laten draaien is onzin.
Dus moet het eigenlijk gaan op elk (niet laptop) scherm. Daar gaat hun commercieel verhaal dat je speciale hardware nodig hebt...
Ik vind dit nieuwsbericht erg verkapt en kortzichtig. Iedereen met enig verstand van computers weet dat een laptopscherm op een andere wijze word aangesproken dan een normaal scherm. De aansturing van het paneel gebeurd in het geval van een laptop door de videokaart. Bij een normaal computerscherm gebeurd dit met behulp van de chip in het scherm.
Er is dus in een laptop (mits er een geschikt scherm en videokaart worden gebruikt) geen extra chip nodig. Dit betekend overigens niet dat het zomaar op iedere laptop met een nvidia kaart werkend te krijgen is.
laptops maken steeds vaker gebruik van embedded displayport ipv dat panelen op LVDS worden aangesloten waarmee men die omzetting dus toch echt weer verplaats van moederbord naar beeldscherm.
Wat een onzin, elk display heeft een chip ook die in een laptop, wil jij beweren dat de videokaart de paar miljoen subpixels allemaal met aparte analoge signalen direct aanspreekt? Natuurlijk niet! hier zijn standaard chips voor die alles serieel maken. displayport, vga, hdmi alles werkt serieel. Zelfs de meeste simpele LCD schermen hebben controllers hiervoor. Alleen de connector is anders en wellicht ontbreekt er een stukje authenticatie bij laptops.

LVDS is overigens een hele brede term wat staat voor Low Voltage Differential Signalling wat gebruikt word voor vrijwel alle breedbandige signalen in computer tegenwoordig, USB, SATA, DisplayPort, HDMI, DVI, FireWire, PCI express, Lichtning Port, ethernet, DMI Allemaal zijn het LVDS signalen. Dat komt omdat het de best bekende methode is om effectief heel veel data over te kunnen dragen over elektrische bekabeling. LVDS is niet een aparte standaard. Vermoedelijk mag het in laptops geen displayport heten omdat het ten eerste niet de connectors gebruikt (dat zou zinloos veel ruimte innemen) en misschien omdat ze wat authenticatie en informatieoverdracht van display mogelijkheden kunnen weglaten, omdat het niet verwisselbaar is met heel andere schermen (doorgaans).

Het verschil zal in ieder geval zo klein zijn dat een fabrikant beter het schaalgrote voordeel van het gebruik van dezelfde chips zal kunnen benutten dan het heel anders te doen. Ook fabrikanten van display controllers maken liever 1 chip die zowel laptop als gewone schermen kan bedienen dan hier wat anders op te verzinnen, dan vergroot je je markt met minimale inspanning. Dat ze in een laptop mogelijk niet alle capaciteit benutten van de controller of andersom zal niemand wakker van liggen. Het ontwikkelen van de chip en het in productie brengen is namelijk heel erg duur en hoe groter de afzetmarkt hoe beter je dit kunt terug verdienen.
Je moet wel DisplayPort 1.2 hebben.
Ik vraag me af hoe veel nut dit heeft. Lijkt me dat als je wilt gamen op een laptop, je deze op een extern scherm aansluit met een los toetsenbord/controler er bij. Korte mailtjes typen lukt nog wel op een laptop scherm maar na een half uur gamen krijg je anders al snel last van je nek ook al zit je recht
Heb hier anders nooit last van gehad met mijn MSI GX660 en die heb ik toch al wel weer een aantal jaartjes.
Als je een film kijkt is het ook altijd leuk als je refresh rate een veelvoud is van de framerate van de film. Of het daar ook echt nuttig is weet ik niet, maar het is zeker een +, hoe klein die + ook mag zijn, en als het toch niks extra kost...
En toch gamen er dagelijks duizenden mensen op hun laptop. De meesten omdat ze geen desktop bij de hand hebben of willen kopen (geen plaats voor, geen zin in, gewoon te log ofzo), en juist dan kan ik me iets X-Sync-achtigs goed voorstellen. Laptops hebben nooit de grafische kracht van een goeie desktop, en zijn dus sneller aangewezen op lagere settings, en lagere framerates. In die gevallen werkt Sync. Als je toch al 150 FPS kunt halen is het een nutteloze feature...

Dat gezegd hebbende, als het inderdaad ook zonder die toch wel best prijzige (100-150 euro) module kan, waarom niet? AMD kan dat binnenkort ook, dus dan zijn ze hun kleine voorsprong weer kwijt. Echter kan ik me ook voorstellen dat mensen die extra geld hebben neergelegd voor zo'n zinloze feature zich dan goed bekocht voelen.
Precies. Sync zorgt ervoor dat een game op 30FPS veel minder "laggy" aanvoelt dan dat je 30FPS krijgt unlocked. Ik heb bij iemand eens Arma 3 gespeeld met G-sync, ik kreeg zo'n 25FPS maar ik merkte er niks van(GTX 980)

[Reactie gewijzigd door BJ_Berg op 2 februari 2015 15:44]

Cool! Als ik jou was zou ik die laptop op ebay gooien of zo, krijg je goud geld voor, zo'n ding wat alle laptops met gelijke specs er falikant uit trekt!
http://www.anandtech.com/...72-dominator-pro-review/3
Some games easily break 60FPS and others are closer to 30FPS
Veel games zul je inderdaad de 60 fps wel halen en inderdaad de 980m is een beest van een chip, maar jouw claim is op zijn minst nogal kort door de bocht.
Verder gaat het in die tests meestal om gemiddelde frames per seconde, maar juist die paar momenten dat de prestatie even in elkaar zakt is waar gsync (of freesync) echt kan schitteren.
Ook heb je bijvoorbeeld nog zaken als gemodde games. Zo kan mijn toch niet onaardige desktop het af en toe behoorlijk zwaar hebben met de oude Fallout New Vegas, omdat ik het flink gemod heb (en er af en toe ineens 50+ ghouls in beeld lopen op sommige stukken wasteland). Ook dan kan een sync oplossing er voor zorgen dat een spel veel speelbaarder blijft, en ja, tegen die limiet zul je eerder aanlopen met een laptop, of je dat nou leuk vindt of niet.

edit: Over je moderatie, het is vooral je harde taalgebruik waar je op afgerekend wordt. Als je dan ook nog gaat zeuren over je moderatie dan wordt het wat mij betreft altijd alleen maar minder aannemelijk dat je nog van de -1 af zou komen.

[Reactie gewijzigd door Finraziel op 2 februari 2015 16:14]

Cool! Als ik jou was zou ik die laptop op ebay gooien of zo, krijg je goud geld voor, zo'n ding wat alle laptops met gelijke specs er falikant uit trekt!
Je bewijst notabene wat ik zeg, volgens Anandtech in 15 games meer dan 70 fps gemiddeld. Wel grappig dat ik net die mindere performerende spellen (nog) niet speel.
En op eBay zetten is wat raar, je kan hem gewoon kopen bij BTO ;)

Zwaardere eisen door modden zijn leuk, maar zijn niet de standaard.
Dat op ebay zetten was uiteraard een grapje ;)
Maar waar ik op doel is dat jij uitdrukkelijk benadrukt dat je ALLE games op maximum settings met minimaal 60 fps trekt. Er zijn games waar dat niet lukt, dus jouw stelling is daarmee ontkracht.

Uiteraard is het een klein beetje flauw om jouw uitspraak zo letterlijk te nemen. Ik snap ook dat je bedoelt dat jouw beest van een laptop zo krachtig is dat je in de praktijk niet ziet hoe deze onderdoet voor een desktop.
Jij doet echter iets soortgelijks door zo te vallen over de opmerking van FreezeXJ. Ok, jouw gaming beest kan zich wel meten met een systeem dat je op zich nog best een goede desktop kunt noemen. Als je bij hem echter tussen de regels doorleest dan is het ook duidelijk dat hij bedoelt dat over het algemeen laptops wat eerder lagere prestaties zullen bieden en dat daarom een gsync oplossing ideaal zou kunnen zijn. Dat jij er zoveel geld tegenaan gesmeten hebt dat je de absolute top of the line hebt terwijl de resolutie van zo'n ding nog niet zo hoog is betekent alleen dat jij de gelukkige bezitter bent van de uitzondering, want voor de meeste mensen is dat wat hoog gegrepen.
Bovendien denk ik dat zelfs op jouw systeem gsync nog best een nuttige toevoeging zou kunnen zijn, je vangt daarmee net die paar dips die je wel nog hebt op en maakt het geheel nog wat vloeiender. Bovendien heb je dan echt nooit meer tearing.
Maar waar ik op doel is dat jij uitdrukkelijk benadrukt dat je ALLE games op maximum settings met minimaal 60 fps trekt. Er zijn games waar dat niet lukt, dus jouw stelling is daarmee ontkracht.
Okok, iets genuanceerder: "Alle games die ik tot nu toe heb gespeeld"".
:)

Ik begrijp heel goed dat de highest end laptop met gemak door een desktop kan worden overtroffen, maar dat ontkende ik ook niet. Het ging meer om de uitspraak EEN goeie desktop, ja, daar knal ik mogelijk makkelijk overheen.
Dat jij er zoveel geld tegenaan gesmeten hebt dat je de absolute top of the line hebt terwijl de resolutie van zo'n ding nog niet zo hoog is betekent alleen dat jij de gelukkige bezitter bent van de uitzondering, want voor de meeste mensen is dat wat hoog gegrepen.
Sorry maar ik heb geen verkoopcijfers. Ze worden grif verkocht dus blijkbaar zijn er best veel mensen die dat zich kunnen veroorloven. Het is bovendien ook een laptop voor een aantal jaar en niet alsof ik elk jaar een schone koop.

Ik ben echter bang dat ik voor Gsync buiten de boot val. Naar ik weet heeft de P670 LVDS en geen eDP.
[...]

Alle spellen, ALLE spellen trek ik met minimaal 60fps op alles maxed out op mijn laptop.
Het probleem punt van laptops is, naast de ergonomie, dat de bang for buck veel lager ligt. Om in de buurt te komen van wat ik "instap" gaming noem (circa 800 euro) heb je onderhand het dubbele budget in een laptop nodig.

Verder klopt de eerdere uitspraak dat laptops nooit de grafische kracht van een dekstop zullen halen. Performance per watt is immers per techniek gelijk en de desktop mag gewoon meer watt gebruiken.

Ter verduidelijking: op basis van passmark loop je 41% achter.
GeForce GTX 960 6015
GeForce GTX 965M 2133
GeForce GTX 970M 4092
GeForce GTX 980M 6885
GeForce GTX 970 8614
GeForce GTX 980 9719

Als we even kijken naar een wat "betaalbaardere" GTX 970M dan presteert deze minder dan de helft van de gelijknamige dekstop variant. Sterker nog; de desktop GTX 760 is 21% sneller.

De goedkoopste laptop met een GTX 970M zit op 1499 euro pricewatch: MSI GT70 2QD-2413NL (Dominator) .Dat is nogal een geld voor een gaming apparaat dat over 3 jaar is afgeschreven. Daar zit vervolgens een Intel Core i7-4710MQ in. Deze loopt ook weer 25% trager dan de dekstop 4770K (zonder OC).

Als ik even snel een "vergelijkbaar" dekstop systeem samenstel met dus een kwart snellere cpu en videokaart dan lukt dit voor een bedrag van ¤763 euro... (zie wenslijst). Dan heb je nog geen scherm. Maar als je serieus wil gamen op je laptop dan zul je die toch moeten docken, anders ben je niet echt verantwoord bezig (ergonomie/rsi).

[Reactie gewijzigd door sdk1985 op 2 februari 2015 16:09]

Het probleem punt van laptops is, naast de ergonomie, dat de bang for buck veel lager ligt. Om in de buurt te komen van wat ik "instap" gaming noem (circa 800 euro) heb je onderhand het dubbele budget in een laptop nodig.
BFTB staat hier niet ter discussie. Het ging hier om of een laptop de prestaties van 'een goeie desktop' kan evenaren of niet.
Nou, wel dus, want mijn hexacore met 290x is EEN desktop, en niet de minste, en mijn laptop is grafisch sneller. Dus, punt gemaakt EN onderbouwd dat de uitspraak niet klopt.
Verder klopt de eerdere uitspraak dat laptops nooit de grafische kracht van een dekstop zullen halen.
Pertinent onjuist en in voorgaande gestaafd. Let wel, nergens hier gaat het over de maximaal haalbare grafische performance van beide ecosystemen.

Passmark? For real? FireStrike zul je bedoelen, 11K+ grafische score, zoek die maar eens op. http://www.3dmark.com/3dm/5537430?

Al je procentjes zijn rook blazen, de score is de score en de prijs staat hier nergens ter discussie, al begrijp ik wel dat je je eigen economische keuze probeert te verheerlijken ten opzichte van de 'haves'.
Hou je rustig, rustig, rustig. Hou je rustig kalm en stil.
Gefelictieerd dat jouw laptop jouw desktop er uitblaast, maar dat is over het algemeen toch echt niet zo.

Bovendien hebben we het hier over G-sync. Wat uit dit artikel blijkt is dat het volop softwarematig kan, en de module's dus pure nonsense waren.
Passmark is IMO een prima maatstaf verder verschrikkelijk compleet. Je kunt onderhand terug naar 1995.

Maar goed...
Laptops hebben nooit de grafische kracht van een goeie desktop, en zijn dus sneller aangewezen op lagere settings, en lagere framerates.
Dat is waar het om ging en die uitspraak is feitelijk correct. Dat jij een laptop van ¤2500 euro koopt maakt die stelling nog niet onwaar. Immers hetzelfde budget geeft weer een nog snellere dekstop, die jou laptop van 2500 euro echt niet kan evenaren. Kijk anders eens in de hall of fame: http://www.3dmark.com/hall-of-fame-2/ .Ik wens je veel succes met het behalen van 29.000 punten ;).

Zoals ik in de vorige post al stelde; Laptops zijn per definitie trager omdat ze minder watt mogen gebruiken en prestaties per watt gelijk zijn. Meer watt is dus simpelweg meer performance.

Als we vervolgens terug gaan naar de "realiteit" dan komt eerder een GTX 970M of GTX 965M in beeld. De eerste gaat nog wel maar de laatste is huilen met de pet op. Daar kan G-Sync echt punten scoren.
Op dergelijke agressieve wijze niet zo'n zin om er steeds op in te gaan.. Voor de meelezer nog 2 puntjes;

1) Passmark doet ook ruwe grafische prestaties. Zie http://www.videocardbenchmark.net/gpu_list.php .

2) Aangehaalde voorbeeld is niet representatief. Druk in beide gevallen eens bij similar systems. De laptop zit ver boven het gemiddelde terwijl de aangehaalde desktop ondermaats presteert. Dat is het probleem van op basis van één observatie (persoonlijke ervaring) te vertalen naar een algemene regel. Werkt dus niet... Daarom hebben we onafhankelijke benchmarks.

[Reactie gewijzigd door sdk1985 op 2 februari 2015 17:35]

Bang for the buck doet er niet toe, maar quad SLI vergelijkingen zijn niet relevant? Dafuq?
Je haalt twee argumenten op twee totaal verschillende onderwerpen door elkaar. Probeer wel op te letten als je mee doet.

1. BFTB doet er niet toe want dat is nooit het onderwerp geweest en staat los van het feit of een laptop 'EEN goede desktop' grafisch bij kan benen of voorbij kan streven.
2. Quad SLI is niet relevant omdat dat niet voldoet aan het predikaat 'EEN goede desktop' maar eerder voldoet aan 'de best mogelijke desktop in het universum', en dat is niet de vergelijking die in het begin werd gemaakt.
Laptops hebben nooit de grafische kracht van een goeie desktop, en zijn dus sneller aangewezen op lagere settings, en lagere framerates.

[Reactie gewijzigd door Tijgert op 2 februari 2015 20:45]

Het is maar net wat je definieert als 'een goede desktop'. Denk dat je de strekking van die post een beetje (boel) verkeerd inschat.

Daarnaast zijn opmerkingen als 'Probeer wel op te letten als je mee doet.' al helemaal niet relevant. Chillax dude, tis Tweakers maar ;)
Dat klopt idd helemaal, een 'goede' desktop kan ook die van een of twee generaties terug zijn, maar zo werd dat helaas niet gesteld. Het leek net of men meende dat een laptop altijd een zwak stukje techniek is tegenover zelfs ietwat stoffige desktops en omdat dat niet waar is ging ik het argument aan. Met alle gevolgen van dien :)

Als men enkel zei dat het ging om een goede desktop met dezelfde generatie grafische kaart (980 tegen de 980M, of zelfs 970 tegen de 980M) dan was er geen discussie. De 980M gaat een desktop 970 enkel voorbij met een mooie overclock op de 980M, waar de overclockbaarheid van de 970 niet in is meegenomen want dat win je niet.

Mijn punt was meer voor mensen die standaard laptops maar slappe nutteloze rommel vinden waar je nooit normaal op kunt gamen, bijvoorbeeld omdat je er meteen pijn in je nek van krijgt.. volgens sommige (nog zo'n voorbeeld dus).

Verder kaats ik de bal een beetje zoals ik hem krijg, men is ook niet altijd even liev voor mij... (maar het kon wel een tandje minder)
Blijkbaar heb je er zelf geen verstand van. Jouw situatie kan best kloppen, maar dat komt dan misschien omdat je AMD processor ruk is. En een 290x voor desktop is misschien vergelijkbaar in prestaties met de 980m voor mobiel in combinatie met de snellere processor.
En dat je overal 60 fps haalt minstens klopt ook niet, dan heb je dat wellicht in juist die spellen die jij graag speelt misschien. Maar tegelijkertijd is 1080p ook niet zo zwaar voor een 900 series kaart, dus het is niet onmogelijk.
Feit blijft dat je laptop nog altijd langzamer zal zijn dan een desktop met een 980 en een snelle i7. Zolang je appels met appels vergelijkt, wat je niet doet. Echter is het gat wellicht iets kleiner omdat de 900 series van nvidia zo zuinig is en dus minder langzaam is gemaakt op mobiel.
Get your facts straight.
1. Foute conclusie, alweer, is geen AMD CPU.
En dat je overal 60 fps haalt minstens klopt ook niet, dan heb je dat wellicht in juist die spellen die jij graag speelt misschien. Maar tegelijkertijd is 1080p ook niet zo zwaar voor een 900 series kaart, dus het is niet onmogelijk.
Tja, OF 'het klopt niet', OF 'het is niet onmogelijk'. Maar idd, ik speel niet ALLES, dus er is vast wel wat dat geen 60fps dag en nacht geeft, maar die heb ik nog niet.
Feit blijft dat je laptop nog altijd langzamer zal zijn dan een desktop met een 980 en een snelle i7.
Dat heb ik nooit ontkent of beweerd dus is een nutteloze statement die niet bijdraagt aan de discussie.
Zolang je appels met appels vergelijkt, wat je niet doet.
Ik weet onderhand niet meer hoe ik moet reageren. Ben je het eens of niet?
Get your facts straight.
And you make up your mind :)
Je kunt zeggen wat je wilt, maar het enige wat je wilt is gelijk krijgen. Maar ik lees in andere stukjes dat je je uitspraken al iets genuanceerd hebt.

Je maakt erg sterke uitspraken als je dingen zegt als : " Wat is er toch met mensen die praten over dingen waar ze de ballen verstand van hebben?"
Het is behoorlijk irritant en betweterig en bovendien geeft het te kennen van geen enkel vermogen van flexibiliteit in het lezen van wat mensen schrijven. Maw, je neemt alles een beetje te letterlijk. Ook wat ik zeg. Lees een beetje tussen de lijntjes door en begrijp dat mensen niet altijd exact zeggen wat ze bedoelen ipv op alle slakken zout te leggen.

Wat het originele statement inhoudt is dat laptops eigenlijk altijd een streepje achter hebben op performance in verhouding tot laptops, wanneer je high-end met high-end vergelijkt. En dat is logisch, uitleg daarvoor hoef ik niet te geven.
Met als gevolg dat G-Sync op laptops meer zal worden toegejuichd om toch hogere kwaliteit beeld te laten renderen zonder aan speelbaarheid te hoeven inboeten.
Dat FreezeXJ niet de exact juiste bewoording gebruikt waar jij niets op aan te merken hebt doet niets af aan de waarheid van zijn statement.

Houd alsjeblieft je gemak en val niet zomaar mensen af, voer in plaats daarvan gewoon constructieve discussies. Ik ben niet de enige die er iets van zegt.

Bovendien had ik ook geen zin om mijn uitspraken te toetsen, vandaar dat ik het 60+ fps gedeelte een beetje in het midden liet. Maar het lijkt me sterk, aangezien mijn overgeklokte GTX 780Ti in bepaalde spellen op de hoogste instellingen nog vaak wel moeite heeft om minstens 60 fps te halen. En ik weet wel zeker dat deze sneller is dan jouw 980M. In combinatie met een 3770K op 4.8GHz. Maar goed, nu ga ik een beetje mee in het mierenneuken.

[Reactie gewijzigd door TJRef op 2 februari 2015 19:28]

Je kunt zeggen wat je wilt, maar het enige wat je wilt is gelijk krijgen. Maar ik lees in andere stukjes dat je je uitspraken al iets genuanceerd hebt.
Als ik iets nuanceer, geef ik mijn standpunt dan op of verduidelijk ik het? Ik denk het laatste. Als ik overtuigd ben van mijn argument dat ik kan staven met logica, ervaring EN getallen geef ik natuurlijk niet op, helemaal als de tegenargumenten zo lek als een mandje zijn van mensen die blijkbaar niet zo goed kunnen lezen en luisteren.
Je maakt erg sterke uitspraken als je dingen zegt als : " Wat is er toch met mensen die praten over dingen waar ze de ballen verstand van hebben?"
Ik sta hier achter. Als men stelt dat een laptop NOOIT, echt nooit never nietes, dezelfde grafische kracht zal hebben als EEN goede desktop (de statement waar het mee begon), niet de beste ooit maar gewoon best een goeie, dan is dat pertinent fout omdat EEN 'goede' desktop niet de nieuwste high-end kaart hoeft te hebben om goed te zijn. De beste laptop kan dus makkelijk beter zijn grafisch dan een slechts goede desktop.
De twee systemen met 3DMark links zijn daar een relevant voorbeeld van. Ze hoeven niet gelijk te zijn, dat is nooit een eis geweest, enkel dat de desktop als 'goed' gekwalificeerd kan worden.
Een desktop met een 780Ti en een 2600K is gewoon goed, net zoals dat een 980 met 4960K goed is. Dat houdt niet in dat dat 'een goede desktop' enkel die laatste is.
Het is behoorlijk irritant en betweterig en bovendien geeft het te kennen van geen enkel vermogen van flexibiliteit in het lezen van wat mensen schrijven. Maw, je neemt alles een beetje te letterlijk. Ook wat ik zeg. Lees een beetje tussen de lijntjes door en begrijp dat mensen niet altijd exact zeggen wat ze bedoelen ipv op alle slakken zout te leggen.
Ik zou zeggen neem je eigen advies aan. Men had ook gewoon kunnen stellen op mijn eerste reactie iets in de trend van "Ja ok, een laptop is niet NOOIT beter, maar ik bedoelde met 'een goede desktop' enkel een desktop met een zelfde generatie kaart als de laptop". Maar dat zei men niet, op geen moment.
Wat het originele statement inhoudt is dat laptops eigenlijk altijd een streepje achter hebben op performance in verhouding tot laptops, wanneer je high-end met high-end vergelijkt.
Dat is logisch, daar hoef je geen uitleg voor te geven :P
Als men het zo stelde ipv 'een' goede desktop dan was er geen discussie. Nu werd een beetje gedaan alsof de laptop al en altijd een zwak ding is en dat zijn doorgaans uitspraken van mensen die of al heel lang geen laptop meer aangekeken hebben of een fout hebben gemaakt. Ik zette die fout recht.
Dat FreezeXJ niet de exact juiste bewoording gebruikt waar jij niets op aan te merken hebt doet niets af aan de waarheid van zijn statement.
Tja, gaan we weer dus. Het gaat om wat hij zegt, niet om wat hij bedoelt en al helemaal niet om wat een ander zegt wat hij vast bedoelt.
Als hij het zo bedoelt, dan moet hij het OF zo zeggen, OF even verduidelijken. Echter niemand deed dat en ging enkel op de bashwagen zitten over dat ik een 980M heb met opmerkingen over geld en zo. Komt vaker voor, de persoon neersabelen als men geen argument wilt wijzigen.
Houd alsjeblieft je gemak en val niet zomaar mensen af, voer in plaats daarvan gewoon constructieve discussies. Ik ben niet de enige die er iets van zegt.
Af? Val mensen niet AF? Ik kan iemand pas afvallen als ik hem eerst aanhing. Voorlopig is het nog steeds ik alleen tegen de rest die laptops blijkbaar altijd minderwaardig vindt, ongeacht mijn redenering en linkjes.
Dat een of twee anderen zich oningelezen in de discussie mengen met een foute redenering maakt niet dat ik maar meteen als een hondje rechtop moet gaan zitten en snuit houden. Jij geeft in ieder geval nog weer wat FreezeXJ mogelijk bedoelde, geen ander deed dat en ging enkel voor hem ten strijde als een paard met oogkleppen op. Daar hou ik mijn mond niet voor.
Bovendien had ik ook geen zin om mijn uitspraken te toetsen, vandaar dat ik het 60+ fps gedeelte een beetje in het midden liet. Maar het lijkt me sterk, aangezien mijn overgeklokte GTX 780Ti in bepaalde spellen op de hoogste instellingen nog vaak wel moeite heeft om minstens 60 fps te halen. En ik weet wel zeker dat deze sneller is dan jouw 980M. In combinatie met een 3770K op 4.8GHz. Maar goed, nu ga ik een beetje mee in het mierenneuken.
Dat is waar ik mijn uitspraken ook wat heb moeten nuanceren. Ik speel (nog) niet alles wat is getest en heb een aantal A titels nog niet kunnen spelen omdat ik de laptop nog relatief kort heb. Wat ik tot nu toe wel speelde was vloeiend als water, dat is dus waar IK mijn uitspraak moest aanpassen en dat deed ik dan ook toen men mij daar op wees.
De uitspraak waar alles mee begon staat echter nog fier overeind terwijl daar niks van klopt (zoals het geschreven staat).

Het overklocken van desktop grafische kaarten gaat natuurlijk veel verder dan bij een laptop, maar ik denk dat mijn 980M zonder OC jouw 780Ti zonder OC voorbij gaat. Of niet?

Anyway, ik ga me weer eens concentreren op spelletjes spelen want dat is leuker dan dit :)

[Reactie gewijzigd door Tijgert op 2 februari 2015 21:12]

Ik denk niet dat een 980M sneller is dan een desktop 780Ti. De gewone 980 is maar een percentage onder de 10 sneller, gemiddeld.
Ik zie idd dat de 780Ti 12K+ doet in FS terwijl ik top op 11K+... Nog best ok dus voor een prev-gen graka!

(even de heavy OC's buiten beschouwing latende)

[Reactie gewijzigd door Tijgert op 2 februari 2015 22:37]

Een Desktop R9 290x is meer in de buurt van een Desktop 970. Afhankelijk van de resolutie zit hem ofwel:

10% onder een Desktop GTX 970
10% onder een Desktop GTX 980
Of tussen een Desktop GTX 970 en 980.

Hangt zwaar van van game tot game ( optimalisaties ) en vooral de scherm resolutie waar de R9 290x beter resultaten neerzet bij hogere resoluties.

Je statement dat een 980m vergelijkbaar is met een R9 290x op desktop vind ik persoonlijk nogal een ruwe vergelijking. Het grote nadeel is gewoon de stroom verbruik wat hoger ligt. Mensen klagen daarover maar is het op de volledige pc systeem vergelijk, dan is dat +- 20% hoger. Niet het einde van de wereld dus. Zeker omdat mensen niet 24/7 gamen. Op idle ( wat de meeste mensen draaien ) is de stroom verbruik dezelfde als een 970/980. Die paar uurtjes op een dag maken niet zoveel uit. En met custom coolers van al de merken ipv die blowers ( waarom verkopen ze die dingen nog. Coolen slecht en maken veel lawaai ) is het ook geen probleem om de boel cool te houden.

Een 980m is zeker geen slechte GPU maar het prijskaartje voor zo een mobiel systeem... Voor iemand dat gamed op een laptop en 1080p draait zal het zeker niet onderdoen maar het geld dat je betaald voor zo een gaming laptop.

Hij is snel 2 of 2.5 meer aan het betalen voor een vergelijk presterende desktop ( laten we even aannamen dat een GTX 970 gelijkaardig is ).

Bang per dollar is nogal laag vind ik. Voor sommig mensen is de noodzaak om te kunnen mobiel gamen interessant ( als ze veel weg zijn van huis ) maar laten we ook eerlijk zijn, veel mensen spenderen geld aan gaming laptops dat ze bijna nooit ergens meepakken.

Vaak zijn die mobiele gaming laptops ook enorme kasten van laptops. Mobiel is een vrij groot woord. Ik neem aan dat Tijgert vrij defensief is in deze discussie omdat hij veel geld gespendeerd heeft aan zijn game laptop en de meeste mensen hier reageren nogal ... verbaast dat iemand zoveel geld uitgeeft aan zo een ding.

Persoonlijk zou ik voor hetzelfde geld als zo een game desktop:

Een medium laptop kopen voor onderweg en een echte game machine voor thuis met SLI 980's of zo. Beste van beide werelds voor dezelfde prijs en meer "bang per dollar" zoals ze zeggen...

En dan spreken we nog niet in enkele jaren als hij wilt upgraden. Of als er onderweg iets gebeurt met de game laptop ( ongeluk, gestolen, enz enz ).

In mijn ervaring eindigt zo een game laptop voor 99% van de tijd thuis op een bureau. Is het zoveel geld waard voor af en toe te kunnen gamen buiten huis? Tja, dat is voor ieder om zelf te beslissen. Voor mij in ieder geval niet. Ik kan gerust even veel plezier hebben met een lichte of medium game laptop waar je gewoon iets ouders games op draait of op een lagere resolutie.

Ieder zijn ding zou ik zeggen.
Gelijk heb je, maar ergens snap ik wel dat men een dergelijke laptop koopt. Het is al met al toch compacter, ook op je bureau. En je kunt het toch eventueel makkelijk verplaatsen of meenemen naar LAN events.

Ik bedoelde overigens niet met zekerheid te zeggen dat de twee kaarten vergelijkbaar zijn, ik zei misschien. Ik irriteerde me meer aan het temperament van Tijgert, maar zo belangrijk is het nou ook weer niet om alles tot in detail op te gaan zoeken en onderbouwen ;-). Maar het lijkt me inderdaad vergelijkbaar met 970.

En wat betreft het stroomverbruik, hoor je mij er niet over klagen. Het geeft alleen aan waarom mobiele kaarten uiteindelijk lager geklokt worden om dat te compenseren. En de 900 series hebben momenteel een goede voorsprong op de 200 series van AMD op dat gebied. In je desktop maakt dat uiteraard minder uit.
Tis maar net welke benchmark je bekijkt....http://gpuboss.com/gpus/Radeon-R9-290X-vs-GeForce-GTX-980M bij de meeste is (natuurlijk) de desktop 290X sneller maar soms is de 980m sneller. Je koopt een desktop vervangende game laptop van EUR2000+ met een speciale reden lijkt mij. Ruwweg heb je voor dik EUR 800,- minder dan de game laptop een vergelijkbare desktop game PC. Maar ja in mijn geval met 4 gamende kinderen had ik behoefte aan een eetkamertafel game laptop...
Misschien tijd om eens serieus naar je desktop te kijken.

Als je 980M echt beter presteerd dan je 290X op dezelfde resolutie en instellingen.. dan is er iets goed mis met je 290x. Of je processor is gewoon niet snel genoeg in je desktop (Cores zegt niet alles)
Om eerlijk te zijn, ik vergelijk FireStrike 290x scores met overgeclockte 980m scores. Ik maak enkel als punt dat een 980m sneller is/kan zijn dan een 290x.

Als voorbeeld:

http://www.3dmark.com/3dm/5537430?
http://www.3dmark.com/3dm/2500849

Edit: zelfs Futuremark zegt al dat het hoger scoort dan een HighEnd PC.

[Reactie gewijzigd door Tijgert op 2 februari 2015 16:26]

Nu niet om laptop gaming helemaal af te schrijven, maar een desktop is doorgaans sneller.

Een GTX 980M is echt niet sneller dan een R9 290X, wat jij zegt kan alleen als je tussen verschillende resoluties vergelijkt. En een processor is niet altijd een even grote bottleneck voor games, komt daar nog bij dat een hexacore vanalles kan zijn (AMD, Intel, kloksnelheid?) en niet noodzakelijk even nieuw, snel en duur als je laptopprocessor. Geen eerlijke vergelijking dus.

Als we vergelijken tussen een gelijk geprijsde nieuwe desktop en laptop dan zal de desktop steeds sneller zijn, of je nu ¤1000 of ¤3000 spendeert.

Maar ik begrijp uiteraard wel de aantrekkingskracht van een mobiele game pc, dat is natuurlijk deels die meerprijs waard. Al doet de geringe houdbaarheid mij wel voor desktops kiezen als het op gaming aankomt en mobiel iets lichters.
Zucht... weer die discussie. Lees nou eens wat er eerder geschreven is.
De opmerking waarmee alles begon is dat een laptop NOOIT een EEN goeie desktop kon evenaren en dat is BS.
Dat de 980m sneller is dan een 290x is geen BS, check de grafische scores:
http://www.3dmark.com/3dm/5537430
http://www.3dmark.com/3dm/2500849

Het gaat dus om GRAFISCHE kracht waarbij de CPU zoe goed als het kan buiten beschouwing is gelaten.

Er is ook geen vergelijking van ecosystemen of prijs ter sprake hier.
Daar betaal je dan ook goed voor. Voor de prijs van een P670SG heb je makkelijk een desktop systeem met GTX980 in SLI, daar zal jouw BTO vervolgens weer niet tegenop kunnen.

Uiteraard niets mis mee als je dat geld over hebt voor de comfort van mobiliteit. Als je echter de mobiliteit achterwege laat en volledig op performance let zal een notebook altijd duurder zijn dan een desktop met vergelijkbare specs.

OT:
Ik zelf vind dit een fijne ontwikkeling. Ik game zelf ook regelmatig met mijn notebook terwijl mijn desktop 2 meter verderop staat. Waarom? Omdat ik met de notebook lui op de bank kan zitten met notebook op mijn schoot en als ik even klaar ben ik het ding dichtklap, naast mij zet en TV kijk.

Zal G-Sync voor alle nvidia-gebruikende notebooks beschikbaar komen?
Gaat lekker bij de marketingafdeling van Nvidia lately. Eerst de GTX 970 en nu dit.
"We has it!" Popie Jopie of slecht Engels? :S

Kan dus gewoon via software is conclusie van dit artikel?
Eigenlijk is het "We haz it!" met een Z :)
Als de G-Sync module verleden tijd zal worden, dan blijf ik gerust bij nVidia voor m'n aanstaande upgrade. Zo niet, dan AMD. Ik heb echt totaal geen zin om in de toekomst een nVidia DRM machine op m'n bureau te plaatsen ter waarde van minimaal 500¤, om vervolgens de switching-cost voor mijzelf te verhogen indien ik ooit naar AMD zou willen overstappen, en het ook nog eens moet doen met 1 Display port aansluiting. Kortom, nVidia vraagt simpelweg teveel restricties, restricties waarvoor je ook nog eens zelf diep in de buidel moet tasten. Daarnaast vraagt het monitor OEMs ook te veel. Om als OEM een monitor op de markt te brengen die; een hoge premium vraagt, gericht is op desktop GPU gebruikers, en ook nog eens alleen voor nVidia desktop GPU gebruikers, en nVidia desktop GPU gebruikers die voor generaties alleen bij nVidia willen blijven, is echt een niché product voor een niché markt.

[Reactie gewijzigd door PostHEX op 2 februari 2015 16:32]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True