Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 85 reacties

Nvidia brengt naar eigen zeggen de GTX 980 naar laptops. De fabrikant maakt hiervoor de GM204-gpu met 2048 cores voor laptopfabrikanten beschikbaar. Die kunnen daarmee laptops met hogere prestaties voor games maken dan met de GTX 980M mogelijk is.

Veel details geeft Nvidia niet, maar duidelijk is dat Nvidia de volledige GM204-gpu met 2048 cores beschikbaar maakt voor gebruik in laptops. De huidige GTX 980M voor laptops is weliswaar ook op de GM204 gebaseerd maar bij die implementatie zijn slechts 1536 cores geactiveerd. Ten opzichte van de desktopkaart GTX 980 zijn bij de laptopversie de kloksnelheden waarschijnlijk verlaagd om het verbruik te verlagen maar wat die snelheden dan zijn meldt Nvidia niet. De tdp van de GTX 980 bedraagt 165W, te hoog voor laptops.

De GTX 980 komt als MXM naar de laptops. In ieder geval zes fabrikanten gaan die module als zodanig integreren in modellen, waaronder Asus, MSI en Clevo. Asus liet met zijn eerder aangekondigde GX700 al zien dat een flink koelsysteem nodig is om de gpu op temperatuur te houden: de fabrikant gebruikt waterkoeling. Volgens Nvidia zouden huidige fan-koelers echter ook voldoende moeten zijn en het bedrijf adviseert fabrikanten controle over de fans te geven zodat gebruikers hun high-end laptops nog kunnen overklokken ook. Ook raadt Nvidia gebruik van minstens vier- tot achtfasige energievoorzieningen aan. Bij de GTX 980M is dat een driefasige voorziening.

Nvidia GTX 980 laptopsNvidia GTX 980 laptopsNvidia GTX 980 laptopsNvidia GTX 980 laptops

Moderatie-faq Wijzig weergave

Reacties (85)

Volgens Nvidia zou de 980 in een laptop slechts 5% verschillen met wanneer de kaart in een desktop geplaatst zou worden.

Voor benchmarks en wat andere info kijk maar even naar het filmpje wat LinusTechTips geplaatst heeft vandaag:
https://www.youtube.com/watch?v=DJeXUKFvcHs
Dat verdient wel enige nuance. "5%" verschil is niet het volledige plaatje. De koeling voor je 980 in je laptop zal clock voor clock aanzienlijk luider klinken dan in een desktop, en je kan aanzienlijk minder ver overclocken. Ook heb je in de desktop de keus voor hogere stock en turbo clocks, met nog steeds behoud van een redelijk stil systeem.
En daarnaast het prijs natuurlijk. Zo'n laptop komt waarschijnlijk in de buurt met een Skylake 6700K desktop met twee 980Ti's.
Heb zelf 1 980ti wat een beest... Maar wat een gigantische hitte komt er uit dat ding zeg. Ik vraag me af hoe ze dit in een laptop gaan opvangen. Ik heb een 250d kast van corsair. De videokaart blaast aan de bovenzijde tegen de deksel van de kast. Als ik bf4 5 minuten aan het spelen ben is de bovenkant van de kast met de blote hand bijna niet meer aan te raken zo heet. Nu zal de ti wellicht een stuk warmer worden maar het zou wel indrukwekkend zijn als je straks echt desktop kaarten in laptops gaat zien. In het verleden is wel gebleken dat de mobiele kaarten echt zwaar onder doen voor hun grotere broertjes
Oh kan prima hoor, ik heb een BTO CL37 (Clevo) met een AMD HD6990M. Dit ding heeft ook een TDP van 100W. Nu zal deze kaart ongeveer net zoveel verbruiken en kom je op een kaart die waarschijnlijk maximaal 100C wordt in je laptop en tering veel herrie maakt voor de koeling.

Het kan wel maar echt 'rustgevend spelletjes spelen' kan je hier echt niet mee. Daarbij komt er inderdaad de prijs nog overheen waarvoor je een gigantisch high-end desktop systeem zou kunnen bouwen.

Het grootste verschil met laptop GPUs en desktop GPUs is echt het verbruik inderdaad. Bij een laptop ga je ook geen adapter van meer dan 250W mee geven (anders is het echt een blok van meer dan een kilo wat je mee moet sjouwen).

Hierdoor gaan de clocks naar beneden en presteren ze minder (maar eigenlijk wel meer performance/watt door de lagere kloksnelheden). In een tower kast met een aardige koeling erop hoor je tegenwoordig zeer weinig van een videokaart (tenminste, ik heb dan als referentie een gaming laptop en die maakt in idle meer lawaai dan mijn PC onder full load).

Dus ik ben hier snel mee klaar, het is te duur; niet mobiel en zeker niet stil. Zelfs al ben je vaak op twee plaatsen dan kan je beter twee desktops kopen...
Je moet wat in zo'n paleis he
LinusTechTips heeft wat meer informatie

https://youtu.be/DJeXUKFvcHs?t=39s

2048 CUDA Cores
Base clock 1126
Boost clock 1216
Memory clock 7 Gbps
Memory 4Gb
256 bit memory interface

Wat verder in de video zijn een aantal benchmarks te zien, zo te zien is er erg weinig verschil met de desktop versie.

-Update
Geteste Laptops
www.youtube.com/watch?v=wNYvF3E2m04

[Reactie gewijzigd door General_Snuss op 23 september 2015 10:00]

Qua prestaties misschien, Qua lawaai echt niet. Ook zijn de desktop kaarten een stuk beter overclockbaar.
Dat syateem van Asus kan dan andsrs gewoon net zo stil zijn.

maarja met een extern waterkoelingsysteem in je rugzak ben nou niet veel mobieler als met een desktop.
Zelfs met het waterblok durf ik te zeggen dat een desktop nog steeds stiller is.
als je hem ergends wegzet en een externe monitor gebruikt.

Dan zal het verschil insignificant zijn.
Als je op het laptop scherm aan het game bent is de waterkoeler altijd vlakbij.

En dat zal best wel te horen zijn en waarchijnlijk meer als een goede PC kast ergens in een bureau.

Opzich is het een leuk idee maar veel zullen ze er niet verkopen.
Dan taal verandert, als veranderen wij automatisch mede. Dantublieft.
Dat heb je als je om 6 uur opstaat en om kwart over 11 een telefoon gebruikt op bed om een bericht te plaatsen.
Kooten & De Bie, heerlijk! :D
Alsk Darno
En dan te bedenken dat dit soort laptops niet gemaakt zijn als mobiel systeem, maar als desltop vervanger.
Die apparaten zijn altijd al heftruck waardig geweest. Er komt nu alleen nog war extra bij...
Ik denk dat met waterkoeling een AOI bedoeld wordt, en niet meer een heatpipe + finnetjes en een fan. Er is ruimte in een laptop voor zulk soort koeling. Ze doen het al met 1U / 2U servers (watergekoeld).
Volgend jaar worden er thin-itx moederborden met MXM sloten verwacht. Mooie videokaart voor een VESA mount behuizing.
Volgend jaar wordt Pascal verwacht. Als we Nvidia mogen geloven moeten we alles weggooien en nieuwe videokaarten kopen.
Dat wilde AMD ons ook doen geloven met de bulldozer CPU.

Wat uiteindelijk uitliep op een blamage.

Van de ATI 4870-4850 werd niet al teveel van verwacht omdat NVidia de markt domineerde met de 8800 gt.

Totdat de benchmarks binnen kwamen en bleek dat die sneller was als de gtx260 terwijl die 200 euro goedkoper was.

dat leidde tot price cuts en de gtx 260 met 216 cuda cores.

in andere woorden wij van WC eend adviseren WC eend.

Ik neem het allemaal maar met een korrel zout. En wacht op data. Wat de laatste tijd NVidia zeker niet misstaat.
Kan iemand mij verklaren wat de reden is dat de meeste (na mijn ervaring, tenminste) laptops een gewone Intel HD Graphics ingebouwde videokaart hebben i.p.v. een videokaart van Nvidia of ATI?
Ik ga de laatste 2 jaren laptops uit de weg die een HD graphics hebben.
Omdat dit zorgt voor een betere batterijduur en de meeste mensen niet meer nodig hebben
Bedankt, heren ik begrijp het nu al zeker een stuk beter. Ik blijf vasthouden aan een "dedicated" videokaart.
Vroeger waren laptops altijd voorzien van een dedicated grafische kaart. Intel heeft in navolging van AMD's APU's (CPU+GPU in een chip) sinds 2010 telkens een socket uitgebracht waar zowel CPU als GPU ineen verwerkt zijn (bv LGA 1055). Dit heeft ervoor gezorgd dat de prijzen van computers rond die periode zwaar gedaald waren in prijs. Althans voor de doorsnee werk computer. Het nadeel van integrated graphics is dat de rekenkracht van deze kernen aanzienlijk lager ligt dan de traditionele dedicated grafische kaarten. Daarom dat vooral gamers, media producers en datawetenschappers deze laptops vermijden, omwille van het gebrek aan (grafische) rekenkracht.
In desktop systemen zijn er echter CPU's in de LGA 2011 socket beschikbaar, die welliswaar duurder zijn, maar waar geen geintegreerde GPU chips zitten.

Voor de doorsnee gebruiker is deze geďntegreerde optie vaak voldoende en brengt het de prijs aanzienlijk naar beneden waardoor er een markt voor dit soort producten is.
"Kan iemand mij verklaren wat de reden is dat de meeste (na mijn ervaring, tenminste) laptops een gewone Intel HD Graphics ingebouwde videokaart hebben i.p.v. een videokaart van Nvidia of ATI?"

Ik denk dat het met energie besparing heeft te maken...
Zodra je laptop van het lichtnet af is, wordt de Intel HD videokaart gepakt.
Omdat deze minder 'energie' gebruikt dan een Dedicated videokaart.

En ik sluit mij ook aan wat kdegussem zegt.
Goede vraag. De koplopers op de huidige mainstream onboard videochipmarkt voor laptop moederborden zijn Intel HD Graphics, Nvidia en AMD (AMD in 2006 gefuseerd met ATI) .

Geschiedenis van GPUs door AMD Graphics
https://en.wikipedia.org/...graphics_processing_units

Geschiedenis van GPUs door Intel Graphics
https://en.wikipedia.org/...graphics_processing_units
Mooi om te zien dat nvidia zo ver kan komen! Vergeleken met AMD...

Maar de 980M is dus bijna een GTX 970...

Ook leuk om te zien is dat je nu kan overclocken! Meestal waren de bios'es zo dichtgetimmerd...

Maar dan wel weer jammer dat de tdp zo hoog is...
AMD kan ook ver komen want ik denk dat zo'n fury nano gpu ook wel in een laptop past?
Maar zonder waterkoeling gaat de GPU dus aardig op de handrem. Alleen de Asus GX zou een AMD GPU uit een desktop kunnen koelen mits je de dock aansluit.
Nee, mits je het geld hebt moet je nvidia hebben, alleen al vanwege het verbruik.
moah de fury komt anders aardig dicht in de buurt bij de 980 60 watt in crysis en iets van 30 watt in furmark. Te stellen dat je beter nvidea kunt kiezen vanwege het gebruik gaat volgens mij steeds minder op. 16 uur op volle toeren draaien levert 25 cent meer op terwijl de pc hoogstwaarschijnlijk veel meer niks staat te doen dan verbruikt de fury 3 watt meer.

Nu maakt dit in een laptop natuurlijk veel meer uit dat moet ik je toegeven, maar als je beide zou terugklokken tot het maximale wat de laptop zou kunnen koelen, vraag ik mij af hoeveel ze elkaar ontlopen.

http://www.anandtech.com/bench/product/1442?vs=1522
ik zie dat dit de standaard 980 betreft maar niet de standaard fury, dus qua performance kan er wat verschil in zitten met de stock, mischien ook het verbruik.
de nano doet het anders ook niet verkeerd

http://www.anandtech.com/bench/product/1442?vs=1556

20watt verschil en om en om performance gelijk

[Reactie gewijzigd door Splitinfinitive op 22 september 2015 18:18]

60 watt, 30watt, 20 watt, dat zijn enorme verschillen in een laptop.
Enne ... nvidea? Echt?
als je mijn post had gelezen, geef ik ook toe dat dit in een laptop een probleem is. desalniettemin wordt verbruik van AMD enorm vaak aangehaald als no-go ook in desktops naar mijn mening gebaseerd op tdp. hoe dit zit dat kan ik je niet vertellen, maar mijn 780 zit als ik mij niet vergis ook rond het niveau van een 290x kwa verbruik. En verslaat hem wel op elk spel in deze bench buiten bioshock

een kreet vaak gehoort.

"pak nvidia want die zijn véél zuiniger en amd maken veel meer geluid."

dit terwijl het verbruik onderload meestal wel meevalt, en geluid hangt puur af van de aftermarket koeler van bijvoorbeeld MSI of Asus. Deze zijn meestal net zo luid als hun groene kamp tegenhanger. De stock koeler van AMD is een ramp, en wordt vaak vergeleken met een stofzuiger. Maar buiten de eerste batch zijn 9 van de 10 GPUs voorzien van een koeler die niet van AMD zelf is. Als ik mij niet vergis is de fury ook een kaart van AMD die niet eens met een eigen koeler is gekomen maar waar producenten gelijk hun eigen koeler op hebben kunnen monteren.

Verder is natuurlijk ook de vraag als je minder verbruikt hoe de performance schaalt. Als dit meevalt, dan valt mischien het verschil minder uit tussen amd/nvidea. Dit is natuurlijk puur speculatie. lijkt mij wel een leuke test om eens amd tegenover elkaar te zetten en beide zo te clocken dat het verbruik gelijk is en dan een vergelijking.

En over nvidia, dit is echt niet bewust hoor, ik controleer 99/100 keer mijn spelling niet eens. Ik persoonlijk hecht weinig waarde aan spelling op een forum/reactiepagina als ik een groot deel van de mensen zie reageren met bijvoorbeeld me auto me huis e.d. zolang de boodschap maar overkomt.
Alleen scoort de Fury X ruim 15% en de Nano ruim 20% minder vergeleken met een 980Ti terwijl ze in het zelfde prijs categorie zitten (649$)

De 980 en luchtgekoeld Fury zijn dan weer ongeveer dezelfde performance, maar de 980 is vaak wel goedkoper (100$ op dit moment als we uit gaan van de VS prijzen)

Qua price/performance wint AMD dus vrijwel elke segment tot en met de 390. De 390X, Fury en Fury X zou ik dan niet aanraden, wil je je iets meer dan een 390 ga dan gelijk voor de 980TI of koop een 390 en doe later een tweede erbij.
vergeet niet de radeon 370 af te raden.

de 380 is wel een zeer goede optie in zijn prijsklasse.
Net even ook in de prijzen gedoken, en het klopt inderdaad ze zijn inderdaad iets duurder op het moment. dus opzich niet intressant, maar toch, het probleem met verbruik is naar mijn mening veel genuanceerder.

Mischien wanneer amd besluit de prijzen te laten zakken omdat het hbm sneller (makkelijker?) kan worden geproduceerd. althans ik denk dat de hogere prijs nu zit bij het hbm geheugen.
De Nano loopt al te throttlen in een desktop, dus ja het past, en ja je gooit bakken met performance het raam uit terwijl de centen wél voor het volle pond uit je portemonnee vliegen.

Dus ja.... het kan :P Zinvol is het echter niet.

[Reactie gewijzigd door Vayra op 22 september 2015 16:57]

Ik denk dat throttelen niet meer het juiste woord is voor deze tijd. Zowel AMD als nVidia gebruiken zaken als temperatuur en verbruik om te bepalen wat de maximum clocks van de kaart zullen zijn.

Vroeger zou een kaart clocks krijgen van 750 Mhz fixed en daar moest je het mee doen. Nu heb je gewoon een dynamisch berijk en als de temperatuur en het verbruik het toe laat mag de kaart boven die 750 MHz komen en zelfs richting de 1000 MHz gaan.

Voor nVidia geld hetzelfde alleen zij noemen het een turbo bereik. Dus wat is dan je max clock? AMD noemt die 1000 Als boost clock. En nVidia spreekt over een base van 1000 met een max turbo van 1128 (of iets in die richting)
Laten we het dan potentie noemen. De desktop GPU heeft in potentie altijd een betere performance tegen een gunstiger prijs, vaak stiller ook.
Dat is waar. Alleen dan kan je ook hetzelfde zeggen over een full GTX980 in een laptop :p.

Dat throttlen is om binnen zijn TDP te blijven, je hebt niet bij elk spel dezelfde soort workload dus zal hij in sommige gevallen wat moeten throttlen.

Indien het je lukt om een Nano in een laptop te doen dan heb je wel een laptop die 10-20% sneller is dan eentje met een GTX980 erin. Er zijn mensen gek genoeg dat ze daarvoor willen betalen (zoals ze ook voor deze GTX980 gaan doen :P).

Het enige wat ik me afvraag is hoe ze dit goed gaan oplossen met koeling. Het koelen van een gpu met HBM erop is een stuk lastiger omdat je veel warmte hebt op een kleiner oppervlakte.
Alleen dan kan je ook hetzelfde zeggen over een full GTX980 in een laptop :p.
Is dat zo? Graag een linkje naar een artikel waar ze dit getest hebben.
Ja maar dat is dus niet zo als je een Nano en GTX 980 in een laptop zou vergelijken. Het is heel simpel te voorspellen dat de zuinigere 980 een hoger percentage van zijn desktop-performance zal halen dan de Nano.

Het ligt dus voornamelijk aan de prijs, bij gelijke prijs is de 980 een betere koop want de perf/watt ligt hoger, en juist dáár gaat het om als je TDP de bottleneck gaat zijn.
Mooi vergeleken met AMD? Het is juist goed als het AMD wat beter zou gaan tov Nvidia anders krijgen we een Intel situatie: 5 jaar achter elkaar 5% prestatie per jaar. En extreme prijzen. Daar zijn we trouwens als aardig aangekomen. Eerst waren de absolute topkaarten 500 euro. Nu blijkbaar 700 euro.
Ja dat is exact wat ik bedoel :)
Maar de GPU's van AMD zijn een goede Bang/Buck. Het enige minpuntje: het verbruik.

Ik hoop dat AMD betere processors gaat maken en betere GPU's met lagere TDP. We hebben gezien dat AMD het kan, namelijk bij de R9 NANO...
Overklokken in een laptop 8)7 . Daar is toch nooit voldoende ruimte voor. Nvidia benut sowieso nu toch ook al alle ruimte door de de klokfrequentie variabel te maken.
ik heb een jaren oude medion laptop met een Nvidia 560m erin. Koelpasta vervangen met liquid pro en die draait al zeker een jaar op een lichte overklok. Zonder ENIGE vorm van throttling met ALLE spellen die ik gespeeld heb.

Als een GPU niet throttled met een veilige marge van 10 graden kan je hem iig overclocken tot die marge nog maar 5 graden is onder max load. Daarnaast kan je daarbij ook nogis undervolten.

TUURLIJK kan je overclocken op een laptop als hij dit softwarematig toestaat.....

[Reactie gewijzigd door jadatmag op 22 september 2015 21:57]

Same here ! Ik heb een gtx 880m wat een rebrand van de 780m is, en gek genoeg heb ik nog nooit last gehad van throttling. De 880m was de gefaalde kaart van nvidia waar iedereen klachten over had, maar spellen zoals crysis 3, GTA 5, en zelfs star citizen speel ik allemaal op ultra ( zonder anti-aliasing ) en haal altijd me boost frequency ( 993mhz ) alleen me memory zit een beetje laag ( rond de 2500 ) maar als ik een game-profiel van alienware gebruik haal ik wel de 4000 ~ 4700 MHz. Hoger als dat ben ik nog nooit geweest. De hoogste temperatuur wat ik ooit gehaald heb was in star citizen 72 graden celsius voor de rest zit ik rond de 60°c ~ 70°c ( alienware 17 mid 2013 ) CPU same story 4710MQ @3.7 GHz

[Reactie gewijzigd door l99030607l op 10 oktober 2015 08:58]

Idd , dus eigelijk houden ze je een beetje voor de gek,
i.p.v. dat jij overclocked, heb je hem underclocked "gekregen". }>
Desalniettemin,..leuke prestaties voor een lappie :)
Nee zo werkt het niet, de klokfrequentie heeft gewoon een safe margin zodat ook de bad sample chips stabiel draaien en is zo gekozen dat TDP ook binnen de perken blijft.

Je bent als consument vrij om per individueel geval de grenzen op te zoeken.
Dit is echt extreem zeg. Dat we gewoon al op het punt zijn gekomen van concurrerende desktop kaarten (weliswaar lager dan het modelnummer) is een zeer goede ontwikkeling te noemen. Vooral door het feit dat je gewoon veel langer met je game laptop kunt doen dan eerst. Normaliter lopen de M series na een jaar al tegen diverse problemen aan met games om het hetzelfde niveau te kunnen draaien, zelfs met regelmatige driver updates. De desktop versies doen hier iets langer over voordat je merkt dat je de settings dient terug te schroeven.

Ik ben zelf een echte desktop gamer en had vanwege de snelle veroudering van game laptops altijd iets tegen zoveel geld uitgeven om dan maar ''mobiel'' te zijn. Met dit soort verbeteringen is het zowaar aantrekkelijk om een eenmalige hoge uitgave te doen voor een laptop. Uiteraard moet je wel kijken naar alle andere componenten.
Ja nu nog laptops die modulaire zijn! En dan ben ik pas om ;)
Als we desktop onderdelen mobiel gaan gebruiken, maakt ze dan aub ook in de toekomst geschikt voor upgrades
dat zijn sommige al, onder andere alienware's en sonmmige clevo's/sager
Ze zouden er eens over na moeten denken om mobiele videokaarten extern te koppelen. Stel je een soort NUC/kleinere Apple Mini case voor waarin ze een GTX 980M of zelfs SLI 980M stoppen, met 2 laptopfans erbij. Dit kastje kun je dan aan een superdunne laptop koppelen, die vervolgens over desktopprestaties beschikt. En zo'n kastje past in het voorvakje van je rugzak of zelfs in de binnenzak van je jas. Dat lijkt me stukken beter dan een dikke gamelaptop of zo'n extern bakbeest die je bij sommige merken kunt krijgen, zoals de Alienware Graphics Amplifier.

[Reactie gewijzigd door JoepD op 22 september 2015 21:27]

Ik heb toevallig een x220 maar geen apparaatje erbij.

Hier staat beschreven (even snel gezocht) wat het allemaal inhoud, nadeel is dat je zon speciaal slot nodig hebt:
https://facepunch.com/showthread.php?t=1253318
Het idee gaat al een tijdje rond voor oplossingen voor een Egpu.
Sommige gebruiken exprescard aansluitingen, andere firewire, of usb3.
Maar het feit blijft dat je hierdoor met een beperkte bandbreedte zit op de bus.
Wat voor mij een oplossing zou zijn is een verbinding te maken vanaf je interne MXM aansluiting naar buiten toe.
Je een box hebt die een gewone pci-e gpu kan huisvesten en koelen, en deze gewoon in deze aansluiting plugged.
Hierdoor heb je de volle pci-e 16x bandbreede.
Hier een interessante link naar een project dat, euh, op een laag pitje zit momenteel.
Linkje
plaatje 3 run at 19x10, wat zal de fps waardeloos zijn als je op full hd speelt :+
haha goed punt :D
Lijkt me eerlijk gezegd een beetje overkill voor een laptop (tenzij een 'portable' bakbeest dat de naam laptop nauwelijks verdient geen bezwaar is), maar wel ideaal voor een potige gaming mini-PC (van het formaat van een DVD-speler) voor onder je TV of in je stereo/TV meubel.

[Reactie gewijzigd door w00t00w op 22 september 2015 18:22]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True