Door Willem de Moor

Redacteur

Nvidia-graphics in laptops

Nieuwe technieken en beloftes voor 2020

02-04-2020 • 09:01

42

Multipage-opmaak

Turing in je laptop

Enkele weken geleden deed AMD uitgebreid uit de doeken hoe zijn nieuwe generatie processors voor laptops en aanverwante mobiele apparaten werkt. Een van de features die het bedrijf omschreef, de dynamische allocatie van zogeheten thermal budget aan cpu en gpu, krijgt navolging van Nvidia. AMD's concurrent, in ieder geval op het vlak van grafische kaarten, heeft namelijk ook op zijn beurt uiteengezet welke vernieuwingen laptops met Nvidia-graphics aan boord met zich meebrengen. Omdat Nvidia geen processors maakt, is het voor laptops afhankelijk van fabrikanten als AMD en Intel, en vooral met die laatste werkt Nvidia van oudsher hecht samen.

Net als bij AMD kijken we ook naar de plannen die Nvidia heeft voor laptops met Turing-kaarten aan boord. Zo moeten laptops met de nieuwste Nvidia-hardware het paradepaardje van Nvidia, realtime raytracing, nog beter ondersteunen en betere prestaties leveren. Die prestaties moeten enerzijds komen van verbeterde technieken voor raytracing, en deels van krachtigere en beter geoptimaliseerde hardware.

We kijken naar beide aspecten van de nieuwe laptops. Er komen nieuwe gpu's met RTX 2070 Super en RTX 2080 Super aan boord, en daarnaast worden de bestaande kaarten vernieuwd. De nieuwste hardware is niet altijd eenvoudig te herkennen aan een nieuw typenummer van de videokaart. Laptops van 2019 en nieuwe laptops uit 2020 kunnen op het oog dezelfde GTX 1650 of RTX 2060 aan boord hebben, maar alleen de nieuwe 2020-modellen ondersteunen de nieuwste technieken.

Prestaties Nvidia-laptops: oud versus nieuw

Nieuwe Max-Q-kaarten

Laptops met Nvidia-gpu worden in 2020 voorzien van een aantal nieuwe opties en nieuwe kaarten. Om met dat laatste te beginnen, Nvidia introduceert twee nieuwe laptopkaarten: de RTX 2070 Super en de RTX 2080 Super. Voorheen waren laptops enkel met reguliere 2070- en 2080-gpu's verkrijgbaar. Die reguliere 2080 wordt niet meer geproduceerd; de RTX 2070 nog wel. Daarnaast bestaat het 2020-assortiment uit de RTX 2060, die al verkrijgbaar was, en de GTX 1660 Ti, die eveneens al te koop was. De GTX 1650 Ti is nieuw voor 2020; de GTX 1050 verdwijnt uit het assortiment en wordt vervangen door de GTX 1650 op hetzelfde prijspunt. We zetten de modellen die in 2020 verkrijgbaar zijn, op een rij:

Gpu Cuda-cores Boostclock Geheugen Geheugenbus Geheugenbandbreedte TGP
RTX 2080 Super 3072 1080 - 1560MHz 8GB gddr6 256bit tot 448GB/s 80 - 150W
RTX 2070 Super 2560 1155 - 1380MHz 8GB gddr6 256bit tot 448GB/s 80 - 150W
RTX 2070 2304 1125 - 1455MHz 8GB gddr6 256bit tot 448GB/s 80 - 115W
RTX 2060 1920 1185 - 1560MHz 6GB gddr6 192bit tot 336GB/s 65 - 115W
GTX 1660 Ti 1536 1335 - 1590MHz 6GB gddr6 192bit 288GB/s 60 - 80W
GTX 1650 Ti 1024 1200 - 1485MHz 4GB gddr6 128bit tot 192GB/s 35 - 55W
GTX 1650 tot 1024 1125 - 1560MHz 4GB gddr6
4GB gddr5
128bit tot 192GB/s 30 - 50W

Belangrijk detail voor de 2020-line-up zijn de prijzen. Volgens Nvidia moet een laptop met raytracing-ondersteuning vanaf 999 dollar te koop zijn. Hoe zich dat in euro's vertaalt, is even afwachten, maar in theorie, en volgens Nvidia, is dat hetzelfde bedrag in euro's. Edit: Nvidia laat inmiddels weten dat de euro-prijzen hoogstwaarschijnlijk eerder richting 1099 euro gaan. Voorheen kon je voor die prijs een 1660 Ti kopen, zonder speciale raytracinghardware aan boord dus, maar voor dezelfde prijs moet nu een RTX 2060 mogelijk zijn. Ook op lagere prijspunten moet je meer waar voor je geld krijgen. Waar 699 dollar, en iets meer in euro, in 2019 nog goed was voor een laptop met GTX 1050 aan boord, moet je met de nieuwe modellen een GTX 1650 kunnen kopen.

Line-up 2020 vs. 2019

April 2020 Prijspunt laptops 2019
RTX 2080 Super RTX 2080
RTX 2070 Super RTX 2070
RTX 2070 RTX 2060
RTX 2060 999 dollar (1099 euro?) GTX 1660 Ti
GTX 1660 Ti GTX 1650
GTX 1650 Ti
GTX 1650 699 dollar GTX 1050

Nu lijkt het of bestaande modellen gewoon hetzelfde blijven en Nvidia de gpu's uit 2019 voor 2020 een facelift heeft gegeven. Dat is niet het geval, want de nieuwe technieken die we zo direct bekijken, werken niet op de 2019-modellen, omdat ze de benodigde hardware niet aan boord hebben. De belangrijkste verandering voor de nieuwe lichting is de Max-Q-techniek, die volgens Nvidia sterk is verbeterd.

Verbeterde Max-Q

Voor wie het vergeten was, Nvidia's Max-Q-technologie doet niet voor niets denken aan de ruimtevaartindustrie. Met de term Max-Q wordt de maximale dynamische druk bij een raketlancering aangeduid. Nvidia heeft de term geleend om laptop-gpu's aan te duiden die het beste compromis vormen tussen maximale prestaties en een laag verbruik met bijbehorende, compacte koeling. Met andere woorden: een Max-Q-gpu is bedoeld om de best mogelijke prestaties uit een dunne laptop te persen zonder dikke, lawaaiige koeling en een accu die in no-time leeg is.

De nieuwe kaarten zijn voorzien van een energiezuinigere Max-Q-implementatie, waaronder diverse technieken worden geschaard. Ten eerste krijgen de 2020-gpu's een zuiniger gddr6-videogeheugen aan boord, zodat van de pakweg 80 beschikbare watts van het powerbudget meer voor de gpu beschikbaar is. Een andere grootverbruiker van de beschikbare energie is de spanningsregulator. Volgens Nvidia gaat aan de omzetting van de spanning tot wel 12W aan energie verloren door inefficiënte regulators met een rendement van slechts 85 procent. De nieuwe Max-Q-kaarten krijgen verbeterde vrm's aan boord, die het rendement verhogen en opnieuw meer powerbudget voor de gpu overlaten.

Max-Q Dynamic Boost

Het trucje van AMD waar we het eerder over hadden, waarbij de totale koelcapaciteit van cpu en gpu dynamisch wordt verdeeld zodat vooral gpu-bound games beter kunnen presteren, heeft Nvidia ook in huis. Nvidia noemt dit Dynamic Boost en schaart het onder de noemer Max-Q. Bij Dynamic Boost wordt het zogeheten thermal budget van een laptop, bijvoorbeeld 115W, niet statisch tussen cpu en gpu verdeeld. Traditioneel werd in zo'n geval 35W voor de cpu gereserveerd en 80W voor de gpu. Met Dynamic Boost kan 15W van het cpu-budget worden afgesnoept en aan de gpu beschikbaar worden gesteld. Zo heeft een de videokaart voor een gpu-bound game dus 95W tot zijn beschikking. Volgens Nvidia wordt het budget voor elk frame bekeken, zodat altijd de optimale mix in thermals ingesteld kan worden.

Max-Q Dynamic Boost-prestatiewinst

Met een 2080 Super heeft Nvidia in diverse games gebenchmarkt wat de prestatiewinst van Dynamic Boost is. Dat komt steeds op pakweg 8 procent hogere framerates uit. Vooralsnog is Dynamic Boost alleen in laptops met Intel-processors geïmplementeerd, maar desgevraagd gaf Nvidia aan dat de techniek op termijn ook met AMD-processors zou werken.

Over processors gesproken: Nvidia heeft aangegeven dat het fabrikanten uiteraard vrijstaat oudere processors te gebruiken, maar in beginsel worden de nieuwste laptops natuurlijk voorzien van Intels nieuwe Comet Lake-processors. Het is immers niet voor niets dat de introducties van Intel en Nvidia op hetzelfde tijdstip plaatsvinden. De Comet Lake H-laptopprocessors hebben vier tot acht hyperthreading cores aan boord en zijn primair bedoeld voor laptops voor 'content creators' en gamers. De tdp van deze tiende generatie processors bedraagt 45W.

Advanced Optimus

De laatste Max-Q-uitbreiding betreft Optimus: de techniek waarbij de integrated en dedicated gpu samenwerken. Daarbij rendert de dedicated gpu beelden als de applicatie daarom vraagt, bijvoorbeeld bij 3d-toepassingen, en geeft die door aan de geïntegreerde gpu, die ze doorgeeft aan de display. Zo kan de igpu in veel gevallen het beeld renderen met een veel lager energiegebruik dan de dgpu, die alleen wordt ingezet als dat nodig is.

Max-Q Advanced Optimus

Met de nieuwe Advanced Optimus wordt het beeld niet langer via de igpu gestuurd, maar is een extra chip beschikbaar die dynamisch schakelt tussen dgpu en igpu. Zo worden de latencies verlaagd doordat de Nvidia-gpu niet langer beelden aan de integrated Intel-gpu hoeft te leveren. Bovendien is op deze manier gsync mogelijk en kunnen beeldschermen met een resolutie tot 4k met een verversingsfrequentie van 120Hz worden aangestuurd.

Raytracing en dlss 2.0

We eindigen met Nvidia's paradepaardje, realtime raytracing en de verbeteringen daarin. Voorlopig is die techniek voorbehouden aan Nvidia, want AMD heeft er nog geen hardwarematige ondersteuning voor aan boord, terwijl Nvidia daar met zijn rt-cores in de Turing-gpu wel dedicated hardware voor heeft. We kijken naar de techniek en draaien tot slot even kort een benchmark.

Nvidia dlss 2.0-werkingNvidia dlss 2.0-werking

RTX in het wild

Een leuk weetje: Nvidia zegt inmiddels zo'n 15 miljoen RTX-videokaarten te hebben verkocht. Die userbase, die met realtime raytracing overweg kan, zal met de komst van de PS5 en Xbox Series One naar verwachting een flinke impuls krijgen, een mooie reden voor ontwikkelaars om meer van de techniek gebruik te maken. Vooralsnog zijn ongeveer dertig games met RTX-ondersteuning uitgebracht of in ontwikkeling en wordt de techniek in alle api's en in de grootste game-engines ondersteund.

Een flinke stap om de prestaties van games met raytracing te verbeteren, is dlss 2.0. Die deep learning super sampling-techniek maakte tot deze nieuwe versie gebruik van een deeplearningnetwerk dat voor elke game apart moest worden getraind. Zo werden voor elke game profielen gemaakt waarmee de tensorcores beelden die in lage resolutie werden gerenderd, kunnen opschalen. De lage renderresolutie maakt het gemakkelijker voor de gpu om beelden met raytracing te renderen. Door die beelden vervolgens op te schalen kan de game toch op een scherm met hoge resolutie worden getoond.

De noodzaak om voor elke game een neuraal netwerk te trainen, maakt de implementatie kostbaar en relatief lastig. Bij dlss 2.0 wordt van een generiek profiel gebruikgemaakt. Ondanks de uniforme aanpak zouden games met dlss 2.0 er beter uitzien dan met de eerste versie. Bovendien is dlss voortaan beschikbaar voor alle RTX-kaarten en voor alle resoluties. De nieuwe versie moet minder artefacten vertonen, bijvoorbeeld bij snelle bewegingen, en bovendien tot een hogere beeldkwaliteit leiden dan versie 1.0.

Nvidia dlss 2.0 in ControlNvidia dlss 2.0 in Control

Vooralsnog zijn er maar enkele games die dlss 2.0 ondersteunen: Control, MechWarrior 5: Mercenaries, Deliver Us To The Moon en Wolfenstein: Youngblood. Om dlss 2.0 in te kunnen schakelen, is een update van Windows naar de november 2019-versie nodig en in het geval van Control is een game-update nodig. Afhankelijk van de game en de gekozen resolutie maakt dlss 2.0 flink hogere framerates mogelijk. Nvidia laat daarbij wel enkel de prestaties van dlss 2.0 in 'Performance mode' zien, terwijl het screenshots deelt van verbeteringen in beeldkwaliteit in de 'Quality mode'. Er is nog een derde instelling voor dlss 2.0 die een mix moet vormen: 'Balanced mode'.

Prestatiewinst

Wat heb je nu aan al die verbeteringen in raytracing en dlss 2.0 voor je laptop? Aangezien laptop-gpu's veel meer geknepen worden in prestaties dan videokaarten in desktops, is elk beetje extra prestatie op je gamelaptop welkom. Met extra prestaties dankzij dlss 2.0 zou je dus eerder raytracing op je laptop kunnen inschakelen, mits Nvidia's belofte van eenvoudige implementatie voor gameontwikkelaars wordt bewaarheid.

We hebben dlss 2.0 even kort getest op de dekstop, met een RTX 2070 Super, om zelf te zien wat het verschil tussen de Performance mode en de Quality mode is. Daartoe hebben we de Lab X-benchmark van Wolfenstein: Youngblood gedraaid met RTX ingeschakeld en zetten we de prestaties van beeldverbetertechniek tsaa 8x af tegen dlss 2.0.

Hoewel het natuurlijk logisch is dat Performance mode meer prestatiewinst oplevert, valt de frameratewinst van Quality mode niet tegen. We zien op 1080p nog altijd een verbetering in framerates van bijna 28 procent in Quality mode, tegen 46 procent verbetering in Performance mode. Op hogere resoluties zijn de winsten nog een stuk hoger. Op 1440p zien we 39 versus 67 procent verbetering en op 4k 49 versus 93 procent prestatiewinst met respectievelijk Quality versus Performance mode ten opzichte van raytracingprestaties met dlss 2.0 uitgeschakeld.

Tot slot

Wat de daadwerkelijke prijzen en prestaties van deze nieuwe laptops worden, moeten we uiteraard nog afwachten. Zodra we laptops met de nieuwe hardware aan boord binnen hebben, gaan we uiteraard uitgebreid onder de motorkap kijken. En de winst die de energiebesparende maatregelen van de verbeterde Max-Q oplevert, gaan we dan uiteraard ook meten.

Reacties (42)

42
41
39
3
0
0
Wijzig sortering
Als fanatiek MacBook bezitter heb ik nooit zo naar de specs gekeken - een 6 core i7 processor en een prima midrange videokaart deed zijn ding wel. Hedendaags zie ik OLED schermen, 8 core Ryzen 4000 en nu dus de Nvidia 2080 Super voorbij komen. Wat een specs. :9~ Ik kan niet wachten om een Windows laptop met MacBook-like design (mooi toetsenbord, USB-C poorten en > 8u batterij) te kopen.
Laat nu net ook Razer zijn productaanbod bijgewerkt hebben met deze nieuwe specs; https://www.pcworld.com/a...d-intel-comet-lake-h.html

:9~
De Razer Blade 15 is helaas niet in Nederland te koop. Ik wilde er een kopen maar dan moet je hem dus uit de VS laten komen (of Scandinavië, maar die hadden geen qwerty beschikbaar) en invoerrechten betalen. Wat mee het meest tegenhield was dat er behoorlijk wat quality control issues gerapporteerd worden met de Blade 15, en als ik niet eens met een Nederlandse winkel van doen heb ga ik dat risico niet lopen.
Erg jammer, het zijn wel bijzonder mooie laptops.

Edit: het ging inderdaad om het model van vorig jaar dat hier niet leverbaar was.

[Reactie gewijzigd door Masterlans op 23 juli 2024 00:42]

Ik heb er recent ook naar gekeken. Je kan via amazon.de bestellen, maar dan bestaat de kans dat je een QWERTZ toetsenbord krijgt (disclaimer staat op iedere productpagina). Erg jammer!
"Razer zal het 2020-model van de Blade 15 in Nederland gaan verkopen, voor een prijs vanaf 1800 euro. In de VS en Canada zal dat vanaf mei zijn, het is nog niet bekend wanneer dat in Nederland het geval zal zijn."

nieuws: Razer presenteert Blade 15 2020 met Intel Comet Lake-H en Nvidia RTX ...

We krijgen ze hier dus nog wel :)
Razer maakt goede laptops het is alleen jammer dat ze geen game laptop verkopen met het een wat neutraler uiterlijk. Met dat groene logo betreft het duidelijk een game laptop, en dat is toch juist waar je niet mee aan wilt komen zetten voor je werk bijvoorbeeld. Ik weet dat ze dit jaar ook een ander design hebben, maar die is helaas alleen met quatro gpu.
Ligt eraan wat voor werk je doet.
Als Game Designer kun je daar prima mee op je werk verschijnen inderdaad :+
Ja, precies. Als VR/AR developer merk ik dat het klanten vaak opvalt als je met een gaming laptop binnen komt en daar wordt altijd positief op gereageerd. Als je grafische kracht nodig hebt voor je werk is het niet gek als je een gaming laptop gebruikt.

Dat gezegd zal er waarschijnlijk genoeg interesse zijn in gaming laptops die er wat serieuzer/stijlvoller uitzien. Ik hoef niet zo nodig het hoofd van een alien op het deksel mijn laptop.
Ah en ik zie dat ze hun toetsenbord gerepareerd hebben (up arrow zat naast de shift)! Interessante optie!
Goeie opmerking! Eindelijk een normale indeling wb pijltjestoetsen.
En dat is nu juist het probleem. Je kan geen Desktop Class graphics en performance verwachten in een laptop als de batterij duur 8+ uur moet zijn. Dergelijke CPU's en GPU's vragen gewoon aardig wat vermogen en daar is niet om heen te werken dus ga je dat niet halen. Vandaar dat een Macbook bv. een middenweg is die doen een redelijke videokaart erin om meer batterij duur te halen. Als je bv naar Dell AlienWare kijkt dan haal je krap 3 uur op een charge maar performance heb je wel. Met een laptop moet je kiezen wil je gamen met hoge FPS dan lage batterijduur. Het is niet anders helaas. In mijn situatie heb ik gekeken naar hoe vaak ik echt zonder stroompunt zit dat is vrij zeldzaam dus is er een gaminglaptop gekomen.
Een gaminglaptop betekent niet direct een korte accuduur. Als je niet gamed gaat de laptop indien goed geconfigureerd gebruik maken van de onboard gpu en verbruikt je videokaart nagenoeg niets. Mijn acer v nitro ging met een toendertijd snelle 960m gewoon 6 a 7 uur op een acculading mee.
Anoniem: 474132 @iApp2 april 2020 11:07
Grappig, ik kijk juist uit naar de eerste wezenlijke Apple laptop vernieuwing om me MBP 2015 te vervangen en hoop op een Apple laptop met ARM Cpu en Apple eigen design Gpu. 😍
Ik ben ook benieuwd maar ik ga zeker geen early adopter zijn voor dat platform. Ik laat het de eerste twee jaar aan me voorbij gaan totdat de kinderziektes er uit zijn. Zo een transitie is geen kattepis.
Ik vraag me af hoe ze de laptop koel houden steeds meer power in 15 inch. Hopelijk verbeterd het koel systeem ook. Sommige laptops lijken wel vliegtuigen die opstijgen.

Zelf heb ik een rtx 2070 q Max in me laptop en gelukkig heeft hp omen een degelijk koeling systeem en geen thermal throttling.

thermal throttling Is wel een dingetje aan het worden met Midrange gaming laptops
Heb ook mijn twijfels over de thermal throttling van dunne volgepropte laptops. Heb dagelijks een zware (4,4kg) en dikke 17" ASUS ROG751 (uit dec 2014) in gebruik en die wordt goed warm tijdens het gamen. Beetje olie op de fan lagers om ze stil te houden en stof wegblazen scheelt behoorlijk in warmte afvoer capaciteit. Als ik zie hoe vol deze zit met heat pipes en koelconstructie dan vraag ik me af hoe ze dat in die dunne en 15" behuizingen goed voor elkaar krijgen.
Koeling van een notebook is er volop op ingericht om, de chips warm te laten draaien, i.e 80 graden voor een GPU of CPU in een notebook is helemaal niet gek ook. De heatpipes en mini heatsinkjes in combinatie met de fans is erop gericht de warmte zo snel mogelijk af te voeren. Alles zit echt aan de krappe kant ook, veel kan je er niet aan of mee doen eigenlijk.

Soms werkt liquid metal ter voorbeeld, of een nieuwe laag pasta in combinatie met een schoongeblazen heatsink (over tijd raken die dingen vol met stof). Anders kan je ook de CPU trachten te undervolten, waarmee je een stukje van de temperatuur af kunt schaven. Het hangt af van de configuratie en of dit allemaal toegelaten wordt.

Vaak gaan fabrikanten er ook gewoon vanuit de warmte te 'spreiden' zoals onder een grote spreader zoals die van een keyboard. Dat een notebook warm gaat worden is gewoon een feit.
Hm, in het verleden gaf Optimus altijd problemen met VR headsets vanwege de extra latency. Vraag me af of deze nieuwe implementatie dat niet heeft.
Hoe ga je deze benamingen als consument straks uit elkaar halen? Nu is het vaak al niet duidelijk of er bijv. een 2070 of 2070 Max-Q kaart in de laptop zit. Als 2070 Max-Q (2019) en 2070 Max-Q(2020) straks ook nog een verschil maken staan er wel heel veel bomen voor het bos...

Daarbij komt nog dat de 2070 sneller was dan de 2070 Max-Q (2019). Hoe zit dat dan straks met de 2020 Max-Q variant?

Verder wel mooi dat de midrange kaarten meer bang for buck worden. Een laptop met ray-tracing is nu nog behoorlijk prijzig, maar als dat straks vanaf 1000 euro kan, heb je hele mooie prestaties in een portable!
GTX 1650 Ti komt ook in nieuwe Dell XPS 15 heb ik begrepen.
Zijn die mobile gpu's grotendeels hetzelfde als hun desktopbroertjes? Qua chip en qua prestaties?
Hoe zit het met de 2060 tgp van 65 - 115W? Wat ik zo kan bij nvidea kan vinden wordt de 2060 ingesteld op max 90w tgp
Wat wordt er bedoeld met: "alleen de 2020-modellen ondersteunen de nieuwste technieken"? Mijn Asus laptop (ROG Strix G) met een RTX 2070 (non-Max Q) ondersteund toch net zo goed Ray Tracing en DLSS 2.0, als de Super-lijn? :S

[Reactie gewijzigd door Yonix op 23 juli 2024 00:42]

Dat de Framerate met dlls 2.0 hoger is geloof ik wel, maar hoe ziet het er kwa beeldkwaliteit dan uit?
Dan zal het jou zeker bevallen om te weten dat het probleem nog niet opgelost is... NVidia houdt zijn poot (en licentiemodel) stijf, dus er is geen Wayland of Optimus ondersteuning. Twee best wel belangrijke dingen.

Hier tekst en uitleg hoe je het ongeveer werkend kunt maken:
https://wiki.archlinux.org/index.php/NVIDIA_Optimus
(Ook voor andere distributies trouwens)
Hoe zit dat met AMD kaarten op Linux, werken die wel goed?
Nagenoeg perfect. AMD is heel actief in hun samenwerking met Linux en dergelijke, dus hun drivers zijn volledig geintegreert in het systeem. Je kunt een Linux ISO op een USB zetten en daar vanaf booten, en meteen je AMD kaart gebruiken.
Dat is prima nieuws :-) Dus stel ik koop een laptop met een AMD 4900HS en nVidia of Radeon kaart dan hoef ik geen problemen te verwachten? Of gaat dat alleen op als je een AMD CPU met AMD Radeon GPU combineert?
Ow, CPU's in het algemeen doen het goed, Intel of AMD zijn beide prima.
Met GPU's zit jje bij AMD beter, maar die zijn helaas niet erg goed vertegenwoordigd in de laptop markt.

De kern van het probleem zit hem eigenlijk in de zakelijke markt. NVidia verdient bakken met geld door GPU's te verkopen met premium licenties: Quadro kaarten werken het zelfde als GeForce kaarten, maar door de gesloten firmware weigeren GeForce kaarten te werken bij bepaalde opstellingen betreffende tot servers. Als NVidia beter zou willen samenwerken met Linux, dan zouden ze hun drivers onder de GPL licentie beschikbaar moeten maken en dan kunnen ze deze zakelijke truc niet meer uithalen.

O, houdt er wel rekening mee dat als je state-of-the-art hardware wilt draaien, dat je ook een Linux Distributie moet gebruiken welke niet te conservatief is met updates. Kijk in dat geval naar Fedora, Manjaro of Suse Tumbleweed.

Edit:
Hier kun je zoeken op hardware:
https://linux-hardware.org/

[Reactie gewijzigd door Eonfge op 23 juli 2024 00:42]

Laatste wat ik las is dat AMD linux drivers ruk zijn maar open, Nvidia linux driver goed maar gesloten. Is dat nu verandert?
Best wel. Niet alleen AMD, maar ook bedrijven zoals Valve en Collabora zijn hard aan het investeren in de AMD GPU drivers. Deze drivers kun je namelijk zonder premium licentie kosten in server parken gebruiken, wat als muziek in de oren klinkt voor game streaming services.

Houdt er rekening mee dat het vooral veranderd is voor GPU's van de afgelopen paar jaar. De oudere GPU's krijgen minder aandacht en alles van voor 2012 is afgeschreven.

Hier een spreadsheet:
https://www.x.org/wiki/RadeonFeature/
NVidia houdt zijn poot (en licentiemodel) stijf, dus er is geen Wayland of Optimus ondersteuning.
Van de Arch Linux wiki:
Using PRIME render offload

This is the official NVIDIA method to support switchable graphics.
Optimus wordt dus wel officieel ondersteund. Of het goed ondersteund wordt is iets anders. ;)

Verder is Linux gebruiken, notebook gebruiken en Nvidia gebruiken zo'n subgroep van een subgroep van een subgroep dat het voor Nvidia waarschijnlijk niet interessant is om hier energie in te steken. Het is wachten wat AMD gaat doen op discrete GPU gebied, en of notebookfabrikanten daarmee aan de slag gaan.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 00:42]

Zo'n sub-sub-subgroep is het niet. Als je iets met Deep Learning doet, zit je op Linux en heb je een NVIDIA GPU nodig (AMD GPU's zijn niet supported in de grote DL libraries). Dan heb je inderdaad nog servers en de cloud, maar voor even een beetje test trainen en demonstraties geven van getrainde networks is een Linux laptop met NVIDIA GPU toch echt wel ideaal. Aangezien DL ("AI") steeds populairder wordt onder self-learners, is die groep waarschijnlijk een stuk groter dan jij denkt.

Ik gebruik zo'n laptop dan ook voor persoonlijk gebruik en heb daarom Windows voor gamen, maar ik had toch graag gezien dat ik fatsoenlijke Wayland / Optimus kon gebruiken. Je hebt waarschijnlijk wel gelijk dat zo'n laptop vaker aan de stekker ligt, dus een goed functionerende switchable graphics is een lagere vereisten. Al heb ik de integrated GPU uit moeten zetten, omdat ik anders tegen allerlei driver problemen liep.
Voor neural nets en learning gebruik ik liever GPU omdat dit gewoon veel sneller is tov CPU.

Helaas dus alleen op Nvidia bij sommige libraries. Dat als reden noemen om te kiezen voor Nvidia is pragmatisch als eindgebruiker, maar feitelijk geen fatsoenlijke reden omdat je er een monopolie mee stimuleert
Zo'n sub-sub-subgroep is het niet. Als je iets met Deep Learning doet,
Dat is een sub-sub-sub-subgroep. Hoe groot is de groep deep learners (die per se lokaal willen werken in plaats van veel efficiënter op servers) en Linux Nvidia notebookgamers t.o.v. deze groepen gescheiden?

[Reactie gewijzigd door The Zep Man op 23 juli 2024 00:42]

Er is geen officiele manier om Optimus te gebruiken zoals de marketing praat van NVidia het aanprijst. Als je Render Offloading gebruikt, dan is je batterij binnen een uur leeg, ongeveer het tegenovergestelde van wat Optimus bedoelt is te doen. 8)7
Er is geen officiele manier om Optimus te gebruiken zoals de marketing praat van NVidia het aanprijst. Als je Render Offloading gebruikt, dan is je batterij binnen een uur leeg, ongeveer het tegenovergestelde van wat Optimus bedoelt is te doen. 8)7
Als Nvidia het aanprijst dan is dat de officiële manier. Of dat optimaal (:+) is, is wat anders.
Zijn comment is niet onderbouwd maar heeft nvidia iets gedaan sinds 2012 voor linux ondersteuning?
Als dat niet zo is dan is de video nog steeds relevant, ook al is deze een beetje cru.
Reageerde ik al net op. NVidia houdt zijn poot stijf en de problemen die daar uit voorkomen zijn nog steeds een doorn in het oog van vele.

Op dit item kan niet meer gereageerd worden.