Door Jelle Stuip

Redacteur

Een verklede 4070 met identiteitscrisis

Mobiele RTX 5070 en 5060 Round-up

08-06-2025 • 06:00

69

Singlepage-opmaak

Conclusie

In deze round-up hebben we gekeken naar de eerste laptops met RTX 5060- en RTX 5070-videokaarten. Die nieuwe gpu's weten niet echt indruk te maken. Vooral de 5070 komt niet goed uit de verf. Dat kon je al een beetje aan de specificaties zien, want hij mag minder energie gebruiken dan de 4070 en heeft er geen CUDA-cores bij gekregen. Het resultaat is dat er laptops met een RTX 4070 in verschillende games sneller zijn dan de Gigabyte en BTO met RTX 5070. Er valt wellicht nog iets meer uit een RTX 5070 te persen als je hem combineert met een snellere processor, maar het is de vraag hoeveel. Daarnaast lijkt het erop dat Nvidia de 5070 niet al te snel heeft willen maken, omdat dan het bestaansrecht van de 5070 Ti in gevaar komt.

De belangrijkste eigenschap van RTX 50-videokaarten, multiframegeneration, overtuigt ook niet; bij deze kleinere gpu's zijn er ook minder Tensor-cores aanwezig om het genereren van extra frames voor hun rekening te nemen. Indrukwekkende framerates die we op RTX 5080- en RTX 5090-videokaarten daarmee konden behalen, zie je bij deze videokaarten niet.

Bij de RTX 5060 zien we wel wat verbeteringen ten opzichte van de RTX 4060. De RTX 5060 in de BTO 15X1352 is in vrijwel alle gevallen sneller dan laptops die we met RTX 4060 getest hebben. Ook dat kon je al enigszins voorspellen op basis van de specificaties, want de 5060 heeft wél meer CUDA-cores dan de 4060.

Genoeg over de videokaarten; wat vinden we van de laptops zelf? Laten we beginnen met het moeilijkste verhaal: de Gigabyte. Dat is een laptop die er mooi uitziet dankzij zijn dunne behuizing. Als je hem vastpakt, blijkt dat dun in dit geval ook 'niet stevig' betekent, want de behuizing buigt wel heel makkelijk mee. Dan vallen er ook andere dingen op zoals de USB 2.0-poort die niet thuishoort op een laptop van 2300 euro. Er zit op zich een prima scherm in, met een hoge resolutie en goede responstijden, maar dat is ook wel in lijn met de prijs en stiekem had het voor dat geld nog wat strakker gekalibreerd mogen zijn. Het grootste nadeel aan de Gigabyte zijn echter de gameprestaties. De configuratie van de videokaart op 70 watt (+ 15W dynamic boost), zorgt ervoor dat de laptop langzamer is dan de goedkopere BTO, die zelfs een langzamere processor heeft. Gigabyte benadrukt dat ook in de marketing en de RTX Studio-sticker laat ook zien dat dit een laptop voor creators is. Toch is het iets om rekening mee te houden, want de ene RTX 5070 is de andere niet.

De BTO met dezelfde videokaart is te krijgen voor een kleine 1600 euro, maar kost in de configuratie zoals wij hem getest hebben 1800 euro. Dat is geen gekke prijs, want ondanks de verouderde processor kan de laptop goed meekomen in games. Je merkt aan andere dingen wel dat het een instapgamelaptop is. Biometrisch inloggen is er niet bij en het scherm is weliswaar goed gekalibreerd, maar de responstijden maken het niet echt geschikt voor snelle games. Ook de harde plastic behuizing voelt niet echt premium aan, maar is in tegenstelling tot die van de Gigabyte wel stevig. Ook hier zit nog een onverklaarbare USB 2.0-aansluiting op.

Tot slot testten we dezelfde laptop ook met RTX 5060-videokaart en dat is voor een instapgamelaptop misschien de aardigste optie. Hij is te configureren vanaf een kleine 1400 euro en heeft dezelfde behuizing en scherm als zijn duurdere broer met 5070-videokaart, maar is zoals gezegd wel sneller dan laptops met een RTX 4060. Of we dan meteen de goedkopere BTO zouden bestellen? Op dit moment waarschijnlijk niet. Dat valt vooral Nvidia aan te rekenen, want er zijn op dit moment nog genoeg laptops met RTX 4070 te krijgen. Die kosten minder en presteren beter.

Redactie: Jelle Stuip Testlab: Marc van Lom, Niels van der Waa, Tim de Groot Eindredactie: Marger Verschuur

Reacties (69)

69
69
23
1
0
36
Wijzig sortering
Ik snap nog steeds niet waarom Nvidia nou zo enorm terughoudend is met de VRAM. Dan koop je een dure laptop, kan je over een paar jaar een gloednieuwe kopen omdat nieuwe games er niet meer fatsoenlijk op willen draaien :'(
Ik ben verdeeld op dit onderwerp.

Aan de ene kant kan ik populistisch denken dat Nvidia hier bewust ordinaire planned obsolescence toepast. Dat is niet leuk en wel erg effectief.

Anderszijds vind ik de toegenomen VRAM consumptie geen effectief voordeel oplevert voor mij als gematigde gamer. Een game als Battlefield 1 vind ik nog steeds een van de mooiste spellen die ik ooit heb gespeeld: en komt met een 4 (3,5 + 0,5) GB GTX 970 prima uit de voeten. Misschien vindt Nvidia het ook belachelijk worden (welliswaar aannemelijk commercieel gemotiveerd). Stel je voor dat Nvidia er nu dus voor zorgt dat games op korte termijn minder VRAM nodig gaan hebben, omdat Nvidia dit bewust stuurt, dan is dat dus een gewonnen slag in optimalisatie-land.

Derde punt: ik heb erg het gevoel dat het hele debat over VRAM wordt gedomineerd door een minderheid die het onderste uit de kan wil, maar niet de volle mep wil betalen. Als gematigde gamer ben ik al 20 jaar gewend niet het hoogste budget uit te geven. Ik ben er ook ingetrapt en heb redelijk recent een 7900XT (20GB) gekocht, omdat ik overal las dat 16GB het absolute minimum is/begint te worden - dus 20GB is lekker futureproof, was de gedachte. Natuurlijk zijn er situaties dat minder VRAM op mijn 3070 (8GB) een bottleneck in prestaties is, maar mijn ervaring is dat dit nul impact heeft op mijn ervaringen. Ik ken de video's en reviews waarin de impact van te weinig VRAM keurig onderzocht wordt. Maar wat deze allen gemeen hebben: ze beoordelen vaak niet hoe (in)significant deze impact is voor een casual gamer als ik. Ik geef geen fluit om een ingekrompen render distance, shadow pop-in of een verlies van 20fps in de 99p scores. Ik wil gewoon lol hebben en ik merk dat 12GB meer VRAM hier verwaarloosbaar effect op heeft.

Kortom: als gamers minder kritisch zouden zijn, game studios efficiëntere games maken die meer focussen op lol dan visuele perfectie, dan neem ik het Nvidia helemaal niet zo kwalijk dat ze realistisch terughoudend zijn met de VRAM op hun kaarten voor de massa. Dit remt immers ook dat devs doorslaan en games totaal onbereikbaar worden.
Voor pakweg 300e heb je al 12GB kaarten, Vram is helemaal niet zo duur en daarom is je opmerking onterecht dat de gamers voor een dubbeltje op de eerste rang willen zitten. Dit is de omgekeerde wereld. De fabrikanten creéren dit om er de maximale marges uit te halen, niets meer en niets minder.
Sorry dan moet je beter kijken naar games die echt de hogere memory gebruiken de texture kwaliteit is gewoon flink hoger. Daarnaast hebben alle console meer dan 8 GB memory wat betekend dat game developers ook niet meer op 8gb mikken want die limiet is er niet voor hun.
Hij geeft aan dat hem dat niet boeit. Mij doet het ook niet echt wat meer. Vroeger vond ik het ook erg belangrijk. Nu speel ik Hades, Rocket League en tig andere games die zelfs nog op een GTX 1050 probleemloos draaien.
Alles draait probleemloos, totdat je een 144HZ 2160p scherm aansluit.
Natuurlijk speelt een midrange videokaart van +/- 10 jaar geleden de games van +/- 10 jaar geleden prima, had je wat anders verwacht dan?

Het probleem is dat de nieuwste spellen meer VRAM vereisen dan dat sommige van de nieuwste videokaarten hebben, ga dus of zeuren tegen game developers dat hun games 'te mooi zijn' of tegen Nvidia/AMD dat '8 GB niet genoeg is voor de games van nu'... Zeuren tegen andere gamers dat ze 'te veeleisend zijn' is anderen vertellen dat ze, net als jij, maar in het verleden moeten blijven hangen terwijl dat objectief bezien helemaal nergens voor nodig is, Nvidia en AMD zijn nog nooit zo gierig met VRAM geweest als nu i.v.m. de vereisten van games.
Ik ontken zeker niet dat games tegenwoordig meer VRAM vereisen, maar wel dat ze effectief veel mooier zijn. Sterker nog, dat is mijn hele punt: de spellen vereisen het, maar ik heb het gevoel dit niet terug te zien in het eindresultaat. Dit voelt voor mij als verloren resources.

Een BF1, Star Wars Battlefront 1 en 2 zijn visueel spectaculair mooi en sfeervol en kunnen zich goed meten met games uit 2025 (of overtreffen deze).

Onlangs (heel ander spel) Star Wars Outlaws gespeeld. Ook prachtig, maar niet 10 jaar ontwikkeling meer prachtig.

Dit voelt voor mij uit balans en had in mijn naïviteit het tegenovergestelde verwacht.

[Reactie gewijzigd door E!Ma0RB7 op 8 juni 2025 19:03]

Hoezo ook AMD hierbij beschuldigen van gierigheid? De AMD 9060 16GB koop je onder de 400 euro en de 9070 is sowieso met 16GB. Er is deze generatie geen 9080 of 9090 bij AMD, is altijd al duidelijk geweest. Dus die 7900 serie komt volgende generatie pas weer en dan hopelijk 32GB maar wel waarschijnlijk een prijs van duizend euro of meer. Niet het segment waar deze review over gaat toch?

[Reactie gewijzigd door OruBLMsFrl op 8 juni 2025 23:29]

Nvidia en AMD verkopen beide 8GB kaarten als 5060 Ti en 9060 XT, die versies zouden niet moeten bestaan, 'kat in de zak' videokaarten!
Van mij persoonlijk hadden ze die 8GB modellen ook achterwege gelaten hoor, en dan een 9050, 5050 met 8GB gedaan. Dan is het wel transparant naar de consument dat je een tier lager koopt met 8GB.

Tegelijk is het in de 1080p benchmarks wel echt nog zoeken naar de grote verschillen tussen 8 en 16. Die mensen van de marketing afdeling weten dat ook, voor spelers van bijvoorbeeld enkel fortnite en moba's. Plus naar system integrators verkopen ze natuurlijk graag dat typenummertje hoger aan de nietsvermoedende consument welke toch vaak wel voor een dubbeltje op de eerste rij wil zitten... ook daar weer, persoonlijk vind ik het volksverlakkerij en daar doen welhaast alle bedrijven aan mee lijkt het. Wie er ooit mee begon weet niemand meer... maar uitstappen is wel heel lastig, je ziet het al gebeuren van bij AMD krijg je de 50 en bij Nvidia wel de 60 voor die prijs..

[Reactie gewijzigd door OruBLMsFrl op 9 juni 2025 14:59]

  • Ik vind 8GB geen probleem op goedkope kaarten die ook een GPU hebben die niet meer aankan.
  • Daarnaast is het heel verwarrend voor consumenten als je hetzelfde model met dezelfde naam in twee versies uitbrengt.
Ik vind een GTX5050 met 8GB geen enkel probleem. of een RTX5055. Maar het is duidelijk dat zeker de GPU in de 5060 Ti de 16 GB kan gebruiken en dan veel beter presteert in moderne games.
Nvidia hier bewust ordinaire planned obsolescence toepast.
Dat kan linke soep zijn want ze hebben AMD hijgend in hun nek. Ik zie nog dat er 9060(XT)/9070(XT) kaarten komen voor zulke laptops en dan kan AMD het lachen niet vergaan.
Vram moet bij de kaart passen + wat extra voor de toekomst en ook nog ruimte voor professionele taken zeker bij high end kaarten. 5060 heeft wel 16GB versie maar dit had op de 5070 echt standaard moeten zijn. 5080 met 16GB is schandalig. Als je op 1920*1080 speel of 2560*1440 dan gaat het nog. Op 4k kunnen sommige titels last krijgen. 5080 rtx is gewoon een 4k kaart. Geheugen is behoorlijk goedkoop denk als je dan toch al imbeciele bedragen neerlegt 100 euro meer voor 50% meer vram prima. Kunnen ze wellicht afwijken naar iets goedkoper geheugen maar als je meer dies laat samen werken hebben ze toch dezelfde snelheid als dure dies met hoge bandbreedte. Zie het als je 2 pci 4.0 nvme ssd in raid 0 doet dan heb je 8 TB tegen over 4 TB nvme 5.0 en bijna zelfde snelheid/prijs wel dubbele opslag. Bij geheugen schaalt dat nog iets beter op dezelfde pcb. Iedergeval GPU wil je toch leeftijd van 6-8 jaar geven en mee wil komen in toekomstige spellen met grote textures die meer vram vreten. Ik vind persoonlijk dat vele kaarten tekort komen of erg krap zitten. Je ziet bij beide kampen dat ze ook op budget kaarten best wat geheugen kunnen plakken zonder dat het een grote meer kosten is.

[Reactie gewijzigd door bigkillerstorm op 9 juni 2025 01:22]

Ik lees hier een verhaal over iemand met weinig game kennis. Casual gamers gamen regelmatig een moderne titel... En niet altijd 1080, regelmatig zelfs 1440p of 4k.
Je leest vooral mijn persoonlijke mening, hè ;).
En eens zoveel gamers komen niet verder dan league of legends.
En de resolutie die je speelt? Als je 1080p speelt dan snap ik het wel
< 2019: 1080/60Hz

2019 - 2023: 4K/60 Hz (eerste jaar 4K gegamed op een GTX 970 - in BF1 kon dat)

2023 - heden: 1440p/175Hz.

Vanmiddag voor de gein even mijn oude 970 erin geprikt en BF1 opgestart: 1440p op Medium/High @ 70 - 105 fps, ziet er fantastisch uit imho. VRAM komt niet boven de 3450 MB. Nu, 10 jaar later heb ik naar verluidt opeens 16GB (meer dan 4x zoveel) "nodig" voor wat ik marginale winst vind.

Hier gaat toch iets helemaal scheef. Hoe heeft DICE dit toen geflikt? Waarom kan dat nu niet meer?

Naja... I rest my case. Ik zit de komende poos sowieso gebakken met mijn 'overkill' 20GB 7900XT.
We hebben het over een spel uit 2016 toen 8GB nog niet eens super relevant was? Probeer nu even Monster hunter wild bijvoorbeeld?
Lees z’n bericht nog een keer…
For shits and giggles: het draait op een 970. En daar is dan ook alles mee gezegd.

Check vooral het lage LOD van het monster. Geweldig.

Dit spel ziet er in 2025 met een kaart uit 2014 uit als een spel uit 1998.

Sorry voor deze niet serieuze reply, maar wilde dit pareltje graag met jullie delen.
Hier gaat toch iets helemaal scheef. Hoe heeft DICE dit toen geflikt? Waarom kan dat nu niet meer?
Voornamelijk texture resoluties. Bij last-gen zag je nog duidelijk dat textures onscherp waren, dus is de resolutie in beide assen verdubbeld (een tussenstap bestaat niet), waardoor het VRAM gebruik van die textures grofweg x4 gaat. Bij de meeste games is dit probleem dan ook alleen maar aanwezig als de textures op de hoogste resolutie staan.
Dank voor je inhoudelijk reactie!

Ik heb intussen wat zitten lezen en vergelijken om te achterhalen waar de afgelopen 10 jaar de VRAMs mee gevuld zijn.

Textures zijn de inkoppers, maar dat was met BF1 dus ook al "onder controle". Maar veel is ook gegaan naar (uiteraard) nieuwe (en meer) post processings technieken, raytracing en complexere omgevingen (grotere renderings distances met meer gedetailleerde models).

Is het zichtbaar? Zeker! De moeite waard? Daar kunnen we stevige kop koffie over drinken.

Het wrange is dat niet elke vooruitgang in deze techniek een proportioneel positief visueel effect heeft en soms zelfs een visuele achteruitgang wanneer de nieuwe techniek nog niet zo goed is als de volwassen oude techniek. (Mag ik in Star Wars Outlaws de haarshader aanhalen? Wat is dit, haha?)

Ik denk dat we op dit moment dus in een vervelende overgangsfase zitten waar dus vanalles kan (nieuwe technieken) waarbij de potentie enkel (nog?) alleen mogelijk is met ruwe brute kracht. Die brute kracht heeft zo zijn prijs en Nvidia maakt dankbaar commercieel gebruik van de vette worst die iedereen voorgehouden wordt en geeft met de beperking van VRAM mensen het laatste zetje meer uit te geven dan men eigenlijk wil of kan.

De tijd zal leren waar we op uit komen. Laten we hopen dat er in de tussentijd game devs overblijven die af en toe leuke, mooie games maken die niet disproportioneel veel vergen van onze systemen.
Ik speel ook vele oude games, maar ik begrijp dat reviewers zich daar niet op kunnen richten. Die moeten kijken of een kaart aan te raden is als investering voor de komende 3-5 jaar. Dus daarbij is het logisch om vooral naar games te kijken die het laatste jaar uitgekomen zijn.

Maar de meeste games die ik speel doen 4K @60Hz op een GTX 980. (mijn oude PC).

Sommige echter niet, en dan ben ik wel blij met mijn 6900XT 16 GB zodat ik ook nieuwe games op 4K 60Hz kan spelen.

Mijn grootste problemen met de huidige kaarten zijn:
1) Er zit duidelijk een GPU core op die veel beter presteert met 16GB dan met 8GB. Als het een RTX/GTX5050 was met een core die prima 8GB kan gebruiken maar met 16GB niet meer fps doet, en de prijs is daarnaar, dan heb ik geen probleem met een 8GB kaart.
2) Mijn tweede punt is daaraan gerelateerd. Ik vind het misleidend als je een kaart uitbrengt met dezelfde naam, maar twee configuraties die heel verschillend presteren onder bepaalde omstandigheden. Als ze de ene de RTX5060 Ti noemen en de andere de RTX5055 dan heb ik er al veel minder een probleem mee.

Ook als ik vooral Dwarf Fortress en Cataclysm: Dark Days Ahead zou spelen, dan nog vind ik niet dat dat de games zouden waar een nieuwe videokaart op ontworpen zou moeten zijn, of als vergelijking gebrukt wordt.
Derde punt: ik heb erg het gevoel dat het hele debat over VRAM wordt gedomineerd door een minderheid die het onderste uit de kan wil, maar niet de volle mep wil betalen.
Dit dus. Ik vind het topic ondertussen cringe.

Net alle reacties onder jou reactie gelezen, en effectief, een groot deel voelt raar aan. Er wordt gegrepen naar vanalles en nog wat om jou statement onderuit te halen.

“Je moet kijken naar betere games.”
“Op welke resolutie speel je dan?”
“Ik lees een verhaal van iemand met weinig game kennis…”
Deze tweakers mogen zichzelf schamen.

Jou reactie leest als de enige met ervaring en wijsheid. Na 30 jaar gamen en 25 jaar zelf pc’s te bouwen deel ik al lange tijd dezelfde mening. Toen ik men eerste high end pc bouwde (ATI HD5870) ben ik jaren men interesse in computers en gaming verloren, om de een of andere reden haalde het alle passie er uit voor mij.

[Reactie gewijzigd door BlaDeKke op 9 juni 2025 16:31]

Na dit bericht begint het wel heel erg naar stront te ruiken. We zitten inmiddels al in 2025 hé. Pak je tijdmachine en verdiep je eens wat verder in de huidige tijd. Ah fuck je tijdmachine werkt wss niet met maar 1028 mbit aan ram. Maar wacht dat is het vram uit 2009? Dat is 16 jaar geleden en niet 25...
Veelvouden van 16 en de juiste eenheid te moeilijk?

[Reactie gewijzigd door BlaDeKke op 10 juni 2025 04:38]

En het blijft maar stinken.
En het lijkt op laptops zelfs nog erger te zijn dan desktops ook. Waar je met een desktop nog de mogelijkheid hebt voor een relatief betaalbare 5060Ti 16GB is er voor laptops helemaal niks in dat segment. Behalve een hele hoop geld bijleggen en voor een model met een 5080 Mobile gaan dan.

En waar een 8GB desktop kaart nieuw al geen slimme keuze meer is kost die 'fout' je worst case iets van 300-400 euro als je die vroegtijdig moet vervangen door iets met meer Vram. Deze laptops zitten allemaal zo rond de 2000 euro en durf ze nu al bijna obsolete te noemen eigenlijk, zou dit dan ook helemaal niemand aanranden. Juist voor laptops zou je meer Vram willen hebben relatief aan de Core omdat je de videokaart niet kunt vervangen.
Wat mij verbaast is dat deze situatie eigenlijk compleet is omgekeerd ten opzichte van wat het een aantal jaar geleden was. De GTX 880M kon je twaalf jaar geleden al met 4 of 8GB ram krijgen, terwijl de desktop-GTX 680 en 770 waar hij van was afgeleid meestal 2GB hadden. 8GB lijkt me eigenlijk ook overkill voor zo’n kaart.

Ook goedkopere laptopchips kregen rond die tijd vaak best van ram mee, maar dat was meestal nog ddr3 (en dat was toen ook al hopeloos voor videokaarten). Op zich is het denk ik wel goed dat we die tijd van low-end dedicated gpu’s in laptops achter ons hebben gelaten.
Op zich heb je bij een laptop dan het voordeel dat je op een 15” scherm prima op 1080p kan gamen en dan is dat ram weer niet zo een issue
Mijn laptop hangt om te game altijd aan een 32” 1440p scherm. Maar dat lukt nog goed met een 2070 super maxq 8GB. Maar verder ben ik wel helemaal mee in het verhaal dat nu een gamelaptop kopen met 8GB vram niet het slimste is.

[Reactie gewijzigd door BlaDeKke op 10 juni 2025 19:55]

Daarom dus, omdat Nvidia wilt dat jij over een paar jaar weer een nieuwe laptop koopt.
Je koopt geen laptop van Nvidia, dus je kunt niet zeggen dat Nvidia dat wil (zonder 't'). Je koopt een laptop met een Nvidia- of AMD-GPU, gemaakt door een andere fabrikant.

Ik ben geen fan van gaminglaptops, maar ik ga ervan uit dat iemand die het geld heeft voor zo'n duur apparaat zich ook goed informeert over de specificaties, de mogelijkheden en eventuele beperkingen op lange termijn. Je "haalt" niet elk halfjaar een nieuwe, zal ik maar zeggen.
Bij de 5060 laptop versie is dit wel logisch. Kosten zijn een dingetje en ook met 12 of 16gb gaat hij niet geweldige prestaties halen.

Ik zelf ben best tevreden met mijn goedkope gaming laptop met een 4060, maar ik snap ook wel dat dit veel trager is dan een desktop.
Maar Indiana Jones op medium settings heeft wel 10GB VRAM nodig om zonder stutters te spelen. Het gaat helaas al lang niet alleen meer over Ultra texture settings zoals Monster Hunter die al boven de 16GB gaat.
Het is een instapper, prijs is echt wel een bepalende factor.
Precies, ik heb net een laptop gekocht en precies de afweging gemaakt die in het artikel wordt beschreven. En ben uiteindelijk voor de 4070 gegaan ipv de 5060/70.

De prijs en het aantal tops was voor mij de doorslag gevende factor.

De prijs van de 50serie laptops ligt nu zo'n 750 hoger. De tops liggen lager voor de zelfde versie van de 40serie. Of je moet voor de ti versie gaan.

Ik hoop dat het aantal GB wat de cpu aankan drastisch omhoog gaat de volgende twee generaties en dat de gpu dit volgt.
Apart dat de gpu straks standard meer geheugen aan boord heeft dan de cpu zelf.
Ik blijf de naamgeving van Nvidia echt onzin vinden. Dezelfde naam gebruiken op desktop en mobile ookal presteren ze compleet anders.

De enige reden die ik kan bedenken om dit te doen is om mensen te misleiden.
Het geeft ook hierarchy aan, daarvoor is de naamgeving consistent houden wel handig. Maar wel eens dat onderscheid tussen mobiel en desktop beter kan.
Maar dat ze dan gewoon RTX9050M, RTX5080M, RTX5070M en RTX5060M moeten noemen, de huidige benaming is dus wel degelijk om de boel te bedotten.
Ik begrijp beste dat ze dezelfde volgorde in naamgeving aan willen houden. Maar door er niet meer de 5070M of 5080M van te maken gaan veel mensen verkeerde zoek resultaten krijgen.

Als ik nu zoek naar “hoe snel is de RTX 5080?” gaat het gros van de resultaten over de desktop GPU. En ik verwacht dat veel mensen niet verder zoeken omdat ze niet weten dat er zo’n groot verschil is.
Ik kocht na de aankondiging van de nieuwe kaarten een MSI Vector 16 met 4080. Prijs lag rond de 2000 euro toen.
Als ik de prijzen en prestaties nu zie heb ik het gevoel een heel goede zet gedaan te hebben.
Ja ik ben ook blij met de nieuwere versie van MSI met 5070ti erin, als ik zo kijk naar de benchmarks presteert ie beter dan deze 3 laptops en gelukkig gekocht voor 1899 :-)

Mebus in 'ASUS Zephyrus G14 met 5070 Ti - 'Ultrabook' van 1,5kg en gamelaptop ineen'

Hier wat kleine benchmarks van die laptop.
Ik blijf erbij dat het oplichting is om laptop GPU's onder dezelfde naam als hun desktop varianten te verkopen terwijl ze minder presteren.

Dit is alsof een Marktplaats verkoper je een 5080 stuurt terwijl je een 5090 had besteld.
Als de 5060 laptops max 1000-1100 euro zijn is het best een solide kaart.
Ik gok dat je 12-1300 kwijt bent voor een Asus TUF met 5060(zelfde als de 4060). Ik ben redelijk tevreden met die laptop kan de spellen die ik wil spelen goed draaien.
Interessant stuk!

Ik ben benieuwd naar het volgende:

Voor functies zoals Copilot+ wordt vaak de NPU genoemd, bijvoorbeeld de AMD Ryzen AI 9 HX 370 met 50 TOPS. Is de GPU in dit geval ook van toegevoegde waarde voor Copilot+?

Worden de NPU en GPU gecombineerd ingezet, of draait alles puur op de NPU?

En hoeveel TOPS leveren mobiele GPU’s eigenlijk? Lokaal renderen klinkt voor creators juist wel interessant, zeker omdat één van de laptops ook op die doelgroep gericht is.

Iemand die hier meer technische achtergrond over heeft?
8GB VRAM is echt te laag voor deze nieuwe generatie, de meeste consoles hebben al vaak al 12GB tot 16GB (VRAM) tot hun beschikking. Op de PC merk je het verscchil al bij bijvoorbeeld Indiana Jones The Great Circle, op 1080p met maximale gragische instellingen, loopt de 8GB VRAM meteen vol.

Zelf nu twee jaar in het bezit van een Lenovo Legion met AMD Ryzen 7 7840HS en een nVidia RTX 4070 (140 watt TGP), ik wilde graag upgraden, maar als ik de reviews zo bekijk is alleen een mobiele nVidia RTX 5070 Ti een stap omhoog. De nVidia RTX XX80 en XX90 neem ik nooit in een laptop i.v.m. de hitte en vaak continue fans die aanstaan. als je van een stille game laptop houdt met browsen en Office werkzaamheden neem dan een laptop met ook een iGPU, die zijn met normaal gebruik vaak fluisterstil en je hoort de fans dan alleen met gamen.
Mwah, als een game uitkomt en niet eens op 1080p speelbaar is op moderne kaarten skip ik gewoon die game. Compleet onnodig.
Deze 5060 is echt wel heel traag, om daar nou meer geheugen in te zetten en de prijs fors te verhogen is niet zon enorme vooruitgang. Het is een laptop, dus koeling van dat geheugen is ook een dingetje.

De 5060 is de instapper, dus prijs wordt extra belangrijk. Bij de 5070 wordt het logischer, al is die ook niet bepaald rap.
Volgens mij missen op pagina 1 nu nog de specs van de Mobiele RTX 5070 en 5060 waar dit artikel over gaat :Y)
Ch3cker Teamlead Testlab @svenk918 juni 2025 08:47
Bekijk je de pagina op mobiel? Je kan de tabel naar rechts scrollen, daar staan de 5070 en 5060!
Daar zit het em idd. Het is op een tablet niet goed te zien dat je door de tabel kan scrollen.
Altijd opletten geblazen met dure game laptops, er zitten vaker wel dan niet cheap ass display panelen in.

Zeg maar gerust, om te janken. De een na laatste was een MSI, met een ronduit goor RGBW scherm en smerig pixel array.

De Razer Stealth 120hz 2020 was daaren tegen wel een prachtscherm en zelfs bright genoeg voor buiten gebruik.

Sindsdien wel klaar met game laptops. Ik zie serieus de meerwaarde niet.
Draagbaarheid maar dan kun je tegenwoordig net zo goed een mini-ITX-systeem bouwen. Je hebt met zo'n apparaat toch stroom nodig omdat die accu binnen een uur gamen leeg is en iedereen heeft een (tegenwoordig meestal 4K) TV dus het scherm hangt al aan de muur.
Maar dan moet je dus ook een portable monitor en toetsenbord extra meenemen. En de meeste portable monitors hebben geen accu, dus extra kabel ook daarvoor. En degene die wel een accu hebben hebben vaak een lagere helderheid op de accu.

Laptops zijn portable, Mini ITX is semi portable


Om te kunnen reageren moet je ingelogd zijn