Nvidia's gamingafdeling draait recordomzet, die van datacenters tien keer zoveel

Nvidia's Gaming-divisie was afgelopen kwartaal goed voor een recordomzet van 3,76 miljard dollar. Ook de Data Center-afdeling bracht met 39,11 miljard dollar nog nooit zoveel geld in het laatje. De totale omzet is twee derde hoger dan een jaar geleden.

De techgigant realiseerde een omzet van 44,06 miljard dollar in het eerste kwartaal van boekjaar 2026, dat afliep op 27 april 2025. Dat is een stijging van 12 procent ten opzichte van het voorgaande kwartaal en 69 procent meer dan hetzelfde kwartaal in het voorgaande jaar. De overgrote meerderheid van dat bedrag is afkomstig van de Data Center-tak, die met 39,11 miljard dollar 73 procent meer opbracht dan een jaar geleden. In vergelijking met het voorgaande kwartaal gaat het om een relatief bescheiden stijging van 10 procent.

Naast datacentra heeft ook de gamingdivisie een recordomzet van 3,76 miljard dollar gerealiseerd. Dat is 48 procent meer dan het kwartaal daarvoor en 42 procent meer dan een jaar geleden. Nvidia schrijft dat de recordopbrengst onder meer te danken is aan de RTX 5070 en RTX 5060 Ti, die afgelopen kwartaal op de markt kwamen. Het is niet duidelijk in welke mate de Nintendo Switch 2, waarvan Nvidia de processor levert, heeft bijgedragen.

Nvidia is ook optimistisch over het huidige kwartaal. Zo verwacht de chipontwerper een nieuwe kwartaalomzet van 45 miljard dollar. Dat bedrag houdt rekening met de maar liefst 8 miljard dollar die het bedrijf naar eigen zeggen misloopt omdat het zijn H20-accelerators wegens strenger geworden exportregels niet meer mag verkopen aan Chinese bedrijven. Een maand geleden zei Nvidia nog dat het bedrijf hier 5,5 miljard dollar op zou verliezen.

Nvidia Earnings Q1 2026

Door Idriz Velghe

Redacteur

30-05-2025 • 17:58

133

Lees meer

Reacties (133)

Sorteer op:

Weergave:

Als ik Nvidia was zou ik toch niet zo optimistisch zijn. Ze zijn hun imago aardig aan het verprutsen.
Ik raad geen Nvidia meer aan, niet voor mijzelf, niet aan anderen. En wat ik zo zie bij tech-reviewers zijn die ook niet meer zeker altijd blij met Nvidia. Slechte drivers, missende onderdelen van processors. Rare manier van omgaan met de pers. Prijzen aankondigen die niet realistisch zijn en amper voorraad hebben bij launch. Niet oke!
Grappig. Ik raad nvidia juist wel aan. Ondanks dat ik een fan ben van amd , ben ik van mening dat nvidia nog steeds de beste kaarten én drivers heeft. En op feature niveau is er al helemaal geen vergelijk.

De driver problemen zijn volgens mij grootendeels opgelost in de laatste versie, en die betreffen alleen de 50 serie. Smeltende connectoren is vaak toch echt user error, en doet zich voornamelijk voor op de 4090 en 5090, als je gewoon zorgt dat die plug er goed in zit loopt dat zo'n vaart echt niet.

At the end of the day zit ik heerlijk te gamen elke dag met mijn 4080 super, en geniet ik volop van DLSS, frame generation en ray tracing. en van welk merk die kaart dan komt interesseert mij niet. Feit is wel dat de game ervaring heerlijk is, en daar gaat het om - puur om die reden zou ik Nvidia aanraden.

[Reactie gewijzigd door Visgek82 op 30 mei 2025 18:45]

Genieten van frame gen? Dat is toch juist niet genieten?
Framegeneration (met een RTX 5070Ti) was voor mij echt wel een openbaring komend vanaf een RTX 3080 die het niet ondersteunde.. Ik kon opeens een game als Cyberpunk 2077 met pathtracing aan met 200+fps spelen i.p.v. 30-40 fps, een totaal nieuwe veel betere gaming-ervaring imho.. Ja je ziet nog wel wat artifacts als je er specifiek op gaat letten, maar tijdens gewoon spelen heb ik daar geen last van.. Het zal ook alleen maar beter worden met nieuwere versies, dus ik vind het juist wel een mooi stukje nieuwe techniek.. Wen er ook maar vast aan dat het steeds meer gemeengoed zal worden in nieuwe games om zaken als upscaling en framegeneartion te moeten gebruiken ze te kunnen draaien met fatsoenlijke fps, of je dat nou leuk vindt of niet..
Een 5090 heeft met fram gen versie 2.0 een frame boost van tot aan x4 terwijl een 4090 (die ik heb) met fram gen versie 1.0 een frame boost haalt tot aan x2. Het verschil is een fix aantal fake frames. Voor een 4070 Ti en 5070 Ti geldt hetzelfde. Mijn ogen zijn ook vatbaar voor AI beeldverwerking op moderne televisies, zoals LG dat heeft. Dat zijn zaken die ik als eerste uitzet. Ik weet niet hoe ik het gevoel van fake frames moet uitleggen maar het voelt aan alsof er ineens flinke input lag is. Ik merk het goed bij bijvoorbeeld Cyberpunk 2077 en Indiana Jones.
Ik kon opeens een game als Cyberpunk 2077 met pathtracing aan met 200+fps spelen i.p.v. 30-40 fps,
Zelf geen ervaring mee, maar alles wat ik online lees, als je van een lage framerate komt, is Framegeneration helemaal niet goed.

Je moet al minimaal 60 fps hebben om een acceptable latency te krijgen met framegen
30-40 fps, is eigenlijk eerst terug naar 20-30 fps en daarna verhogen naar 200+, kan me niet voorstellen dat dit een lekkere game ervaring geeft maar wellicht ben jij daar niet zo gevoelig voor (laat staan de artefacts idd, waarvoor AMD keihard werd afgebrand met hun eerste generaties FSR)
Klopt, framegeneration verhoogt de inputlag iets, dus je moet zorgen dat de basis fps voordat je het gaat gebruiken hoog genoeg is zodat je daar niks van merkt.. Dat ligt inderdaad zo rond de 60 fps en dat haal ik ook met de 5070Ti met DLSS4 op balanced of performance op mijn 3840x1600 native resolutie.. Ik gebruik vervolgens 3x MFG om het naar +/- 150 fps te tillen.. 4x heeft voor mij weinig tot geen zin omdat mijn motitor max 160Hz doet.. Nu met DLSS4 ziet balanced of zelfs performance er ook nog prima uit..
want?

het is een geweldige feature. het zorgt ervoor dat ik in veel games met alle instellingen op max met gemak boven de 120 fps blijf (144 hz display) . Dit in combinatie met Reflex (eventueel met boost) zorgt ervoor dat de input latency lager is dan Native. Zorgt voor ongeevenaarde soepele gameplay hier , dus inderdaad genieten.

[Reactie gewijzigd door Visgek82 op 30 mei 2025 19:45]

Ik ben er bekend mee ja. Ik bedoel de (soort van) ghosting in graphics. Daarnaast vinden mijn ogen het kunstmatig smooth beeld niet mooi en het leidt mij af en breekt de immersie. Ik zet het iig altijd uit. DLSS is wel een fijne feature.
Kunstmatig smooth? Ik zie geen verschil tussen 144 fps met framegen en 144 zonder. Wellicht ligt het aan het soort spel. Framegen staat echter nog in de kinderschoenen en zal net als DLSS met elke versie beter worden, op gegeven moment lijkt het mij dat het gewoon iets is wat je standaard aan zet , net als DLSS (dat is immers vaak ook niet meer te zien / beter dan native). Beetje het zelfde verhaal als vroeger met anti-aliasing :)
Hij ook niet, maar het is nou eenmaal hip om te haten op frame-gen. Eerst zeurde iedereen over DLSS, terwijl dat er uiteindelijk toe geleid heeft dat native rendering in principe dood is, zeker op 4k.

[Reactie gewijzigd door FrankoNL op 30 mei 2025 23:46]

Op dit moment is frame-gen een mixed bag. In flight of racen, fantastisch. Solo gameplay in een 3rd person action, prima. In een competitive shooter, afgrijselijk.

Heeft alles te maken met snelle movement en die uitgesmeerde vage graphics die erbij komen kijken.
Ik kan persoonlijk niet wennen aan frame-gen.
MSFS geeft bij mij ook al veel artifacts. De motoren en screens in de cockpit zien er vreemd uit.
Als je dlss op dlaa zet . Heb je dan nog wel voordeel met performance?
Nee.
DLAA werkt zonder upscaling, voegt DL anti-aliasing toe op de 100% (native) resolutie en kost performance.
Het is echter heel erg game-afhankelijk of je het verschil in beeldkwaliteit werkelijk ziet of wilt zien en hoeveel performance je daar voor inlevert.
Native rendering wordt lastig gemaakt door specifieke grafische opties en in sommige gevallen hoe onnodig 'zwaar' developers een game gemaakt hebben.
Zonder raytracing o.i.d. is 99% van alle games prima op native 4K te spelen met een mid-range GPU.
En het is niet vreemd dat er een grote hoeveelheid mensen is die vinden dat trucs met AI upscaling en frame generation om het maar draaiend te krijgen op een GPU van €800+ niet wenselijk zijn.

Persoonlijk vond ik de enorme kritiek op de frame generation van de 50xx-serie nog voordat er ook maar 1 kaart werkelijk getest was redelijk absurd.
Maar wat uiteindelijk blijkt is dat het resultaat qua beeld en latency afhankelijk van de hardware, de game en uiteraard de mate waarin men focust op pixels i.p.v. de game gewoon speelt varieert van erg goed tot slecht.
In veel gevallen gaat het niet over kritiek op DLSS en FG specifiek maar om het principe dat je er niet aan ontkomt. Zelfs niet met de GPU's van AMD.
Er is, voornamelijk door het raytracinggebeuren wat langzaam maar zeker in alle grote game-engines is toegevoegd, een onbalans ontstaan tussen wat games vragen en wat GPU's (met uitzondering van de duursten) kunnen leveren.
Op dit moment hebben enorm veel mensen nog een GPU waarvoor ze 2, 3 of 4 jaar eigenlijk al te veel hebben betaald en die niet in staat is om afdoende van DLSS of FG te profiteren. De GPU's die dat wel kunnen kosten minimaal €850.
Eerst zeurde iedereen over DLSS,
Komt omdat het eerst ook een belaberde techniek was, het is pas later echt goed geworden.. dus niet zo vreemd

Zelfde zie je nu met framegen, wellicht wordt het later wel een techniek die je zonder denken aan kan zetten, echter daar zijn we nog niet
Ik was er persoonlijk ook niet voor in het begin omdat het echt als "cheaten" lijkt :p. Je ziet frames die door AI zijn berekend en niet echt zijn gegenereerd, maar zoals hieronder ook gezegd, wat zorgt het voor butter smooth frame rates :). Je merkt er vind ik althans eigenlijk niks van qua kwaliteit maar het zorgt voor een veel stabielere framerate.

Denk persoonlijk dat de uitvinding van DLSS voor een hogere jump in framerate heeft gezorgd dan wat de chips nu generatie op generatie doen. Valt het wat als cheaten aan, ja klopt. Maar progress is progress :).

[Reactie gewijzigd door Powerblast op 30 mei 2025 20:17]

ik heb ook 4070 super oc nieuwste versie frame gen en dlss super vloeiend
N=1 natuurlijk maar ik heb met RTX 50 voor het eerst in jaren driverproblemen waardoor sommige games helemaal niet werken.
Het zal wel beter worden, maar momenteel zie ik het lijstje met "known issues" alleen maar langer worden.
Jouw geval is ook N=1. Drivers van Nvidia werken prima, soms moet je een bepaalde versie overslaan of op een oudere versie blijven draaien. Altijd zo geweest, ik draai al 7 Nvidia kaarten sinds de laatste 15 jaar en nog nooit serieuze driver problemen gehad.
Ik zie wel heel veel gevalletjes langskomen online om gewoon te zeggen: N=1.
Probleem met dergelijke steekproeven is dat het altijd N=1 is :). Jij bent misschien één van de weinige die geen problemen ondervind. Ik lees tegenwoordig toch ook wel meer dan gemiddeld dat er issues zijn met hun drivers. Heb er zelf ook geen last van tot nu toe maar waar rook is is vuur lijkt mij.
je spreekt jezelf tegen.
Nvidia is net zo (niet) heilig als alle andere videokaart leveranciers.
Ook AMD maakt al tijden stabiele versies, maar ook AMD heeft versies die niet altijd even stabiel zijn, net als Nvidia.
Ik heb met beide goed en minder goede ervaringen.
Jouw geval is ook N=1.
Ja dat bedoel ik ook. Maar dit zijn wel degelijk door Nvidia bevestigde driver bugs waar iedereen last van heeft. Maarja, ligt er natuurlijk net aan welke games je speelt.
Voor wat het waard is ik draai inmiddels ook al bijna 2 maanden een RTX 5070Ti in mijn gaming PC en ook geen problemen mee..
Ze hebben hun userbase de rug toegekeerd in ruil voor de zakelijke markt.
Ze hebben de prijzen extreem opgedreven.
Ze hebben verschillende brandgevaarlijke producten opgeleverd.
Ze brengen alleen maar gesloten standaarden aan die concurrentie dwars zit.
En nu zijn zelfs de drivers ondermaats.

Niemand met een gezond verstand raad Nvidia aan.
Waar is de concurrentie? Ik heb al meerdere malen AMD aan de tand gevoeld over hun ondersteuning, VFIO, PyTorch, een concurrent voor CUDA, een kaart die sneller OpenCL of 3D kan renderen, vGPU, multistream encoding/decoding.

De AMD ondersteuning voor Linux is ook 0,0, ze verwijzen je naar de open source drivers die met haken en ogen aan elkaar hangt. Wat maakt het uit dat ze Wayland op Arch beter ondersteunen als 99% van gebruikers nog steeds programma's in X op Ubuntu/RHEL gebruiken. NVIDIA tenminste geeft duidelijke documentatie voor alle grote Linux platformen, met de huidige versie is zelfs Proxmox officieel ondersteunt.

AMD heeft volgens mij een Aziatisch zicht: wij kunnen alles goedkoper namaken, en dat is inderdaad waar, maar er zit dan ook geen innovatie in en ze lopen op alles behalve 'de grote trekken' na. Een GPU tegenwoordig is al lang geen "grafische co-processor" meer, het is een uitgroeing van MMX en FPGA geworden en AMD kan de "multi" in multimedia niet navolgen, deels omdat ze de investeringen in OpenCL niet willen doen - te duur, natuurlijk, maar dan laat de markt je ook achter.

Beide producten kunnen al jaren razendsnel GTA5 renderen, dat je 310 fps krijgt ipv 305 is echt irrelevant, en echt beter worden spelletjes er niet op en het altijd laten regenen zodat je de weerspiegeling van de raytracer kan zien wordt het na een tijdje ook wel beu.

[Reactie gewijzigd door Guru Evi op 30 mei 2025 21:39]

Allemaal zaken die heel niet relevant zijn voor het onderwerp in kwestie: de gaming markt.

Misschien voor jou wel. Maar dan je als privaat persoon een minderheid.
Android innoveert genoeg, en in tegenstenstelling tot nvidia zijn het wel open standaarden waar de hele industrie wat aan heeft. Denk bijvoorbeeld. Aan HBM, vulkan -> dx12, freelance -> adaptivesync
En toch draait de gaming tak record omzet. Gemiddelde consument boeit het niet of weet het niet, blijkbaar.
De beste drivers heeft nvidia zeker niet en ook niet betere kaarten ze hebben een monster van een kaart de 5090 waar amd niet aan toe komt thats it
Tja, ze kunnen er blijkbaar mee wegkomen want het is niet terug te zien in de cijfers, en dat NVIDIA dit soort gedrag vertoont is ook al jaren aan de gang.
Aan de verkopen op marktplaats te zien van de 3090, wordt de 5090 grif verkocht zelfs nog boven adviesprijs. Lang niet iedereen kijkt naar die youtubers volgt of verder kijkt dan zijn of haar neus lang is, de meeste mensen willen gewoon hun werk stress weg gamen.

Ze hebben gamers en AI investeerders stevig bij de neus blijkbaar, dan kun je wel een potje breken.
Dat gedrag is maar bekend bij zeg 2% critici. 98% van bedrijven en gamers kopen gewoon Nvidia omdat het het beste is, wat er is. En Nvidia heeft op gaming data centers en GPU datacenters flink wat te bieden, waar anderen compleet niet kunnen meekomen.

Ben geen Nvidia nerd, maar al dat anti Nvidia komt wel bij een kleine groep mensen vandaan. Kijk op Steam hoeveel mensen een 4060/4070 en een 5060/5070 hebben draaien en je weet genoeg dat de wereld gewoon will gamen ipv kritisch zijn.
Ik denk dat je de mensen op SteamDeck/Linux moet vragen of NVIDIA de beste keuze is, zeker voor gaming.

Daarnaast zijn de NVIDIA drivers echt een ramp, ook op Windows. Er zijn genoeg met suspend issues, power management dat niet (meer) werkt - vooral een probleem op de laptop, en random crashes in games.

Dus of NV het 'beste is wat er is', vind ik nogal een statement.
Waarom zouden we een groep die nog niet eens 2% van de totale Steam users vertegenwoordigd moeten vragen wat de beste keuze is?

Ik denk dat de groep van 75% die Nvidia GPU's heeft veel geloofwaardiger overkomt.
Ik denk dat de groep van 75% die Nvidia GPU's heeft veel geloofwaardiger overkomt.
Wat een stelling. Zoiets zou ik moeten beweren:
  • "De leden van de grootste groep, de kapiteins aan wal, die weten het beter of zijn geloofwaardiger."
  • "Het grootste deel van de mensheid is tevens de slimste en geloofwaardiger."
  • "Degenen die zelden of nooit informatie uit eerste hand halen, weten het beter en zijn geloofwaardiger."
  • "De grootste groep, die geen wetenschappelijk onderwijs heeft gevolgd, is geloofwaardiger."
:*)

[Reactie gewijzigd door Obfzk8R op 31 mei 2025 09:16]

Er is niets mis met die stelling. Waarom zou je de mening vragen aan de 2% die geen Nvidia GPU gebruikt, over de vraag of Nvidia de beste keuze is voor gaming?
De suggestie dat je dit juist aan die gebruikers zou moeten vragen, is minstens zo vreemd.

Jij daarentegen slaat volledig door en komt met onjuistheden, drogredenen en overdrijvingen.
Waarom zou je de mening vragen aan de 2% die geen Nvidia GPU gebruikt, over de vraag of Nvidia de beste keuze is voor gaming?
Die groep kan prima een NV GPU gebruiken, en er dan achter komen hoe (slecht) Linux support eigenlijk is.

Ik zou dus voorzichtig zijn met iemand anders van onjuistheden, drogredenen en overdrijvingen te beschuldigen. :)
Linux ondersteuning is iets wat 98% geen drol interesseert. Linux gamers zijn een niche minderheid. Dus dan heb je geen recht van spreken voor de massa die gewoon op een windows bak zijn games speelt.

Het gros van de nvidia graka gebruikers hebben weinig tot geen issues met de drivers op windows, die regelmatig en prima upgraden of op een oudere versie blijven hangen.
> Dus dan heb je geen recht van spreken voor de massa die gewoon op een windows bak zijn games speelt.

Ik reageer verder niet. :)
Linux dat is rond 2% gebruik, Steamdeck ken ik niet zo goed. Maar zal ook geen groot aandeel zijn.

Ik denk dat mijn statement stand houdt.
Het gaat niet om de grootte van de groep mensen die iets denkt, vindt of wilt, maar om de inhoud van hun argumenten.

In een ideale wereld tenminste.
Het geen ik kan zeggen is mijn 5080 in mijn msi laptop draait zonder enig probleem. Hiervoor had ik een titan 2080 ultra van msi, nogsteeds een prima machine.
De dingen die jij schets ervaar ik hier niet.
Gelukkig niet, helaas zijn er genoeg wel met issues.

Het probleem lijkt power-management gerelateerd te zijn, en nog niet voor iedereen opgelost te zijn.
Geloof me de imagoschade is vooral recent verergert die ga je terugzien in de cijfers over een tijdje. De markt is altijd vertraagd en dit soort processen zijn sloom maar als ze het doorhebben vaak al te laat om snel op te lossen.
Ik denk dat dat wel klopt. Mijn huidige en afgelopen kaart zijn Nvidia, maar als ik voor mijn volgende kaart mijn geld ergens anders naartoe kan brengen voor een vergelijkbare performance (of een acceptabel mindere performance), dan breng ik mijn geld GRAAG naar een andere toko.

In de cijfers ben ik nog steeds een practising Nvidia klant, maar ik ben ze wel wat naar gaan vinden afgelopen jaren. In hoeverre de verkoopcijfers het gedrag van mij en de eensgezinden gaan reflecteren, daar durf ik geen uitspraken over te doen. Maar ik verwacht geen exodus zolang ze de snelste kaarten maken. Sowieso liggen ze er niet wakker van aangezien de gamers niet de voornaamste bron van inkomsten meer zijn.
Eigenlijk is toch elk bedrijf zo.
Maar jij hebt het over de consumentenmarkt, mogelijk specifiek de gamers.

Dat is ongeveer 8% van de omzet van NVIDIA, ik denk niet dat het bedrijf echt wakker ligt van die paar slechte ervaringen.
GamerNexus heeft al eens aangegeven dat NVIDIA mogelijk de consumenten tak wilt verkopen inderdaad, en vol wilt inzetten op AI/servers.

Voorlopig zit er denk ik nog genoeg winst in, maar ze kunnen die tak dus ooit verkopen als rupsje niet genoeg krijgt.
Lijkt me stug eigenlijk. Geforce GPU's zijn vaak gebaseerd op de architectuur van hun server / AI varianten. Als je die tak verkoopt, dan knip je dat ook op.
En dat is prima, ze mogen 5 jaar de naam gebruiken en inkopen. Daarna zelffstandig verder gaan.
De GPU's worden nog steeds ontwikkelt en gemaakt door NV, ook voor vendors.

Het verkopen aan consumenten kunnen ze uitbesteden, er zijn genoeg bedrijven die deze constructie hebben.
De naam gebruik je dan nog, maar het produceren en verkopen aan consumenten gaat dan als reference model. In feite wat ze nu ook al hebben, maar dan nog een stap verder waarbij ze geen eigenaar meer zijn.
Er gaat redelijk wat tijd voorbij voordat een merk echt zo aangetast is dat niemand het nog echt wilt.

NVIDIA zit daar nog lang niet aan, ze zijn ook meer dan enkel een bedrijf voor gamer hardware. De Streaming dienst iets wat wel meer en meer zal gebruikt worden ook iets waar Microsoft meer op inzet dan hun consoles.
Hun AI chips verkopen ook nog altijd zeer goed.

Denk dat NVIDIA redelijk nog wat steken moet laten vallen EN AMD EN INTEL redelijk wat sprongen moet maken voordat ze zich echt zorgen moeten maken.

Het is waarschijnlijk gemakkelijker voor hun om af en toe eens iets goed te doen voor de gaming community dan voor AMD en Intel hun bij te benen.
Tsja, in de gaming branche. Dat is ondertussen een veredelde hobby voor Nvidia waar ze ook nog eens een gigantisch marktaandeel hebben.

Het boeit ze dus echt geen snars denk ik.
Het grootste 'probleem' is dat AMD met veel negative dingen gewoon achter Nvidia aan loopt:
'Prijzen aankondigen die niet realistisch zijn en amper voorraad hebben bij launch?'
De 9070(XT) is nog steeds niet tegen MSP te koop, alle Nvidia kaarten kan ik nu gewoon in de pricewatch kopen voor MSRP, op de 5090 na zelfs voor minder i.v.m. een zwakkere dollar.

Twee verschillende kaarten onder exact dezelfde naam uitbrengen om onwetende consumenten een poot uit de draaien zoals de 5060Ti? Aah, daar heeft AMD met de 9060XT straks de perfecte tegenhanger voor :)
Of ze richting de pers ook zo ver gaan als Nvidia om geen samples van de 8GB modellen uit te geven is even afwachten, maar AMD heeft al aan gegeven dat de 16GB variant de 'focus' krijgt.

Verder heeft AMD met de 9000 series ook geen stappen vooruit gezet qua VRAM en op sommige prijssegmenten zelfs een downgrade gedaan t.o.v. hun vorige generatie. We klagen hier - terecht! - vaak dat Nvidia behoorlijk zuinig is qua VRAM de laatste paar gens maar AMD doet daar m.u.v. de 5070 vs 9070 non XT deze generatie net zo hard aan mee: Je krijgt niet meer Vram dan bij Nvidia.

En wat mij persoonlijk ook wat minder lekker zit is dat FSR4 volledig exclusief is en ook lijkt te blijven voor de 9000 serie waardoor je met de 7000 en oudere kaarten 'vast' blijft zitten op het niet al te beste FSR3 en ouder. Waar de vorige generaties Nvidia kaarten tot met de 20 series (!) alle voordelen van DLSS 4 hebben gekregen op Frame Gen na.

Het missende ROPs verhaal vindt ik een klein beetje een storm in een glas water, dat was een kleine initiële batch, door het bedrijf toegegeven en vervolgens opgelost toch? Waar ik het wel met je eens bent is dat het 5060 non Ti verhaal werkelijk schandalig was, door geen drivers beschikbaar te stellen aan reviewers beschikbaar te stellen behalve als ze een 'wurg overeenkomst' met Nvidia sloten door alleen te mogen vergelijken met een 2060 en 3060, en dus geen 40 series of AMD kaarten. Bovendien was de launch precies tijdens Computex waardoor veel reviewoutlets later zijn met reviews, waardoor er vrijwel alleen maar Nvidia sponsered reviews beschikbaar waren. Hulde aan Tweakers overigens om wel vrijwel direct hun 5060 review online te hebben overigens :) Net als de belachelijke manier waarop Nvidia omgaat met de problemen omtrent de 12V 2x6 aansluiting, dat is ook een gigantisch miskleun waarbij ze de gebruiker problemen de schuld in de schoenen te schuiven. Maar tenzij je in het segment van een 4090,5090 of overklokte 5080 zit (waar AMD geen alternatief voor kan bieden dus) is dat geen heel groot probleem, ik hoor niks voorbij komen over 4080's of 5070Ti's met hun stuk lagere stroomverbruik welke er last van hebben.
Wat dat FSR4 verhaal betreft, dat komt omdat AMD erachter is gekomen dat betere AI prestaties alleen mogelijk is met de juiste hardware.. En die zit dus nu pas in de 9070 GPU's.. In dat opzicht liep Nvidia dus weer ver vooruit door die hardware support al in de 20-series in te bouwen..
De 9070 heeft 16gb aan vram, dus dat klopt niet tegenover de 5070 met 12 gb vram. Bedoelde je anders de nieuwe 9070 gre versie die eraan komt met 12 gb vram?

[Reactie gewijzigd door SactoriuS op 31 mei 2025 05:30]

Ik raad geen Nvidia meer aan, niet voor mijzelf, niet aan anderen.
En weet je wat het een gemiddeld miljardenbedrijf uitmaakt? 0. Rendement is het enige wat telt. Zijn de GPU'S goed? Dan maakt het imago echt niet zo veel uit en verkoopt het zichzelf aan datacenters.

Nvidia kan doen wat ze willen. Zolang AMD met hun videokaarten niet in de buurt komt van de prestaties van Nvidia, zullen datacenters ze gewoon blijven inkopen.

[Reactie gewijzigd door Luchtbakker op 30 mei 2025 20:01]

Denk persoonlijk ook dat ze liever hebben dat de gaming boel niet te goed verkoopt. Weer een lijntje vrij in de fabricage hal om AI chips te maken. Want zie je wel dat het gaming spul toch niet verkoopt...
Inderdaad, Nvidia wordt pas wakkergeschudt als AMD met een 9090XT zou komen die kon concurreren met een RTX5080. Maar AMD faalt daarin. Ze durven niet zo. Als de ontwikkelafdeling wel iets had klaarliggen dan had men erop kunnen inzetten. Maar helaas.
Helaas is het bij AMD net zo erg op alle vlakken, zo niet zelfs nog erger op dit moment en intel (nog) niet competitief genoeg
Dit vooral. Onder de streep heb je maar twee opties, Nvidia en AMD. Oke, of niks kopen. Het belangrijkste in dat rijtje voor de gemiddelde consument is de prijs. En ja beschikbaarheid was aan het begin diep triest. Maar nu kan je een Nvidia kaart kopen voor MSRP. AMD niet.

Driver problemen zijn natuurlijk ook wel een probleem voor mensen.
Het vervelende is: ze kunnen wel zo optimistisch zijn. Die 12VHPWR issues (met de RTX50 series), hoe ze omgaan met de pers - ze halen een miljardenwinst van de datacenter tak.

Het probleem daarvan is dat er vrijwel geen concurrentie is. Zie bijvoorbeeld het recente stuk van Servethehome over AI Factories - dat geeft wellicht een beeld over de schaal, als je daar niet bekend mee bent.

En vergeet niet, Nvidia maakt heel veel meer dan alleen GPUs en AI acceleraties. Ze doen bijvoorbeeld DPUs (Bluefield), Infiniband, CPUs (Grace) en de Tegra SoC (zit bijv ook in de Nintendo Switch). Ze hebben oplossingen voor de autobranche (Drive). En zo gaat het maar door.

Als het klopt wat anderen aangeven - dat Nvidia de consumententak zou verkoppen (RTX GPUs) heeft een lagere market valuation daar uiteraard effect op - maar relatief weinig. Blijkbaar niet voldoende voor Nvidia om er iets mee te doen.

En voor de datacenter class maakt het weinig uit. Die geven miljoenen uit aan oplossingen - als daar iets misgaat door een smeltende connector is dat afgedicht door support contracten - of dreigen om Nvidia voor het gerecht te slepen.

En begrijp mij niet verkeerd - ik wil Nvidia niet verdedigen, ik ben hier alles behalve happy mee. Het is de zeitgeist waar we nu in leven - er is vraag, dat maakt aanbod. Voeg daar een gebrek aan regulering aan toe en welkom in de huidige wereld.
Iedereen zegt 5060 is slechtste kaart ooit.

Nvida cijfers mega record omzet dankzij 5060.

Het boeit totaal niet wat tweakers zeggen en denken zij zijn maar klein % van de doelgroep.
De vocale minderheid schreeuwt hard, maar de stille meerderheid kom niet eens op sites als Tweakers, die weten van niets en kopen gewoon wat hun altijd verteld is dat goed is.
Gaming is terecht voor nvidia maar een bijzak. De marge op enterprise AI is vele malen hoger. Eigenlijk is het alloceren van productiecapaciteit een opportunity cost.
Het maakt niet uit wat Nvidia doet.

Melting 12v2x6 cables/connectors
Missings Rops
5070 = 4090 performance (lie)
Driver black screens and bricking cards/systems
Driver BSODs
Driver stutters
Driver memory errors ( spaghetti models)
GPU Temp broken on software
NV Only seeding 16gig 5060ti for review not 8gig
Physics no longer supported.
Lack of improvement over last gen
Prices being controlled by supplying limited cards.

Men blijft kopen, als ik de threads zie hier op Tweakers alleen al, maakt me gewoon verdrietig hoe makkelijk men alles maar laat gaan. Als ze zeggen dat ze kinderen gebruiken voor het maken van de cards ergens in no-where, who cares, BUY BUY BUY
Helemaal mee eens. Ik heb zelfs na 20 jaar voor het eerst voor amd gekozen. Geen moment spijt van gelukkig.
Zelfde hier, alleen iemand die echt CUDA nodig heeft zit aan NVIDIA gebonden.

Heb nu een RTX 4070 Ti, en met de games die ik speel heb ik in de toekomst geen NVIDIA meer nodig. Daarnaast game ik heel wat minder dan 10 jaar geleden, en al die moderne toeters en bellen heb ik niets mee.
Jemig, die paar consumentenkaartjes maken echt niks uit. Het is AI waar ze hun brood mee verdienen.
Het is juist AMD geweest die een adviesprijs heeft gecommuniceerd die totaal niet realistisch was ten opzichtige van de inkoopprijs.
Heel eerlijk, Nvidia is nog vrijwel alleenheerser als het gaat om AI-chips. Het zal ze, eerlijk gezegd, een rotzorg zijn wat een paar gamers vinden van hun imago. De hele wereld smeekt om hun chips en blijven die toch wel kopen.
Volgens mij gaat het er alleen maar om dat de data die eruit komt niet herleidbaar is zodat onrechtmatig exploiteren van intellectueel eigendom nooit aantoonbaar is. Verder is het parallel logische bewerkingen doen. Daar heb je geen 3d-graphics architectuur voor nodig.
Een gpu heeft (tien)duizende rekenkernen t.o.v. tiental van een CPU. Ze kunnen alleen simpele berekeningen doen maar dat is wat nodig is voor o.a. AI en 3D graphics. Howel het idd niet moet is het wel een veelvoud sneller.
Ik denk dat normale processoren als x86 die speficieke reken-achtitectuur ook zouden moeten bevatten als er iets beter door ging presteren of minder stroom verbruiken. Het is niet zo dat een AI/LLM een in de basis andere computer vereist. Kwestie van een reken-unit met I/O op de ssteembus erbij inbakken of de bestaande units verbeteren zodat ze die bewerkingen ook kennen.

[Reactie gewijzigd door blorf op 30 mei 2025 20:03]

Dat jij iets denkt betekent niet dat het ook zo is.

CPU's en GPU's zijn fundamenteel andere rekenmachines. CPU's zijn heel precies en accuraat en heel goed in complexe taken en een breed scala aan programma's kunnen draaien. En hebben weinig kernen.

GPU's zijn precies andersom. Heel veel rekenkernen die volledig geoptimaliseerd zijn voor een bepaalde taak. Minder accuraat, maar een klein foutje is niet erg, na 1/60e van een seconde zie je dat toch niet meer.

AI trainen kan zeker op beide. En voor sommige zaken is een CPU ook beter dan een GPU. Echter als je software schrijft die gebruik kan maken van de optimalisatie van de GPU dan is dat extreem veel sneller en efficiënter.

Om er een niet computer analogie bij te pakken, een F1 racewagen en een peugot stationwagen zijn beide auto's, en met beide kom je waar je wil zijn. Maar de stationwagen is een stuk praktischer als je ook nog boodschappen wil doen, lekker muziekje wil luisteren, droog zitten, ergens over een zandweg rijden etc.
Maar gaat hem niet worden om daarmee een F1 race te rijden.
Een GPU is geen CPU in de zin van dat het geen programma's draait die afhankelijk van condities een andere richting kunnen nemen. Je 'analogie' is betekens-loos. Dat is alleen maar bevestigen dat ze niet hezelfde zijn. Zo ver was iedereen al. Denk ik.

Wat een AI/LLM doet met een GPU is een aantal logische bewerkingen verzamelen/schedulen, deze naast elkaar zetten en in 1 iteratie van alles het resultaat hebben, wat veel energie scheelt vergeleken met dat je het sequentieel doet met een CPU en registers. De eenzijdigheid van AI-systemen zou daar voordeel uit moeten halen.
Alleen, waarom zit het niet standaard in alle PC's als het bij een bepaalde situatie iets significants presteert wat een CPU-systeem niet kan? Ik bedoel dan niet de videokaart. Daar kun je alleen maar graphics mee doen. Althans, als consument.

Mensen zullen het vergezocht noemen, maar de claim dat een GPU buiten graphics een technisch voordeel oplevert in computing in het algemeen is niet heel anders dan de claim dat de bestaande architecturen van computers (x86 is een groot deel daarvan) tekortkomingen hebben waar blijkbaar niks mee wordt gedaan.

[Reactie gewijzigd door blorf op 30 mei 2025 22:44]

De korte afstand tussen de GPU en het videogeheugen speelt ook een rol. Als de CPU het doet moet het via het moederbord.
Ze zouden zich beter zorgen maken.

- Huawei is "goed bezig" in China. Dat en restricties en hun dominantie is daar voorbij.

- AMD verkleint de afstand zowel op hardware als software niveau. Evenals anderen. Dat gaat zowiezo een effect op hun marges hebben, of ze nu hun aandeel kunnen behouden of niet.

Hun client GPU divisie mag dan relatief weinig bijdragen maar met bovenstaande is dat wel net het segment dat de totale balans kan ondersteunen bij relatieve zwakte. Nvidia's geweldige groei is al sterk afgezwakt en volgend Q opnieuw van dat (voorspellen ze zelf)
- Huawei is "goed bezig" in China. Dat en restricties en hun dominantie is daar voorbij.
In een bepaalde zin is het wel goed. Door de restricties kon Google bijvoorbeeld geen Play Services leveren in China, waardoor Huawei wel "moest" zorgen voor een alternatief voor de Google diensten op Android telefoons.

Met HarmonyOS laten ze wel zien dat het kán. Wil uiteraard niet zeggen dat we er iets mee hoeven, maar als een commerciële partij in China het kan, kunnen wij in Europa het ook.

Onofficiële Android OS'es / AOSP forks zoals GrapheneOS doen fantastisch werk, maar zijn over het algemeen niet interessant voor vendoren van mobiele telefoons. Iets als HarmonyOS kan dat wél zijn.
Aan die stoelpoten wordt gezaagd: Een AMD MI300X doet het uitstekend in KI-applicaties, daar heb je geen Nvidia meer voor nodig. Deepseek draait op AMD GPU's.

Ja, het marktaandeel is klein, maar met €30.000 voor één GPU gaan klanten echt wel nadenken of er geen goedkopere wegen zijn.
Jup. Laat amd met goede a.i. support komen en de markt verschuift heel snel. Waarom ze niet in die gat springen is voor mij een raadsel.

Dat geld ook voor intel. Leuk al dat geheugen dat in potentie goed gebruikt kan worden. Maar als de software er niet voor gemaakt is.
1912, u bent al 113 jaar oud.....
Das echt een taaie. Of hij komt van de toekomst. :)
Toevallig op 30 mei geboren
Er is niets mis met de drivers kan ik uit ervaring zeggen. Op de prijs na is het prima spul.
Aa vandaar ik heb de 4000 serie, is het probleem voor de 5000 serie inmiddels niet opgelost?
Noop, het doet mij denken of het geen hardware issue is; dit hebben ze al eens eerder gehad.

Ze moeten het nu oplossen met de firmware denk ik.
Nee, meermaals per week dat ik m'n monitoren er fysiek uit moet halen omdat ze weer zwart staan of dat de primaire ineens de secundaire is geworden.
PC gaat soms ook niet meer in standby, had daar met m'n vorige AMD kaart nooit last van (verder niks gewijzigd aan m'n systeem).
Heb de 4090. Welke versie van drivers gebruik jij? Ik wou de latere drivers gebruiken voor Doom Eternal. Maaar lees ook problemen met die drivers. Gebruik zelf nog de 572.42
Geen wonder met die prijzen :X
Die prijzen houden we deels zelf in stand.
De mensen kopen, je kan het ook niet kopen. Als Nividia morgen de kaarten 8000 euro maakt, en de mensen blijven kopen kan je het Nvidia niet kwalijk nemen.
Daarom is het dus niet verwonderlijk dat de winst zo hoog is.
En dat is niet alleen op de GPU-markt, zelfs in de supermarkt vinden 'A-merken' dat normaal geworden.

Alles wordt duurder, en niemand die ingrijpt of zegt 'is dit niet te veel?'.
We hebben eenmaal een hoop geld op deze planeet tegenwoordig. En rijke bedrijven kunnen veel geld neertellen voor dingen. Net als bij huizen kopen, is er altijd wel die gek die nog meer betaalt.
Ik niet hoor! Van mij mogen de prijzen asap naar beneden.
Zonder grafische kaart kun je geen games spelen en in het highend segment kun je alleen Nvidia kiezen dus nee daar heb je geen keuze. Als je deftig 4K wilt gamen kun je eigenlijk alleen Nvidia kiezen met hun 5080 en 5090. Ik heb onlangs een AMD 9070XT gekocht waar ik 4K wil mee gamen maar goed weet dat ik niet alle games goed ga kunnen spelen op 4K. Maar de 5070Ti, 5080 en 5090 zijn geen optie voor mij want veel te duur. De voorwaarde was dat de kaart minder dan €750 kostte en ze kostte €749.🙂
Als er veel mensen zoals jij verkeerd redeneren is het niet verwonderlijk dat Nvidia zoveel omzet heeft. Maar gelukkig doen ze dat niet want Nvidia geeft zelf aan dat vooral de 5070 en de 5060Ti goed verkopen. Voor de 5070Ti heeft Nvidia zware concurrentie aan de 9070XT. Deze laatste heb ik onlangs ook gekocht.
Denk dat Nvidia weinig ziet van de woeker prijzen dat hang bij de middle man aan de strijkstok
AMD krijgt een kans voor open goal. Kopt de bal naast en knalt met zijn eigen hoofd tegen de paal..
Alstublieft NVIDIA :)

Je zou denken dat AMD nu zijn kans zou pakken, maar helaas. NVIDIA heeft stevig tegengas nodig.

[Reactie gewijzigd door Mosin op 30 mei 2025 19:22]

Stomme vraag, maar helpt het als je eerst een verlies aankondigt, om daarna een flinke winst te krijgen?
M.a.w. je gooit de verwachting omlaag, maar nu krijg je met deze aankondiging een enorme boost te pakken?

Het lijkt echt dat de hele stock markt verziek wordt, en het wachten is op de ene luchtbubbel (weer).
Niet vreemd dat Nvidia blijft cashen.
Mensen die het niet kunnen betalen accepteren krimpflatie door een goedkopere kaart uit de serie te kopen.
En simps met te veel besteedbaar inkomen worden afgeroomd.
Simps, geen fanboys.. Klein verschil, groot gevolg.
Natuurlijk draait dat nog wel even door. Het lijkt alsof "iedereen gewoon nog koopt, dus blijkbaar zit er nog rek in". Het profiel van de kopers tekent een ander beeld af.

Maar sinds de minercraze, de covid-hikes en de huidige kaartprijzen..
De glans gaat ervan af. Er ontstaan barstjes.

Er komt een moment dat zelfs de beste prestaties niet meer opwegen tegen structurele consumentenvernedering.
AMD komt dichterbij en zelfs Intel ziet kansen.
Het feit dat mensen hopen dat AMD/Intel goed genoeg is qua performance en drivers, zegt voldoende.
Dat soort hoop hebben tevreden klanten niet.
Nvidia draait op de AI hype, niet op ‘een paar gamers’, al dan niet terecht.

Veel schaarser dan de hardware, zijn de programmeurs van als die toepassingen.

De meeste van die toepassingen ”doen” het alleen op nvidia kaarten. Ondanks pogingen met ZLUDA om cuda apps op AMD kaarten te kunnen draaien, nemen bedrijven die gok (voorlopig nog) niet. ROCm En HIP gaan daar ook geen verandering in brengen

[Reactie gewijzigd door fenrirs op 31 mei 2025 07:34]

Ik denk dat het effect heeft op de kwaliteit van de drivers. Als veel driver programmeurs nu AI projecten moeten draaien dan blijft er denk ik niet veel over voor ander werk. Ik heb nu al voor de 3e keer met nvcleaninstall een update tegengehouden vanwege de berichten over nieuwe bugs, zoals de Firefox bug bijvoorbeeld. Zelf heb ik een 4070 Ti Super dus veel nieuwe dingen zitten er toch al niet in.

Zouden ze drivers nu met AI programmeren?
Ik zie dat vooral als bewijs dat de prijzen flink omlaag kunnen.
Want omzet is winst?
Je kan een hoge omzet hebben en toch verliezen draaien.
18 miljard winst, een stijging van 26% ten opzichte van vorig jaar.
https://www.entrepreneur....then-keep-rallying/492432
Walgelijk gewoon... lekker steeds hogere prijzen. Heel simpel ik koop het niet meer, idem voor de Lays praktijken ;)
We hebben simpelweg teveel erg rijken op de planeet. Een Ferrari komt ook weg met de hoofdprijs te vragen en de miljionairs staan in de rij om het volgende exemplaar in de garage weg te zetten als investering.

Alle merken die het beste maken komen met enorme prijzen weg. Welkom in 2025.
Een Ferrair is klein in oplage en er is meer dan genoeg goedkopere concurrentie.
Ik snap ook best dat een 5090 duur is, die worden ook veel minder verkocht.
Maar de 5060 is een entry level kaart waar je al €300 voor moet betalen en met 8GB geheugen is het geen denderende kaart.
Wil je 16GB dan zit je al bijna aan €500.
goede ivestering inlaats van een huis
Ik zie dat vooral als bewijs dat de prijzen flink omlaag kunnen.
:? :+ :X
Dat zie je verkeerd.

Mensen kopen blijkbaar de kaarten nog veel, dus de prijzen kunnen nog hoger. Vanuit Nvidia's optiek iig.
Kan, maar Nvidia is waarschijnlijk meer geïnteresseerd in winstmaximalisatie. En dan kan minder stuks verkopen voor een hogere prijs onderaan de streep mogelijk meer opbrengen dan meer stuks verkopen voor een lagere prijs.
Sinds ik:
- tientallen NVidia videokaarten in de oven heb moeten reanimeren (10 min op 200 gr. C deed het meestal wel, wel even goed voorverwarmen), om ze na een keer of 4 alsnog af te moeten schrijven,
- het overduidelijk aan een hardware issue lag dat die dingen stukgingen (was wel duidelijk geconstateerd onder electronenmicroscoop), en NVidia keihard blijft ontkennen,
- het beleid in recente tijd aleen maar nog slechter is geworden,
- linux drivers van NVidia om te huilen zijn,
- de hardware nog steeds self-destructing issues heeft
- genoeg geheugen voor echte AI toepassingen alleen in de extreem dure pro producten toegankelijk is
- ik niet zit te wachten op AI gegenereerde nepframes

ga ik zelf voorlopig geen NVidia kopen in ieder geval, mijn vertrouwen is allang weg voor dat bedrijf.
Zijn we nu echt oude GTX 8800 (2006) koeien uit de sloot aan het halen of is dat reflowen écht nog steeds een issue? Kan me niet voorstellen...

Maar inderdaad, de drivers onder linux (Wayland) om te huilen zijn maar onder X11 nog steeds prima zijn vzviw. Mits je geen Vulkan ondersteuning nodig hebt, want juist dat is brak.
Gaming nog geen 10% van hun totale omzet, ja dan is dat ook niet meer de hoofdprioriteit.
Ik vraag mij bij dit soort bedrijven wel altijd af - is die nieuwe business iets wat de komende 20 jaar voor omzet blijft zorgen of valt het net zo hard weer weg als dat het ooit kwam? Want als je als bedrijf straks het moet gaan doen met die 9% omzet die van gaming overblijft dan zijn ze ineens failliet...

Maargoed, ik maak er ook een onderdeel vanuit, dit jaar voor het eerst weer eens een nieuwe GPU gekocht.

[Reactie gewijzigd door Fragadder op 30 mei 2025 19:00]

Op dit item kan niet meer gereageerd worden.