Nvidia gaat jaarlijks nieuwe architectuur voor gpu's en AI-chips uitbrengen

Nvidia gaat jaarlijks een nieuwe architectuur voor gpu's en AI-chips uitbrengen, zo heeft het bedrijf gezegd. Tot nu toe was dat ongeveer elke twee jaar. De nieuwste generatie is Blackwell en de opvolger komt volgend jaar, zo heeft Nvidia aangekondigd.

Nvidia-ceo Jensen Huang zegt in een toelichting op de kwartaalcijfers dat het bedrijf overschakelt op een jaarlijks ritme. "Een berg aan chips komt eraan", zo zegt Huang. "En dan na Blackwell, zoals je al zei, komen er andere Blackwells. En dan is er een korte -- we zitten in een ritme van één jaar zoals we aan de wereld hebben uitgelegd."

Daarmee lijkt Nvidia een eerder gerucht te bevestigen dat de 'Rubin'-architectuur vanaf eind volgend jaar in productie zal gaan. De bedoeling is dat de nieuwe generaties wel op het gebied van software compatibel blijven met voorgaande generaties, zodat kopers van nieuwe chips geen extra moeite hoeven te doen voor upgrades. Het lijkt er door deze stap ook op dat er na de RTX5000-kaarten ook snel RTX6000-kaarten zullen komen.

Tot nu toe zit Nvidia op een tweejaarlijkse cadans, met Blackwell dit jaar, Hopper uit 2022 en Ampere uit 2020. De vraag naar AI-chips heeft de winst voor Nvidia flink opgedreven, zo blijkt uit de kwartaalcijfers. De omzet groeide met 262 procent naar 26 miljard dollar en het netto-inkomen steeg met 621 procent naar 14,8 miljard dollar.

Nvidia H100

Door Arnoud Wokke

Redacteur Tweakers

23-05-2024 • 11:17

93

Reacties (93)

93
91
27
2
0
52
Wijzig sortering
Money, money money.

Ik ga ervan uit dat de sprongen daardoor ook minder groot zullen zijn. Sowieso zie je door de bomen het bos niet meer met een normale, dan een Ti, dan een Super, wellicht nog een Super Ti.
Door de jaarlijkse sequence word het misschien juist overzichtelijker omdat ze minder tijd hebben om de verschillende modellen over uit te smeren, valse hoop waarschijnlijk though :)
Goed punt, ik vrees inderdaad van niet. Ben niet meer zo thuis in de GPU's maar voor zover ik weet zitten er qua architectuur niet veel verschillen binnen een serie, maar zetten ze wat kudacores aan of uit. Als ze elk jaar een nieuw arch bouwen kun je alsnog 3/4 varianten daarvan maken. We wachten het wel rustig af. Geef ze overigens ook geen ongelijk hoor, bedrijven moeten winst maken
Ik verwacht juist een soort tik-tok structuur zoals Intel dat voorheen deed.
m het jaar een echte vernieuwing, maar in de tussenjaren een optimalisatie (die je uiteraard ook gewoon weer een nieuwe naam geeft, want zoiets verkoopt tenslotte beter).

Echt elk jaar een compleet nieuwe Architectuur uitbrengen is eigenlijk niet te doen. De ontwikkelteams hebben echt veel langer dan 12 maanden nodig om een nieuwe architectuur te bedenken, uit te werken, virtueel te testen, testbuild te produceren, testen, optimalisatie, en weer een paar stappen terug totdat het gewenste resultaat is bereikt.
Als je dit proces inderdaad zodanig snel wilt afhandelen heb je veel meer R&D capaciteit nodig.
En niet slechts 2 keer zoveel, maar al snel 4 a 5 keer zoveel kosten omdat de efficiëntie afneemt.

Dit alles vertaald zich uiteindelijk weer naar hogere kosten die terugverdient moeten worden. De mensen schrikken nu al van de prijzen, Maar als de kaarten straks weer een behoorlijke stijging krijgen, zal de afzetmarkt nog verder krimpen.

Daarom is mijn vermoeden dat het jaarlijks vernieuwen van je volledige architectuur niet te doen is, en dat het vooral een leuk marketingpraatje is voor de tussentijdse upgrades.
Ik kan namelijk best begrijpen dat na de release van de RTX5080, de RTX6080 beter klinkt dan de RTX5080TI.
Ik vermoed eigenlijk eerder dat ze elk jaar met een nieuwe architectuur gaan komen, maar dit dan enkel in de xx80 en xx90 gaan steken (en misschien ook in de xx70)
En het lagere segment 2 jaar gaan laten doorlopen (de xx30 xx40 xx50 xx60)
Dan kunnen ze de hoofdvogel (nog meer) vragen voor de top reeks, want dat is elk jaar nieuw, en gaat de winstmarge op het lagere segment omhoog (langer zelfde produceren)

en op die manier kunnen ze ook indien AMD nog eens iets deftig uitbrengt gewoon wel snel de nieuwste architectuur naar het lagere segment brengen (tegen dan zijn er genoeg defecte chips met minder cuda core's) en als AMD dan eventueel echt niks uitbrengt gewoon de oudere architectuur op het lagere segment 3 jaar of langer uitmelken (net zoals ze nu met de allerlaagste kaarten doen, je kan nog steeds N710 kaarten krijgen)

Dus inderdaad,

mo money, mo money, mo money, en wij zijn weer geschareld :)
Ach zolang ze niet terug beginnen met oude kaarten te rebranden naar nieuwe zoals amd en nvidia lang deed valt dat nog mee.
Ik zou zeggen dat de snellere opvolging van generaties waarschijnlijk het gebruik van "Super" volledig de ban in doet. Dat is voor de 40-serie nu gebruikt als hun "mid-gen" refresh.
En ik snap niks van de AMD nummers... Ieder zijn ding.
Wat snap je er niet aan dan? Hoe hoger het nummer, hoe sneller de kaart, toegegeven je hebt dan ook nog de XT en XTX, maar dat is toch lang niet zo ingewikkeld als de Super, Ti, Super Ti van Nvidia?
Ik dacht echt de enige te zijn die AMD's nummers niet snapte...
Wat dat betreft mogen ze allebei wel aan de bak inderdaad. Wellicht kunnen ze wat leren van USB-IF…. O wacht
Ik krijg alleen al stress van de implicatie die je sarcastisch maakt XD
Ja of die van de HDMI,, ... oh wacht :)
Koop je tocch een nvidia, genoeg keus te vinden?
Waarom dan zo`n smeer naar AMD? Dat lijkt tegenwoordig ieder nvidia aanhanger te doen.
Even lekker op AMD zeuren.
Nvidia heb ik nochtans altijd duidelijk en overzichtelijk gevonden met hun nummers en aanmerkingen.

Het is net met de AMD GPU's dat ik altijd even enkele malen moet terugkijken
en om deze dan te vergelijken met de Nvidia GPU's van dezelfde klasse,
met hier en daar nog wat verschillende tech waarbij de ene het wat beter doet op dit of dat vlak.
Kan het soms best verwarrend worden en dat is nu net wat ze willen.
Dat het een studie op zich wordt.

Kom bij de meeste mensen af met CUDA cores, Tensor cores, RT cores, Raytracing en DLSS, die weten niet eens over wat dit alles gaat, zelfs vele IT'ers in mijn omgeving zijn niet meer mee met dit gebeuren.

We kunnen wel zeggen zolang AMD en Nvidia een gelijke koers volgen dat dit enkel de prijzen ten goede komt. Kijk maar naar de modellen van beide die in dezelfde klasse zitten.

Maar de uitschieters van Nvidia die beter presteren, zijn dan ook voor het gros van de gamers onbetaalbaar geworden sinds 2020

En wil je de nieuwste titels in 4K gamen heb je zo'n uitschieter nodig om voor enkele jaren verder te kunnen ....
En dan zitten klagen waarom de kaarten van nvidia de laatste tijd zo duur zijn geworden (alu hoedje)
Wat maakt het uit hoe de kaart zijn werk verzet, zolang ie maar genoeg performance heeft voor je gebruik en je daarbij ziet int zak gezet wordt dan is het toch oke? Of dat die dat nu doet met bra cores of psi cores of cuda cores en hoe veel het er dan wel niet zijn maakt toch geen bal uit voor de eindgebruiker.
Alleen ik denk niet dat dit ook naar de consumenten versies doordruppelt.
Die jaarlijkse update cyclus zal waarschijnlijk enkel voor de duurdere businessversie zijn. De vraag is daar hoog en zo ook de winst. Dus die zullen de voordeeltjes krijgen om de winst te maximaliseren.
Wat Nvidia hiermee zegt, is dat ze een volwassen bedrijf geworden zijn. Net zoals Intel die elk jaar een nieuwe generatie voor de OEM's uitbrengt. AMD heeft deze stap al genomen, er zal elk jaar nieuwe typenummers voor de laptopmarkt zijn. Oude GPU's rebranden is onvermijdelijk.
De verbetering per generatie komt deels door betere productieprocessen, sneller geheugen, etc en die komen niet vaker doordat Nvidia elk jaar een nieuwe generatie uitbrengt. Ze kunnen echter wel sneller een nieuw productieproces toepassen of verbeterd geheugen gebruiken.

Wat betreft de benaming valt het wat mij betreft wel mee. De Ti is een tussenversie. Dus de 4070 Ti valt tussen de 4070 en 4080 in. De Super-kaarten zijn een refresh. Dus de 4080 Super is een refresh van de 4080. Overigens zullen we die vermoedelijk veel minder gaan zien, omdat die vaak na een jaar komen, maar dan is er straks dus elk jaar een hele nieuwe generatie.
Alles wat ik hiervan meekrijg is dat ik mijn RTX 3080 nog even blijf gebruiken, en dat deze niet door een 5080 wordt vervangen maar een 6080. Top. Ik dacht dat ze wel afgestraft waren voor hun hebberigheid, maar NVidia gaat er rustig mee door...
Hebberigheid? De markt verschuift voor Nvidia. De consumentenkaarten worden steeds minder interessant voor ze op dit moment. Ze gaan nu vol op AI / Datacenter kaarten omdat daar het grote geld zit. En met positief resultaat zoals we zien aan de cijfers!!
Ja, hebberigheid. Tijdens corona en de crypto gekte zijn hun gpu prijzen gigantisch gestegen. Daarna hebben ze de prijzen van hun nieuwe kaarten ook verhoogd. Wat natuurlijk nergens op slaat zonder krapte of crypto hype.
Maar er is toch een gigantische krapte? Ze kunnen de productie niet eens bijbenen zeggen ze zelf. En daarnaast valt het ook wel mee. De prijzen zijn een stuk hoger, maar er is inflatie en de prestaties maken gigantische stappen.
Welk deel van
De omzet groeide met 262% naar 26 miljard dollar en het netto-inkomen steeg met 621% naar 14,8 miljard dollar.
verdient nog uitleg?

262% meer verkopen, er is inflatie en dan
621% meer netto winst maken (dus waar alle belastingen en kosten al af zijn).

14,8 miljard netto winst op 26 miljard omzet.

Dus grofweg 56,9% van de verkoopprijs is netto winst, 21% is BTW, dus de kosten zij lager dan 22% van de verkoopprijs.

Dus NVIDIA heeft ongeveer 400% winst marge op hun producten. Dat ruikt naar een monopolie situatie / een markt zonder concurrentie.

Dus een RTX4080 Super van €1.049,- had €299,- kunnen kosten in de winkel en dan nog zouden ze bakken vol winst maken.

[Reactie gewijzigd door djwice op 22 juli 2024 16:58]

Dus grofweg 56,9% van de verkoopprijs is netto winst, 21% is BTW, dus de kosten zij lager dan 22% van de verkoopprijs.
Dat klopt niet: omzet is zonder BTW. Bovendien is BTW maar in een deel van de landen van toepassing, en alleen in een deel van die landen is het 21%. De VS bijvoorbeeld kent geen BTW maar 'sales tax'. Alleen de retailer ziet die 'sales tax', de fabrikant en tussenhandelaars komen er niet mee in aanraking.

Maar ja, zo'n winstmarge had zelfs Intel niet toen ze nog een quasi-monopolie hadden.
Dank je, ik ging er blind van uit dat iedereen ons BTW model had overgenomen. Niet dus, zelfs de VS niet waar Peter Stuyvesant toch wat invloed had bij de start van de financiële regio, maar goed dat was natuurlijk ruim voor ons huidige BTW-model.
Sorry maar zelf in NL is omzet altijd exclusief BTW in de jaarrekening, de BTW belandt niet in de verlies/winstrekening, dus ook in "ons" BTW model niet.
Dus er zit wel een grote fout in je berekening.

[Reactie gewijzigd door Arjant2 op 22 juli 2024 16:58]

Dus
14,8 miljard netto winst op 26 miljard omzet.

Dus grofweg 56,9% van de verkoopprijs is netto winst, 21% is BTW, dus de kosten zij lager dan 22% van de verkoopprijs.
Klopt niet?
Nee klopt inderdaad niet, want BTW zit nooit in je omzet, ook in NL niet.
Dus de kosten zijn 43,1% 😉
dat lijkt er meer op ja ;)
Ik vermoed dat als ze geen desktop/laptop GPU's meer leveren dat er minder modellen ontwikkeld worden die optimaal gebruik maken van CUDA en hun Tensor implementatie.

Nu kan elke model-ontwikkelaar lokaal testen en dan op schaal in het data centrum (universiteit / overheid) of in de cloud (bedrijf) de modellen draaien.

Veel desktop software / games zijn CUDA focussed, dat heeft voordelen voor NVIDIA als die naar cloud / online dienst gebracht worden.

Het is niet voor niets dat er OpenVino is en nieuws: Google, Intel, Arm en andere bundelen krachten tegen AI-hegemonie van...

[Reactie gewijzigd door djwice op 22 juli 2024 16:58]

26 miljard dollar omzet is niet "afgrestraft voor hun hebberigheid", integendeel. NVidia heeft een behoorlijk succesvol business model waarbij consumenten GPU's meeliften op AI ontwerpen.
Afhankelijk van de usecase heb je daar natuurlijk alleen jezelf mee. Een 3080 trekt 4k niet fatsoenlijk tenzij je 60 fps medium settings prima vindt of games speelt die niet veel power nodig hebben.
Precies, hangt puur af van de usecase. de base die op 4k speelt is nog steeds erg niche volgens de steam surveys. Full HD is altijd nog de koploper. Maar ik gok dat OP ook niet op full hd zit met een 3080 :)
Waarom zou je met een 3080 niet op Full HD zitten? R9 5900X, 32GB DDR4 RAM, RTX 3080 12GB, ik heb op 1440p geen enkel probleem momenteel, en op full HD kunnen gewoon nog alle toeters en bellen aan. Misschien met de allerlaatste AAA games niet, maar dan heb je het echt over Horizon Forbidden West en dergelijken.
Maar goed, mijn monitor ondersteunt max 1440p en 75Hz, dus ik heb ook geen enkele drive om hoger te gaan.
Dat is inderdaad een limiterede usecase. Ik speel op 1440p ultra wide en zelfs mijn 4090 trekt dat bij lange na niet op 144 fps met alle toeters en bellen. Mijn ideale scenario is 144 fps/hz op 1440p UW met alle toeters en bellen zoveel mogelijk aan. Daar ga ik minstens een 5090 voor nodig hebben.
We zitten ook wel in een periode met nieuwe ontwikkelingen in zowel hard- als software die, in combinatie met die drang naar een hogere resolutie en meer fps//hz, de boel scheef trekken.
Er is ook enorm veel verschil in hoe verschillende game-engines er mee om gaan.

Ik vind het ook vrij apart dat je het een limiterende use case noemt. Als er geen behoefte is voor meer dan is dat niet per definitie limiterend. Het is prima mogelijk om betere/snellere hardware aan te schaffen en die limiet weg te halen. Het zou alleen onnodig zijn.
Een ideaal scenario is leuk, maar er zijn maar weinig mensen die jaarlijks honderden Euro daarvoor willen betalen om dat vast te houden. Want op het moment dat die 5090 uit komt komen er games die een 6090 nodig hebben.
Een gamer die op max 75hz speelt is een limiterende use case. Het verschil tussen 75hz/fps en 144hz/fps is enorm. 75HZ is voor een beetje gamer geen standaard limiet. Niet alleen speelt alles boven de 100 fps veel soepeler, je hebt ook nog eens lagere input lag en indien je veel shooters speelt is dat een enorm voordeel ten opzichte van 75hz.

Je hoeft daar zeker niet elk jaar voor te upgraden. Dat is volledig afhankelijk van de resolutie waar je op speelt en de eisen qua settings (medium/high/ultra). En we komen steeds dichter bij de ultieme limiet van een steady 144fps/hz op 4k. Hardware gaat zoveel sneller dan software dat we dit binnenkort gaan bereiken. Als het niet met de 5090 is dan zal het een jaar later met de 6090 zijn. Games lopen qua grafische pracht al jaren achter dankzij consoles. Er wordt weinig tot niet dedicated voor de PC ontwikkeld. Een 4090 loopt rondjes om de xbox en ps5 maar ik heb nog geen recente games gezien die de grafische pracht echt waar maken afgezien van Avatar Pandora.

Met een 4090 kun je op 1080p makkelijk 5 of zelfs 10 jaar vooruit zonder te upgraden. Op 1440p kun je ook vele jaren vooruit. Voor 1440 UW en 4k is een 4090 niet genoeg maar een kwestie van tijd tot de 5090 uitkomt.
Ik heb geen idee wat je nu duidelijk probeert te maken.
Je hebt het over een ultieme limiet alsof dat iets universeels is maar het is gewoon iets wat jij als individu wenst of naar streeft.
Ik vind het ook vreemd dat je die 144hz belangrijker lijkt te vinden dan resolutie of grafische settings omdat het hele punt van 'toeters en bellen' dan niet opgaat.
Bij verreweg de meeste games die ik speel wil ik de beste textures en settings voor mijn 1440P UW en of die maximale 165fps dan gehaald worden zal me een worst wezen.
Natuurlijk is er een 'ideale situatie' waarin de hardware alle games op de limieten van de monitor kan draaien, maar dat is, als het al mogelijk is, voor de meeste mensen gewoon geen haalbaar doel.
Hardware gaat zoveel sneller dan software dat we dit binnenkort gaan bereiken.
Nee, hardware gaat niet per definitie sneller dan software of vice versa.
Ontwikkelingen in hardware zijn afhankelijk van de techniek die op het moment voorhanden is. Software is afhankelijk van wat hardware kan draaien en zelfs hardware is afhankelijk van wat hardware kan draaien omdat in een PC met monitor een hoop componenten afhankelijk zijn van elkaar.

Het is gewoon een feit dat game engines geoptimaliseerd moeten worden om zoveel mogelijk uit de hardware te halen omdat het helemaal niet moeilijk is om enorme textures en tientallen aparte modules voor begroeiing, wolken, water, mist, haar, schaduw, verlichting, reflecties en alle andere filters en effecten zo belachelijk veel berekeningen te laten genereren dat geen enkel systeem het daadwerkelijk weer kan geven.
Er is een goede reden dat realistische verlichting en reflecties nooit in games geprogrammeerd zijn. Het vergde simpelweg te veel rekenkracht.
Als er snellere hardware komt zijn er games die daar het uiterste van gaan vragen en mits die ontwikkelingen ongehinderd door kunnen gaan gaat het nog best een tijd duren tot daarin een punt bereikt wordt waarop iedereen vindt dat het ultieme punt wel bereikt is.
ik heb nog geen recente games gezien die de grafische pracht echt waar maken
Geen idee wat je dan verwacht of gezien hebt. Bovendien is Frontiers of Pandora net zo goed ontwikkeld voor de consoles. Hoe dat rijmt met je opmerking dat games achter lopen door consoles is me een raadsel.
Met een 4090 kun je op 1080p makkelijk 5 of zelfs 10 jaar vooruit
Je hebt het over een GPU van zeg €2000 waar je op 1080p mee wilt gamen?
Nog niet zo heel lang geleden had ik hier op Tweakers een conversatie met iemand die van mening was dat het er op leek dat games voor PC juist ontwikkeld lijken te worden voor die 4090 en dat je daardoor het idee krijgt dat de 3080 al verouderd is als je alle toeters en bellen aan zet.
Op het moment dat ze iets verzinnen dat een vergelijkbare impact heeft als ray- en pathtracing loop je met een 4090 ook achter.
Ja, dat is iets universeels omdat het voor iedereen een limiet is. Boven 144 fps/hz heb je er namelijk weinig tot geen voordelen meer aan tenzij je op hoog niveau shooters speelt. Onder de 75hz is gewoon achterhaald. Tenzij je af en toe op je dooie gemakje een game speelt. Het gat tussen 75hz en 144hz is enorm. Vrijwel iedere serieuze gamer verkiest 100fps/hz+ over sub 75fps/hz met dips die nog lager uitvallen. Tenzij de games in kwestie dat niet persee nodig hebben. RTS games kun je prima spelen onder de 100hz/fps en shooters/adventure games spelen veel beter boven de 100 fps.

Het punt van een 4090 op 1080p is dat de hardware de software inhaalt. Op een resolutie van 1080p is de hardware al zover vooruit dat je dus de komende 5-10 jaar geen nieuwe GPU/hardware meer nodig hebt. En binnen afzienbare tijd gaan we dat ook zien voor 1440p en 4k. Geen idee hoe je erbij komt dat software op gelijkwaardige hoogte loopt want dat is nergens terug te zien. En nee, games worden helemaal niet ontwikkeld voor de 4090. Tot 1440p kun je alle games prima spelen op 100fps+ high settings met een 4080 en lager welke significant minder snel zijn dan een 4090. Enige resolutie waar een 4090 voor nodig is, is 1440p UW en 4k. Of je moet al genoegen nemen met medium settings en sub 100 fps.

Het simpele feit is dat de trend richting 4k gaming steeds beter bereikbaar is voor meer mensen. Simpelweg omdat de hardware steeds krachtiger wordt en de software daarop achterloopt. En zoals altijd ga je zien dat games weer een grote sprong maken qua graphics zodra de nieuwe consoles uitkomen omdat ze dan eigenlijk weer meer toeters en bellen kunnen gebruiken.
Je stelt iets als concreet en geeft daar dan vervolgens zelf uitzonderingen op.
Iedere keer als je 'tenzij' zegt maak je het overduidelijk dat niet iedereen hetzelfde is, hetzelfde wenst, nodig heeft en dat niet alle games hetzelfde zijn.
Het punt van een 4090 op 1080p is dat de hardware de software inhaalt.
En als je alle grafische settings op low zet ook.
Maar dat is niet het punt van de 4090. Omdat we geen 4090 nodig zouden hebben als iedereen dat zou doen.
Het punt van de 4090 is dat resoluties, fps en settings omhoog kunnen.
Geen idee hoe je erbij komt dat software op gelijkwaardige hoogte loopt want dat is nergens terug te zien.
Het is overal te zien. Je geeft zelf aan dat 144fps op 4K nog niet altijd gehaald wordt.
Het is gewoon een basisprincipe dat een programma sneller werkt op snellere hardware. Software wordt gelimiteerd door de hardware.
En zoals altijd ga je zien dat games weer een grote sprong maken qua graphics zodra de nieuwe consoles uitkomen omdat ze dan eigenlijk weer meer toeters en bellen kunnen gebruiken.
Heb je wel in de gaten wat je zelf zegt?
Ken je het gezegde "Can it run Crysis"? Er is recent ook genoeg te doen geweest over systeemeisen van games.
Het heeft geen nut om games te voorzien van 16K textures, een miljoen shaders en allerlei filters om individuele boomblaadjes natuurgetrouw in de wind te laten bewegen omdat geen enkel systeem dat kan draaien, totdat er hardware komt die het wel kan.
Volgens mij praat je er nu een beetje omheen. Het simpele feit is dat er een limiet ziet op resolutie en aantal hz/fps daarboven is alles significant minder belangrijk. Die grens ligt op 4k 144hz/fps.

Ik geef aan dat die grens in de nabije toekomst bereikt gaat worden waardoor hardwarematige upgrades veel minder vaak nodig zijn.

Het punt van de 4090 is dat deze zo krachtig is dat je op 1080p 5-10 jaar vooruit kan en alles kan spelen op max settings. Vroeger kon dat helemaal niet en had je om de twee jaar nieuwe hardware nodig voor de nieuwste games. Het punt is dus dat dit nu niet meer nodig is. En datzelfde gaat straks gebeuren voor 1440p en uiteindelijk 4k.

Ja er is inderdaad genoeg te doen geweest om luie developers die brak geoptimaliseerde games naar de PC brengen. Misbruik maken van krachtige hardware zodat ze minder tijd hoeven te besteden aan optimalisatie.

Can it run crisis is al zo oud en enorm achterhaald. Geen enkele game heeft nu deze stempel omdat de 4090 alles kan draaien wat er op dit moment uit is. En dat komt dus,zoals ik eerder ook al benoemde , omdat er niet meer dedicated voor de PC wordt ontwikkeld.

Maargoed, ieder zijn ding. Ik wacht al jaren op het moment van steady 1440p op 144fps/hz max settings (en nu 1440p UW) en dat komt elke jaar dichterbij. Een 4090 trekt dat nog niet altijd maar met een 5090 zou dat moeten kunnen.
Full HD, zoals in 1920x1080. Daar is een 3080 compleet overkill voor en zit je binnen de kortste keren tegen een CPU bottleneck aan te kijken.

Hier 3080Ti op 1440P 165hz
Ah, op die manier - ik dacht dat je bedoelde dat ik onder Full HD zat te gamen. 3080 is overigens geen overkill voor Full HD als je ray tracing aan zet - en die CPU bottleneck is dan ook de reden dat ik voor een R9 5900X ben gegaan. De R73D varianten waren er nog niet toen ik dit systeem in elkaar zette, dat was wellicht nog een betere keuze geweest.
RX 6080? Prima kaart.
Tja duidelijk dat daar het geld zit, hopelijk kan de game range van nvidia profiteren van de investeringen in AI.
Wees daar maar zeker van! Het mes snijdt eigenlijk in de positieve zin aan twee kanten. Eerst en vooral heb je de chiparchitectuur. AI chips en game chips zijn in grote lijnen het zelfde dus die architectuur kunnen ze zeker doortrekken naar chips die bedoelt zijn om games te draaien. Wees maar zeker dat de GPU's van vandaag in een sneltempo achteraan de benchmarks zullen staan.

Daarnaast heb je nog het onrechtstreekse fenomeen AI zelf. Games gaan ook AI integreren bij het genereren van werelden, in game conversaties met fictieve personages, taggen van cheaters en noem maar op.

Wat mij het meest intrigeert en fascineert is de snelheid van innovatie van de mensheid. In eerste instantie van de chipindustrie zelf. Het idee dat je de snelheid van innovatie kan sturen is fascinerend net omdat het zo complex is. Niet de chipproductie aan zich maar de algemene technologische vooruitgang van de mensheid.

Toch spelen chips een grote rol in onze technologische evolutie. Als je de snelheid met dat een chip kleiner en zuiniger wordt kan verdubbelen innoveer je als mensheid op technologisch vlak in theorie ook dubbel zo snel want bijna alles is verbonden aan chips. Denk aan zelf rijdende auto's en alle andere vormen van automatisering die een enorme impact zullen hebben hoe wij in het leven staan en wat we dagdagelijks doen om geld te verdienen of te (over)leven.

Niet iedereen is het eens met de evoluties. De grammofoonplaat was volgens velen ook een instrument van de duivel en de eerste telefoon werd ook verkettert omdat deze ons asociaal ging maken (weg van de kerk) en ziektes zou verspreiden via de kabel. (no joke)
Ik vraag het mij inderdaad ook af. Het lijkt me dat de productiecapaciteit gelimiteerd is en er gekozen moet worden of ze de AI vraag of gamer vraag ermee willen beantwoorden. Van wat ik heb begrepen draaien ze op volle toeren om AI kaarten te produceren, het lijkt me dan waarschijnlijk dat ze liever daar capaciteit aan zullen besteden dan aan gamekaarten wegens hogere marges.
Mja je kan me niet vertellen dat ze dit nou doen om innovatief te zijn. De iteraties zullen waarschijnlijk gewoon nog minder worden. Ik zit zelf erg te denken om te upgraden maar met deze toestand, prijzen en vram limitaties is dat een zeer lastige beslissing. Misschien kijken naar de volgende AMD generatie. Misschien dat AMD wel de tijd blijft nemen om een goed product uit te brengen
Valt toch mee? Zeker met zaken zoals DLSS kunnen goedkope NV kaarten soms heel hoge performance leveren.
Niet iedere game ondersteunt dlss. Helldivers bijv
Idd maar die hebben zo goed als altijd FSR of hun eigne upscaler. helldiver ook met ene 4060 haal je dan daarmee op 4k high nog een 50fps . Een 4060 kost 280 euro nu wat toch niet slecht is zou ik denken, geen idee waar dat "GPU's zijn te duur" en " VRAM limited" vandaan komt.
Nouja, Nvidia brengt ook gewoon goede producten uit.
De grote sprongen komen meestal door het gebruiken van een nieuwe ASML machine voor de productie van de chips.

De 3090 zat op 8nm. De 4090 op 5nm. De volgende misschien op 3nm.

Natuurlijk blijft architectuur belangrijk, maar het verkleinen van de transistors is bija altijd waar de grootste sprongen in power effiiciency vandaan komen. Ik verwacht geen gigantische sprongen door elk jaar een nieuwe architectuur uit te brengen als het productie process niet elk jaar veranderd.
De 3090 zat op 8nm. De 4090 op 5nm. De volgende misschien op 3nm.
Volgens de geruchten maakt de 5000-serie net als de vorige ook gebruik van de N5-familie aan productieprocessen. Overigens is het al een tijdje zo dat het productieproces na introductie nog flink verbeterd wordt, dus er zit vaak een redelijk verschil in prestatie en zuinigheid tussen de eerste versie van een bepaalde familie van productieprocessen en de latere versies.
Ja, ik ben het er mee eens dat de stijgende kosten van de productie ervoor zorgen dat NVIDIA iteratief en zijn ontwikkelingen op 1 fabricatie proces gaat voortzetten.
Een van de oorzaken, als ik het goed heb begrepen, is dat niet alle aspecten van een chip kleiner kan worden met de huidige productieprocessen (SRAM), dus in die zin zijn er wel bepaalde zaken die stagneren.
Ik ben benieuwd zijn de Tensor en RT cores ook kleiner geworden van Turing tot Ada?
Ik weet dat ze er een vermindering is van het aantal tussen generaties.
Ja en nee. Grote performance sprongen zijn ook mogelijk op bijna alleen architectuur. Zie de sprong van GTX 900 naar 1000. Bijna zelfde process, gigantische architectuur sprong.

Maar dit is natuurlijk niet voor gamers, dit is om ontwikkeling voor datacenter en AI voor te blijven zo dat Nvidia nieuwe concurrenten het zo moeilijk mogelijk gaat maken. Vooruitgang voor gaming is bijna compleet toevallig.
Wikipedia: GeForce 900 series

The GeForce 900 series is a family of graphics processing units developed by Nvidia, succeeding the GeForce 700 series and serving as the high-end introduction to the Maxwell microarchitecture, named after James Clerk Maxwell. They are produced with TSMC's 28 nm process.

Wikipedia: GeForce 10 series

The first graphics cards from the series, the GeForce GTX 1080 and 1070, were announced on May 6, 2016, and were released several weeks later on May 27 and June 10, respectively. The architecture incorporates either 16 nm FinFET (TSMC) or 14 nm FinFET (Samsung) technologies. Initially, chips were only produced in TSMC's 16 nm process, but later chips were made with Samsung's newer 14 nm process (GP107, GP108).[5]
Excuses, verkeerd om herinnerd. Het was van 700 naar 900 met een redelijk grote sprong, beide op 28nm.
Ben wel benieuwd of er veel tweakers zijn die elk jaar hun videokaart vervangen. Zelf ben zit ik in een ritme van 3-5 jaar.
Gaat niet om Tweakers maar om datacenters. De sprongen qua efficientie zijn voor AI momenteel zo ontzettend groot dat het waarschijnlijk loont om vaker te upgraden.
Er staat toch ook: "Het lijkt er door deze stap ook op dat er na de RTX5000-kaarten ook snel RTX6000-kaarten zullen komen". Of begrijp ik het verkeerd?
Maar dat is een aanname van Arnoud.
Ik vind het hele artikel nogal wishfull thinking.
Jensen zegt letterlijk "And then after Blackwell, as you mentioned, we have other Blackwells coming."
Dus ik lees het meer als andere varianten of een refresh van dezelfde architectuur.
Precies zoals we bij Geforce kaarten gewend zijn met eerst een nieuwe chip en dan een Super variant een jaar later.
Dat lijkt me inderdaad ook realistischer.
Ik gok dat de RTX modellen een beetje in de categorie "als we dan toch bezig zijn" vallen.
Het feit dat er ieder jaar een nieuwe versie komt wil toch niet zeggen dat klanten direct gaan of moeten upgraden? Dat zijn 2 verschillende life cycles.
Wanneer de concurrentie (en dan bedoel ik niet AMD) jaarlijks nieuwe chips produceert zal Nvidia niet achterblijven met dergelijke megawinsten. Apple komt jaarlijks uit met nieuwe iPhones, hoeveel mensen denk je dat deze tegenwoordig nog jaarlijks vervangen?

Het zorgt er ook voor dat wanneer iemand nu een nieuwe kaart koopt, ze niet meer grijpen naar een 4090 uit oktober 2022, maar iets van eind 2023...

Maar ik denk dat nieuwe GPUs elk jaar puur een bijzaak is geworden voor Nvidia en dat de drijvende veer gewoon GPUs voor het zakelijke segment zijn, voornamelijk AI gericht.
Impliceert dit niet ook dat AMD met een tegenstrategie moet komen om niet uit de benchmark lijsten gedrukt te worden door sneller oplopende lijst van een steeds beter benchmarkende kaarten?

Ben benieuwd wat AMD uit hun toverhoed gaat halen. Misschien sterkere performance increase zodat die kaarten van hun langer blijven steken?
En nu nog de prijzen naar omlaag.

Mijn RTX2080 Ti 11G (de TopGPU van de eerste RTX kaarten en 2000 reeks)
heb ik destijds voor €900 kunnen kopen enkele maanden nadat deze uitkwam.

December 2018 - Prijsdaling op Amazon

Tegenwoordig betaal je voor het equivalent,
de RTX4090
tot €1700
Toen concureerde je veel minder met wat datacenter eigenaars bereid zijn om te betalen.

Zo lang dezelfde chip in de 4090 voor 3-4x verkocht wordt aan datacenter (RTX 6000 Ada) ga je echt geen prijsdaling zien.
Waarom gooit AMD zich dan niet op deze markt ? Het is net alsof ze expres willen blijven hangen.
AMD zit er ook in, zie hun MI300X kaart, onlangs benoemd door de CEO van Microsoft als de meest 'cost effective' manier om GPT-4 te runnen.
Dit wist ik helemaal niet. Weer wat bijgeleerd. Bedankt

Dus beide partijen kunnen op dit vlak hun prijzen gewoon zo hoog houden door de grote vraag naar beide producten en omdat deze prijs dus inderdaad betaald wordt.

[Reactie gewijzigd door MPIU8686 op 22 juli 2024 16:58]

Top of the line was RTX Titan, die was ook een bizarre $2500 bij introductie. Die zou ik eerder tegenover de 4090 zetten. De 2080 TI zou ik meer in lijn zetten met de 4080 super van nu.
En dan is 900 euro met inflatie vanaf 2018 al ruim 1100 euro. Het doet pijn, maar het hoge inflatiecijfer van 2022 hakt er gewoon in en dat zullen we nooit meer terug krijgen.
Mogelijk zakken de prijzen als AMD een tandje bijzet, dit was in het verleden of met de midrange reeksen nu nog steeds het geval.

Uw vergelijk :

De RTX4080 Super van nu staat gewoon in lijn met de RTX2080 Super van toen

net zoals ..
de RTX4090 met de RTX2080 Ti
de RTX4080 met de RTX2080

Sommige mensen maken inderdaad soms het vergelijk door het 24VRAM,
wat totaal onlogisch zou zijn dat dit nog altijd hetzelfde zou gebleven zijn na 5 jaar.
Bewijs, de data wanneer ze uitgebracht zijn klopt dan weer niet in vergelijking, alsook de types niet en welke GPU de reeksstarter is.

De RTX2080 Ti was de eerste kaart die als reeksstarter is uitgekomen - september 2018
De RTX2080 volgt 1 maand later - oktober 2018

De RTX Titan werd altijd als een aparte GPU gezien en niet als onderdeel van de RTX2000 klasse
De RTX Titan kwam pas 9 maanden later - juni 2019

Terwijl de RTX4090 en de RTX4080 beiden in 2022 zijn uitgekomen.
Net als respectievelijk de RTX2080 Ti en de RTX2080 in 2018

en de RTX4080 Super pas in 2024. -> 1,5 jaar later dan de RTX4080
en de RTX2080 Super pas in 2019 -> 8 maanden later dan de RTX2080

Hiermee is duidelijk dat de RTX2080 Ti absoluut niet kan vergeleken worden met een Super versie,
aangezien de RTX2080 Ti de starter was van de gehele RTX2000 reeks

Er is momenteel geen GPU op de markt die een vergelijk heeft met RTX Titan van vroeger.
Deze zou dan minimaal 32VRAM tot 48VRAM in gebruik moeten hebben.
Ik zie liever een langere en betere ontwikkeltijd dan maar release na release na release. Anders krijg je straks een release die 3-5% beter is dan de laatste release.
Liever wat langer wachten en praten over 15-20% betere performance per release.
Je hoeft niet elk jaar een nieuwe te kopen. Of Nvidia nou elk 3 jaar een uitbrengt die 20% beter is, of jaarlijks iets beter en de 4e versie toevallig 20% beter is dan de eerste versie komt hetzelfde uit. Zee volgen gewoon hun roadmap en blijven doorontwikkelen. alleen brengen ze nu gewoon de tussentijdse ontwikkelingen meteen uit als versie.

Je kan ook doen alsof de jaarlijkse versies niet bestaan en na 3 releases de upgrade doen.

[Reactie gewijzigd door ASNNetworks op 22 juli 2024 16:58]

Er is toch niemand die je verplicht jaarlijks de nieuwste te kopen :)

ik zit nog met een RTX2080 Ti die nog min of meer voldoet,
wou vorig jaar een nieuwe build bouwen met de RTX4080 maar heb het zo gelaten.

ik wacht nu voor de RTX5080
Over een jaar van nu koop ik liever een graka die een paar procent sneller is dan eentje die 0% sneller is vanwege een langer releasevenster.
Dan koop je toch een modelletje hoger? 4070 ipv 4060? De prijzen zakken over tijd, dus dat hoeft niet veel meer te kosten.
Door deze strategie zullen klanten (zowel datacenters als gamers) eerder geneigd zijn te upgraden omdat de vernieuwing net groot genoeg is om de kosten te verantwoorden.

Gaming wordt een steeds kleiner aandeel binnen Nvidia. Inmiddels betaald Nvidia meer belasting per jaar dan hun gaming divisie (dus alle GeForce kaarten) omzet. Het grote geld zit echt in de datacenters en AI en daar is ook de enorme groei te zien.

Als deze groei doorzet (en dat doet het naar verwachting) dan is tegen het einde van dit decennium heel de gaming tak een niche "hobby" binnen Nvidia en "leuk voor erbij".
precies, de boodschap is wat generiek maar je verwacht dat deze verandering meer in de datacenters dan in de huiskamers merkbaar gaat zijn
Precies, gaming is meer een bijzaak geworden van Nvidia. Het gaat hier om GPUs en AI chip voor de zakelijke markt. Daar wordt het echte geld verdient.

Op dit item kan niet meer gereageerd worden.