Verwijzing naar Nvidia RTX 5000 Ada-workstationvideokaart verschijnt in drivers

Er is een onaangekondigde RTX 5000 Ada-videokaart voor workstations opgedoken in Nvidia's drivers. Dat suggereert dat een release aanstaande is, hoewel er nog geen concrete releasedatum bekend is.

De vermelding van Nvidia's komende workstation-gpu werd opgemerkt door LaptopVideo2GO. De nieuwste driver van het bedrijf voegt ondersteuning voor een videokaart met device-ID '26B2' toe, die wordt aangemerkt als de 'Nvidia RTX 5000 Ada Generation'. Er gingen eerder al geruchten rond over deze videokaart. Bekende leaker kopite7kimi stelde vorige maand dat de RTX 5000 Ada beschikt over 15.360 CUDA-cores en 32GB geheugen.

Wat een kort bericht, wat is dit?

Tweakers experimenteert tijdelijk met korte nieuwsberichten zoals deze, die nét niet lang genoeg zijn voor een volledig artikel. Wil je meer informatie over dit experiment of wil je feedback geven over de vorm, dan willen we je vragen dat in deze post op Geachte Redactie te doen.

Door Daan van Monsjou

Nieuwsredacteur

24-04-2023 • 10:32

39

Reacties (39)

Sorteer op:

Weergave:

Zo hee, dat is wel snel zeg. De 4xxx serie is nog maar net uit. De eerste kaart, de 4090 kwam uit op 12 Oktober 2022.

Ik heb er zelf pas ook eentje gekocht, dat er nu al gesproken wordt over een opvolger maakt het niet echt geweldig toekomstvast voor zo'n enorme prijs... Maargoed.

Wat ik ook niet snap: Het artikel spreekt over een workstation GPU maar ook over RTX 5000. RTX is geen workstation maar gaming, workstation GPU's zijn Quadro en A serie...

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 20:19]

Dit gaat niet over de GeForce RTX kaarten. Dat is een andere soort kaarten.
Wat ik ook niet snap: Het artikel spreekt over een workstation GPU maar ook over RTX 5000. RTX is geen workstation maar gaming, workstation GPU's zijn Quadro en A serie...
En daarom dus dat er gesproken wordt over RTX 5000 en niet RTX 50-serie, bijvoorbeeld, de Quardo kaarten uit 2018 hete Quadro RTX 4000/5000/6000/8000.
Aha bedankt. Verwarrend!
Meestal worden deze kaarten ook aangemerkt als Quadro RTX xxxx, zodat er geen verwarring ontstaat. Tenminste niet meer dan NVIDIA zelf doet door de soortgelijke namen te gebruiken over de generaties heen.

Turing => Quadro RTX 4000/5000/6000/8000
Ampere => Quadro RTX A4000/A5000/A6000
Ada Lovelace => Quadro RTX 4000 ada edition/5000 ada edition/6000 ada edition

Het is dus goed opletten bij het bestellen van Quadro kaarten dat je niet per ongeluk de verkeerde generatie bestelt.
Ik hoop echt dat de volgende generatie GPU's meer VRAM krijgt. 24GB is prima voor gamen, maar als je bezig bent met AI en andere heavy-duty toepassingen, is dat gewoon niet genoeg. Ik zit te duimen voor 48GB VRAM of meer. Gelukkig lijkt het erop dat de ontwikkelingen de goede kant op gaan!
tja, je wilt natuurlijk voor een dubbeltje op de 1e rang zitten. Voor AI doeleinden zijn er al de duurdere workstation GPU's. En de RTX lijn is natuurlijk bedoelt voor gaming en eventueel multimedia/3D zaken, niet specifiek voor AI.
De workstation ranges zijn gewoon veel te duur voor wat het is. Het is Nvidia's manier om de lucratieve enterprise markt uit te melken. En AI gaat ook heel interessant worden voor thuisgebruikers.

Het is ook heel vervelend hoe ze dat doen. Ze maken het de laptop fabrikanten bijvoorbeeld onmogelijk om RTX'en aan enterprises te leveren. Lenovo heeft bijvoorbeeld 2 onderdelen: Consumenten en Enterprise. De ene kant maakt de Ideapads en de Enterprise de Thinkpads (behalve de allerlaagste budget modellen die eigenlijk Ideapads zijn in een Thinkpad jasje). Wij kunnen alleen maar uit de enterprise modellen bestellen omdat die uit hele andere fabrieken komen. En die konden heel lang alleen maar quadro's leveren. Die we voor veel toepassingen (marcom bijvoorbeeld) helemaal niet wilden en bovendien veel te duur zijn voor wat het is.

Gelukkig kan het tegenwoordig wel maar het wordt nog steeds moeilijk gemaakt en deze verplichte segmentatie is erg vervelend.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 20:19]

Niets houdt je tegen om voor enterprise gewoon de 'consumenten' versie te kopen.
Jawel dus, dat zeg ik dus net.

In verband met het contract dat we met Lenovo hebben kunnen we alleen van hun zakelijke tak bestellen. Zij zetten ook de images er van te voren al op bijvoorbeeld. De consumentenmodellen kunnen we ten eerste niet bestellen en passen ten tweede niet in ons support proces (met 120.000 laptops in het veld kan je niet lukraak gaan kopen).

We zouden deze voor marcom mensen (foto/video/2d/3d design) graag gebruiken en die willen dat zelf ook liever. Sommige afdelingen hebben ook wel eens zelf laptops in de winkel gekocht met hun zakelijke creditcard, maar dat levert veel problemen op omdat de juiste images er niet op werken. Een enterprise model met GeForce zou dit wel oplossen.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 20:19]

Wij hebben helemaal geen contract met Lenovo dus wij zijn niet contractueel gebonden.

Ik weet niet wat de deal juist is maar van het moment je zakelijk wilt kopen en dus een factuur op naam van het bedrijf wilt dan willen de leveranciers de consumenten Lenovo's met RTX niet leveren met de vraag welke zakelijke versie je wenst.

Wat het verhaal erachter is heb ik het gissen naar maar iets houd ons wel degelijk tegen van gewoon de 'consumenten' versie te kopen. Uiteindelijk hebben we wel een leverancier gevonden die het toch wou doen, de verkeerde keyboard layouts hebben we maar voor lief genomen.
Het gaat hier niet over dubbeltjes ;)
Wel als je de 'gaming' kaarten (de dubbeltjes) wat betreft prijs gaat vergelijken met de 'workstation' varianten.
Ik vind dat we best wat kritischer mogen zijn op de prijzen die techbedrijven momenteel hanteren. "omdat het kan" vind ik geen goede reden voor de huidige prijzen voor workstation hardware. Als hobbyist kun je met dat soort bedragen gewoon helemaal niks meer, en beginnende bedrijven ook niet. voor een "dubbeltje" op de eerste rang willen vind ik wat neerbuigend als het gaat om 15+ K voor een stuk hardware, ook al bedoel je het misschien niet zo.
ECC GDDR6 geheugen is nu eenmaal duur. Daarnaast zijn de workstation kaarten in het algemeen meer zuinig met zowel plaats als energie. De 4090 heeft 3 of 4 slots nodig en verbruikt 450W de RTX 6000 Ada, zelfde chip heeft 15% meer cores, tweemaal zoveel ECC RAM en verbruikt slechts 300W in 2 slots. En slechts tweemaal zo duur MSRP alhoewel elke degelijke OEM wel een korting zal krijgen. Daarnaast heb je ook kaarten tot 180GB VRAM, wel 15000 per kaart maar je kunt ze niet goedkoper zelf bouwen door 4090s te vermenigvuldigen.

Om dan nog niet te spreken over de drivers en een hoop value-add in ondersteuning. Gaming kaarten zijn in mijn gedacht de beta testers voor nVIDIA.

Een workstation kaart is in vergelijking met de rest van een compleet systeem, vooral de software licentiekost, relatief goedkoop.

[Reactie gewijzigd door Guru Evi op 22 juli 2024 20:19]

Ook licenties voor bepaalde software zijn zo duur "omdat het kan"
4090's vermenigvuldigen is niet hetzelfde als een deftige kaart met een berg vram bouwen, die GPU's zijn effectief niet meer boeiend in zo'n geval, maar je betaalt er wel de hoofdprijs voor (en daar is waar de Watts heen gaan, niet het geheugen)

Heb je toevallig inzicht in wholesale prijzen van ECC GDDR6? ik niet namelijk, maar ik heb wel enig inzicht in componentenprijzen, en kan aardig inschatten hoeveel % marge erop wordt gemaakt.

Ze mogen er best wat aan verdienen, maar ik geloof nooit dat een kaart met veel VRAM nVidia echt zoveel meer kost.

Dit is altijd een eindeloze discussie tussen mensen die volledig achter de marketing strategieën staan en mensen die geloven in een eerlijke prijs.
Bepaal "eerlijk". Een kaart is niet alleen de chips, als je toegang hebt tot nVIDIA Enterprise, dan zie je dat wel, volledige AI modellen, software voor remote desktop VR, nVIDIA Clara. En ja, je mag er wel over klagen dat het 10,000 euro per kaart is, als ik 5 werknemers heb die er 10 maal sneller mee werken dan de concurrentie, komt de prijs er goed uit.

Identiek argument voor dure software, die mensen moeten ook eten en verkopen maar aan 10 klanten per jaar, maar het spaart veel tijd en geld uit aan de andere kant, dan mag het wel 50,000 euro kosten. AutoCAD kost ook hopen geld, echter ga je een brug bouwen zonder AutoCAD, dan mag je wel "zoals vroeger" een hele afdeling aan ingenieurs inhuren om de berekeningen manueel te doen. je kunt vandaag met moeite zelfs een triple-A game vinden zonder AutoDesk of nVIDIA of AMD die ergens in de pap roeren.

De "gaming" kaarten zover ik kan zien gebruiken inderdaad wel dezelfde chips, maar met dingen uitgeschakeld, meestal is dat omdat de yield van een wafer in de fabriek niet zo hoog is. Dan krijg je natuurlijk producten zoals Celeron vs Xeon of GeForce vs Tesla. De GeForce's moeten ook tegen minimum prijs uit de deur want daar is er sprake van zware concurrentie, dus de marge is klein (enkele percenten) en het is geen duur probleem als het niet (goed) werkt.

Zolang de markt ervoor wilt betalen is er geen probleem, zoniet, dan gaat nVIDIA onder. Er is zeker geen sprake van monopoliepositie, want er zijn ook AMD, Xilinx, Intel, Matrox etc die allemaal GPU-achtige kaarten maken. Echter, de mensen die het gebruiken zien de prijs meestal niet, echter ze kiezen grotendeels CUDA over OpenCL, zelfs grote open source projecten zoals TensorFlow kunnen het nagenoeg niet vinden om voor OpenCL te schrijven.

[Reactie gewijzigd door Guru Evi op 22 juli 2024 20:19]

Tja, er zijn genoeg hobbies die ik ook zou willen doen, maar niet kan doen omdat het gewoon te duur is, dus moet ik maar een andere hobbie kiezen of genoegen nemen met beperkingen. Ik vind dus het 'hobbie' punt niet echt een valide punt. Het produceren van de huidige chips is gewoon om meerdere redenen een stuk duurder en het zijn geen sociale instellingen en dan voor verlies verkopen om jou een plezier te doen.
Ik vraag niet om een handout, ik wil eerlijke prijzen. Waarom ik zo stellig ben in mijn mening is dat ik weet hoe het kan, en ik heb gezien dat het mogelijk is. Ik koop nu 25 jaar mijn eigen hardware, en ben professioneel in meerdere hardware inkooptrajecten betrokken geweest. Het is gewoon een feit dat ze de prijs kunstmatig opdrijven omdat ze marktaandeel hebben.
Zelfs in de professionele sferen is vaak niet meer uit te leggen waarom nVidia hardware zo idioot duur is.
Ik heb Quadro kaarten van 3k moeten verkopen aan kleine keukenboeren omdat hun (overpriced) tekensoftware anders niet werkt. Om daar marge op te willen maken is bijna crimineel.
Dit is er toch al bij workstation kaarten? Zowel Nvidia als AMD hebben beide 48GB workstation kaarten. Alhoewel ik van jouw comment eigenlijk concludeer dat jij het over "mainstream" kaarten hebt en niet workstation kaarten zoals het artikel zelf.
De A series zijn gewoon te duur. Ik zoek voor de hobby ook GPUs met 128GB intern minimaal. Dan kan je namelijk AI modellen lokaal met redelijke performance draaien en fine tunen. Een oude 20 series met 128gb zou al heel wat zijn. Er is echt een grote vraag naar goedkope kaarten met veel geheugen. AI is enorm opkomend en dat vereist gewoon veel geheugen. En niet iedereen heeft 10k liggen voor een A series kaart.
Specifiek LLM heeft veel geheugen nodig. AI in het algemeen niet. Je ziet nu ook al stappen tijdens inference die het geheugen ineens halveren. Ik denk wel dat 8Gb geheugen wat krap is, maar met 24 moet je toch een heel eind komen. Tenzij je exclusief LLMs trained dus.
Klopt ja, quantisation. Schijnt ook heel weinig negatief effect te hebben op de kwaliteit van het model.

Maar een stapje van 24 naar 32 voor de 4090 had in dit opzicht heel fijn geweest.
Zit zelf te kijken naar een Radeon Pro 7900: 48Gb en bijna net zo duur als een 4090.
Oh nice, ik had zelf niet naar het AMD kamp gekeken omdat het voor mij een tweeledig iets is. Aan de ene kant doe ik veel gaming en dan vooral VR, waar Nvidia nog koning in is (raytracing bijv). Maar ik zie dat sowieso de rauwe performance ook veel beter is.

Aan de andere kant ga ik nu werken met LLM's en daardoor wil ik daar ook mee experimenteren. Daarvoor was de Radeon zeker beter geweest met het dubbele geheugen. Helaas heb ik geen budget voor beiden :'(
AMD heeft ook gewoon raytracing en de verschillen in pixelkwaliteit per seconde is behoorlijk gelijkwaardig. Tijdens het gamen merk je niet of je een AMD of Nvidia in je systeem hebt zitten :/

Nvidia's marketing werkt goed.

AMD is koning voor ondersteuning en features, je krijgt ook volledige controle over je eigen hardware en wordt niet stompzinnig beperkt 'omdat we X nodig hebben om de nieuwe lijn GPU's te marketen'.
Inderdaad, AI is een game changer op dit gebied. En dat is ook voor thuis leuk. A-kaarten zijn niet betaalbaar.

Ik vond het al heel jammer dat mijn 4090 geen boost in geheugen heeft gekregen, de 3090 had ook al 24GB.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 20:19]

Intel had toch een truuk om gebruik te maken van systeemgeheugen? Kan ik me vaagjes iets van herinneren. Als dat kan, dan mag je je vrij voelen om 128GB in je pc te prikken. Maar is natuurlijk wel minder snel dan VRAM.
Nee, praktisch niet bruikbaar. Althans niet voor GPU 3D rendering.
darkshadw had het over AI.
Nog steeds sprake van swapping. AI modellen werken zo dat bij elke actie alle AI parameters in het model worden afgelopen. Zodra er geswapt wordt gaat het enorm trager.
Klopt, dat benoemde ik ook, en natuurlijk is VRAM beter. Maar traag werken is beter dan niet werken, toch?
het werkt wel, maar gaat echt tot 5x zo traag.
De truuk die Windows ook gebruikt bedoel je? Shared memory. Want je VRAM heeft kort door de bocht een eigen pagefile die (meestal) in je RAM staat.

[Reactie gewijzigd door batjes op 22 juli 2024 20:19]

Dit gaat over de Ada A5000... De vorige generatie Ampere A5000 heeft 24GB en de Ampere A6000 heeft 48GB vram.
Ik hoop dat tenminste de 5070 voldoende VRAM meekrijgt. De 3070 heeft slechts 8 GB en de 4070 slechts 12 (zelfde als de 3060!), dus je bent vrijwel verplicht een -90 van €2K te kopen voor AI-doeleinden.
Inclusief hypotheek mogelijkheid 😜
enkel in koppelverkoop met een SMR om voldoende stroom op te wekken :+
Zou toch mooi zijn als ze gpu's weer upgrade baar maken. 2e laag met ram toevoegen :)
Voor een work station kaart is 32GB niet bijster veel geheugen... ik vraag me af of deze kaart misschien een speciale rol zal gaan vervullen of dat er misschien ander geheugen op zit iets wat je zou verwachten dat al lang gelekt zou zijn als dat zo was. Dus ik houd het voor nu maar op een specifieke rol en waarschijnlijk niet AI taken maar eerder rendering en dat soort spul. Want als er een ding is dat AI schijnbaar nooit genoeg van kan krijgen dan is het wel geheugen.

Op dit item kan niet meer gereageerd worden.