Mobiele versies Nvidia RTX 50-videokaarten duiken op in PCI-databank

Er zijn minstens vijf mobiele varianten van de Nvidia GeForce RTX 50-videokaarten opgedoken in de onofficiële PCI ID Repository. De high-end versies zouden een mobiele variant van de GB203-gpu aan boord krijgen. Nvidia heeft nog niet gereageerd op de geruchten.

De vermeldingen in de PCI ID-databank zijn ontdekt door X-gebruiker Harukaze5719. Ze verwijzen naar mobiele varianten van de GeForce RTX 5050, 5060, 5070, 5080 en 5090 die Nvidia vermoedelijk begin 2025 zal aankondigen. Bij die RTX 5080 en 5090 worden ook de gebruikte gpu’s vermeld: de GB203M. Het is niet duidelijk of het om een mobiele variant van de GB203-gpu gaat en of deze informatie ook helemaal correct is. VideoCardz merkt op dat de listing enkele fouten bevat. Er wordt bijvoorbeeld nu al gewag gemaakt van een 5070 TI, terwijl deze versie doorgaans enkele jaren na release wordt geïntroduceerd.

De PCI ID Repository is een onofficiële database die bijgehouden wordt door maintainers van gpu-drivers, fabrikanten en individuen die bijdragen kunnen leveren op basis van eigen kennis of leaks. De vermeldingen in de databank zijn in het verleden al een goede indicatie geweest voor aankomende productlanceringen. Nvidia heeft de RTX50-serie nog niet officieel aangekondigd. Het Amerikaanse bedrijf houdt op 7 januari 2025 wel een CES-keynote waarbij het de nieuwe generatie videokaarten mogelijks wil aankondigen.

Naar verwachting komt Nvidia in eerste instantie met een RTX 5080 en RTX 5090, waarvan onlangs de mogelijke specificaties al uitlekten. Zo zou de desktopvariant van de RTX 5090 over 21.760 CUDA-cores beschikken, 32GB aan GDDR7-geheugen en een 512bit-geheugenbus. De desktopvariant van de RTX 5080 moet over 10.752 CUDA-cores, 16GB vram en een 256bit-bus beschikken. De videokaarten worden gebaseerd op de Blackwell-architectuur. Vermoedelijk verschijnen de videokaarten eind januari in de winkel.

Door Jay Stout

Redacteur

28-10-2024 • 07:56

38

Lees meer

Reacties (38)

Sorteer op:

Weergave:

Ik heb nog steeds ernstige twijfels bij die 'uitgelekte' specs. Er heeft nog nooit een factor twee compute power verschil gezeten tussen een -80 en een -90 kaart. maar nu ik het op heb geschreven, lijkt het toch niet onredelijk...

1080: 2.560; 1080 TI: 3.584
2080: 2.944; 2080 TI: 4.352
3080: 8.960; 3090 : 10.496
4080: 9,728; 4090 : 16,384

Die -80 varieert nogal. 90 heeft sinds de 3090 stappen van 6000 cores erbij.
Zoiets dan inderdaad:

5080: 10.600-ish 5090: 22.300 ish

Dan is de vraag of ze de 5080 sneller willen maken dan de 4090.
De (x)80 is tot nu toe steeds sneller dan de (x-1)90 geweest, maar dat tij lijkt nu te keren.

We gaan het meemaken! :Y)
Mochten de geruchten waar zijn, dan zou het voor het eerst zijn dat mits deze weer rond de €2000 komt te liggen, het geld misschien wel waard maakt tov de 5080.
(Blijft veel geld uiteraard, maar 2x de ruwe performance voor het dat geld is zou in verhouding beter kloppend zijn dan in de 40xx reeks het geval is)

Voor mij zou het in elk geval een reden kunnen zijn om de 5090 te overwegen tov de 5080. Terwijl bij de 40xx reeks ik eerder voor de 4080 had gekozen.
Ik verwacht dat de 5090 ongeveer €3000 gaat kosten in Nederland. = USA prijs van rond $2300 met wat belasting en dan mooi naar boven afgerond = €2999,-
Je zit dan toch al op idiote prijzen, dus iedereen die bereid is een godsvermogen neer te leggen voor een videokaartje koopt ze ook wel voor die prijzen.

Is goed te zien wat gebrek aan concurrentie en totale desinteresse voor de consumentenmarkt voor prijzen geeft....
Wat is duur? Heb je jaren gespaard en staat er 30k op je spaarrekening dan gebeurt er weinig als je voor 3k een GPU koopt. Ga je veel gamen op je pc? speel je 80 uur per week op de pc een veel eisende game dan haal je die 3k er ook wel uit. Uiteraard zegt dat ook niet alles want je kan ook een drukke baan hebben en die paar uur dat je door de week gamed gewoon het beste van het beste willen.

Ik ben zelf benieuwd hoe de 5070 of de 5080 zijn als upgrade van mijn 3080. Mijn MSI 3080 is super stil hopelijk wordt de volgende GPU dat ook. Ik hoef mijn GPU niet te horen als het juist wat rustiger is in het spel, wil ik stofzuiger geluid horen dan ga ik wel stofzuigen.
speel je 80 uur per week op de pc een veel eisende game dan haal je die 3k er ook wel uit
Klinkt wat onrealitisch dat mensen 80 uur per week spelen, dat is bijna 12 uur per dag.. dat is echt niet normaal meer :z

Overig zijn denk ik de mensen die wel even 3k voor zo'n kaart neerleggem, niet de mensen die tijd hebben om 80 uur per week te gamen

Dit klinkt gewoon als een manier om mensen naar de 90 series te pushen, ik krijg ook sterk het idee dat de 90 serie kaart gewoon een verkapte AI kaart is, en dan nVidia vooral die mensen probeerd over te halen deze kaart te kopen
Klinkt wat onrealitisch dat mensen 80 uur per week spelen, dat is bijna 12 uur per dag.. dat is echt niet normaal meer :z
Ik ken er genoeg. Door de staat “betaald”, beginnen ‘s ochtends en doen een hele dag niks anders. En ze weten als geen ander weer ergens een subsidiepotje aan te boren, want ze komen elk jaar om een upgrade van een of meerdere onderdelen.

Ze kennen elkaar ook en hebben echr geen enkele intentie ooit te gaan werken.
Je kan met zijn tweetjes op vakantie gaan voor 3000 euro, zonder het het echt bont te maken, of je kan met zijn tweetjes een kick ass game-fest van een paar weken houden, misschien wat vrienden over de vloer. Uiteindelijk is het allemaal relatief.
je kan ook redeneren dat je een week geniet van die vakantie, en van die GPU 3 jaar...
Er zijn mensen die voor 700€ per persoon een avond gaan eten in een 3 sterrenzaak...
Nu geef mij ook maar de ervaring en de herinneringen van de vakantie. Dat reso laat ik dan weer wel links liggen haha.
Dus voor ieder wat wils
En vakantieherinneringen blijven ook lang hangen, zoals je zegt. Het is inderdaad een afweging kosten/plezier bij zoiets. Aan de andere weet ik nu nog vrij veel van toen ik zo'n 25 jaar geleden in een hip restaurant voor 150 euro per couvert heb gegeten, en dat was een heel erg gave ervaring.

Ik denk wel dat ik NVidia blij ga maken in januari. Alleen nog uitvogelen of het 80 blij of 90 blij wordt. ;-)
Kan je net zo goed voor die € 900,- een leuke vakantie plannen naar de VS met een tussenstop bij BestBuy oid.
Als je alleen bent wel jah, maar niet als je een vrouw hebt met 2 kleine kinderen :) maar goed, iedereen praat in zijn eigen straatje, zoals altijd.
zo een groot verschil zit er toch al lang niet meer op de USA - EU prijzen?
$2300 zou ik verwachten 2500€
$2300 is zonder belasting, dus €2300*1,21=€2783+kleinere schaal per land+transport/distributie+importkosten = €2999
//Nattevingerwerk

[Reactie gewijzigd door GromuhlDjun op 30 oktober 2024 00:57]

Lijkt mij eerder artificieel laag houden of limiteren van de die. Ik heb het gevoel dat deze generatie gebruikt gaat worden om de 5080 te limiteren en dat zo te doen richting volgende generaties. De -80 reeks was altijd de best bang for the buck en als je echt het beste wou ging je voor de -90.

Helaas komt hier corporate greed naar boven, als deze specs kloppen, en is het puur en alleen maar limiteren omdat ze meer sales richting de -90 willen drijven.
Spijtig maar ik blijf nog wel verder met mijn 3080 tot deze het volledig opgeeft.
Vergeet niet dat Nvidia vanaf de 3xxx-serie anders is gaan rekenen met cores. Ik weet niet precies meer hoe het zat maar het ging om het apart tellen van verschillende precisies terwijl die niet tegelijk actief kunnen zijn. Dus je zou voor een eerlijke vergelijking de aantallen vanaf de 3xxx-serie door 2 kunnen delen.

Er was destijds best wat gedoe om deze vooral toch een marketingstrategie.
Gezien de overgrootte meerderheid ze voor gamen gaat gebruiken, gaat het uiteindelijk vooral om de frames per seconde. En hoe die dan bereikt worden is daar uiteindelijk ondergeschikt aan.

Ik hoop ook werk voor mijn promotie er op uit te rekenen, waarvoor de CUDA cores interessant zijn, dus dan wordt die marketing truc wel gemeen. We hebben ons rekencluster veertif GTX1080Ti's zitten, maar die zijn tegenwoordig toch wel aan de oude kant...
Het is ook te zien wat men gaat vergelijken. Zo kan de RTX5080 sneller worden dan een RTX4090 omdat er geruchten rondgaan dat de Blackwell's tot 3-4 maal sneller gaan zijn dan de Lovelance in ray tracing. En dan heb je nog DLSS 4.
De RTX 4090 blijft echter globaal wel sneller. Beetje zoals AMD's RT 7900 XTX sneller is dan een RTX4080 tot je er ray tracing gaat inschakelen.
Maar moet je bij de 1080 en 2080 niet vergelijken met de titan x en titan rtx? Verschil is echter redelijk minimaal.
Zoals ik het heb begrepen zijn de FLOPS die NVidia opgeeft nogal kunstmatig opgepompt door te vergelijken tussen operaties met verschillende precisie, en dit doen ze al een paar generaties op rij. Toen er FP16 operaties werden toegevoegd een paar generaties geleden werden die gewoon als FLOPS meegeteld alsof het FP32 FLOPS waren, en dat trucje halen ze nu weer uit voor FP8. Dit soort operaties zijn nuttig voor bepaalde toepassingen zoals machine learning inference, maar voor games heb je er weinig tot niets aan. Dus met een korreltje zout nemen is het advies ;)
Nou even niet te zuinig doen met vram. Vooral bij de 5070.
Als ze de lijn doortrekken zou de 5070 op 8GB vram uitkomen in eerste instantie. Later zou een -TI of -plus versie wellicht naar 12GB getild worden.
Gezien het meeste gamen nog steeds op 1080p wordt gedaan is 8 GB ruim voldoende.
Alleen bij (wide) 1440p is het te weinig om op meer dan medium te spelen. Voor 1440p (high+) en 2160p (4k) is toch echt wat meer geheugen nodig.

Edit: misschien een beetje off-topic maar ik hoor weinig meer over 8k schermen. Hoe ziet dat er in de toekomst eigenlijk uit met gamen op 4k+ monitors en TV's?

[Reactie gewijzigd door Dick Ravestein op 28 oktober 2024 09:26]

Zelfs m'n 3070Ti laptop op een 1440p widescreen kan nog prima overweg om de spellen op hoge kwaliteit en 60fps probleemloos af te spelen.
Daarbij lijkt er inderdaad een redelijke 'vertraging' te zijn in 'gaming wereld' om games naar 4K te eleveren. Éindelijk lijkt het er op dat 1440p 120hz schermen een beetje lagere prijs beginnen te krijgen voor het mainstream volk.

Alleen ik merk wel dat sommige games die slecht geoptimaliseerd zijn (Forza Motorsport 2023 bijv) die 8GB aan VRAM véél te snel aangetikt wordt terwijl het er helemaal niet exponentieel beter er uit ziet op 1440p.
Ik zit op FHD maar wel op 360Hz. Ondertussen heb je op FHD ook 520Hz en 600Hz komt er ook aan. Ik bedoel hiermee dat het 60Hz uitgangspunt voor velen al niet meer klopt.
Om 600Hz op FHD te kunnen halen zal een 5080 zeker een must worden.
Maar heb je daar ook (meer dan) 8GB aan VRAM voor nodig om die FPS te halen?
Over het algemeen is snellere FPS niet een VRAM limitatie. (Toch?)
Dat klopt, enkel hogere bandbreedte, en die vind je typisch ook pas terug op de duurdere kaarten.
Een 4060 is dus bvb te zwak voor 360Hz op FHD, het minimum is een 4070 super of beter.
Meer VRAM maakt een kaart inderdaad toekomstvaster, naar mijn mening. Immers, rekenkracht tekort betekent een kleine framedip op sommige momenten of hooguit dat je op lagere fps moet spelen. Zolang bijvoorbeeld 40fps voor iemand goed speelbaar is hoeft een kaart niet de beste chip te hebben.

Maar een tekort aan vram van Gigabytes kan een spel makkelijk halveren in prestaties. Meestal is VRAM-gebruik dat wel bij te stellen, vooral met textuurkwaliteit en draw distance. Maar dat zijn wel dingen die van beeldkwaliteit af gaan.

Ik denk dat mijn volgende pc gpu ten minste 16 GB krijgt. Ik heb nu 8Gb op mijn 3070ti, en een beetje spijt dat ik niet voor de 10GB 3080 ben gegaan met mijn 4k scherm. Toch kan wat ik nu heb nog jaren mee denk ik.
Er moet iets zijn om mensen te motiveren een 5080 te kopen ipv een 5070. 12 GB op de 5070, kan net weinig genoeg zijn om klanten over te halen naar de 5080 te gaan, maar ook net genoeg om klanten van een 5060 te verleiden tot de koop van een 5070.
Sjezus, het verschil in VRAM (hoeveelheid én bandbreedte) en shaders (cuda cores, w/e) is wel heel fors als de geruchten kloppen. Ik hoop het eigenlijk van niet. Ik ben altijd van het hybride PC gebruik geweest, en heb thuis lange tijd een 3090 in een threadripper gehad om zowel op te werken áls op te gamen. De laatste jaren is dat wat afgenomen (de threadripper is nu een homelab server met een oude 2080), de 3090 zit nu in mijn woonkamer PC met een standaard desktop CPU (en mis elke dag de PCIe lanes), en heb een werk machine, maar ik mis de combo van veel vram (want deep learning is nogal nodig af en toe) en hoge performance is heel erg gewenst.

Zeker nu lokaal draaien van LLM's óók een factor is geworden (deep learning was dat voor mij altijd al), hoop ik stiekem dat we wat meer VRAM gaan zien (of VRAM-tiering, met een set alleen voor deep learning, want laat ik eerlijk zijn: gaming performance VRAM is niet altijd nodig voor LLM/DL, daar mag het VRAM best wát trager voor zijn mits het maar nog steeds veel is).

Mogelijkheden ter suggestie:

https://www.reddit.com/r/..._ai_that_you_can_talk_to/

Deze gast heeft ADA, de AI uit satisfactory, naar een echt AI model omgekit en met text to speech + spraakherkenning een redelijk goede benadering gemaakt voor een in-game gesprekspartner.

Ik kan niet wachten op een D&D game met LLM stiekem
Als die 5090 echt 3k kost ga ik ook lekker door op 3080,heb toch wel het idee dat dat de kaart was,met al dat dlss gedoe van ze (ben der nu groot fan van) ken ik nog jaren vooruit.
Vond 2k al belachelijk laat staan 3
En waarom kijk je niet naar de 5080? De 3080 is uiteraard een beast maar nieuwe games op mooie grafische settings icm een hoge framerate wordt al steeds lastiger (en dat mag).

Ik denk dat het interessant is om de 5080 in de gaten te houden. Stel die is straks 1500 euro dan is dat toch het overwegen waard? Ik hoop dat de 5xxx serie net zoals de 4xxxx serie niet alleen veel meer performance geeft maar dat die ook weer super goed gekoeld is (en dus lekker stil!).
Heb een oled G9 49inch gekocht,das bijna 4k dus vandaar.
Nu ben ik echt heel blij dat een 3080 me games draait hoor 🥳 maar heb ook de Quest 3 waar ik dus echt power mist in de 3080.
Vandaar mijn verhaal
Mijn 3080 heb ik 719 betaald op launch day.
neen niet super! Die kwm pas later :D
sorry flauw ik weet het 8)7
Ik hoop oprecht dat de performance jump zo groot zal zijn als gesuggereerd. Niet enkel voor AI, maar ook VR kan de boost zeer goed gebruiken omdat daar nog meer FPS bepalend is voor of je er misselijk van wordt of niet.
Als je niet telkens het nieuwste van het nieuwste wil hebben, mar bv de 40-serie hebt overgeslagen en nu gaan voor de 50-serie is het allemaal best te behappen. Of je bent een game freak en hebt het er voor over en legt zonder morren de prijs op tafel en gaat all the way down. De grootste problemen zitten bij de mensen die het wel graag willen, maar niet kunnen betalen. Die zullen nog even moeten wachten en kunnen niet pochen dat zij de snelste kaart hebben. Jammer joh! Je kunt niet alles hebben.
Lijkt me zowiezo verstandig om 1 serie over te slaan.
Nadeel is en blijft met dit soort prijzen tegenwoordig dat je je echt af moet vragen of je het er voor over hebt die extra settings,mijn ervaring met oled is echter dat dit een mega upgrade is kwa games hoe ze er nu uit zien,dat zelfde hoop ik natuurlijk ook te ervaren met een goede upgrade van de 50 serie,maar blijft wel realistisch hiermee,je kan het maar 1 keer uitgeven namelijk.
Ik ga waarschijnlijk naar 4K gaming overgaan, ik zou die 32 inch alienware monitor durven kopen.

Mijne pc heeft een 3080 graka, steengoeie graka moet ik zeggen maar voor 4K gaming kan het wat moeilijk worden.

Alleen weet ik nog niet wat te nemen, naar tschijnt zou die 5090 een beest zijn, alleen is de vraag: ik ben geene professionele gamer, dusja.... is de 5090 dan echt nodig? Of zou ik genoeg hebben aan de 5080?

Ik ga sowieso 1500€ hebben de 5080 kopen zal lukken.
Voor de 5090 zal nipt worden. :). Ik zou waarschijnlijk nog mijn voeding moeten veranderen.
850watt nu.

Op dit item kan niet meer gereageerd worden.