Eerste Nvidia RTX 5080 met minder rops duikt op

Er is een eerste Nvidia RTX 5080-gpu opgedoken die minder raster operations pipelines aan boord heeft dan zou moeten. De videokaart heeft naar verluidt 104 rops in plaats van 112. Nvidia heeft nog niet gereageerd op de nieuwe bevindingen.

Reddit-gebruiker Gingeraffe90 heeft een screenshot met de specificaties van de RTX 5080 in GPU-Z op Reddit gedeeld. Op de afbeelding is te zien dat de videokaart minder raster operations pipelines aan boord heeft dan zou moeten. De overige specificaties lijken wel met de officiële specificatielijst van Nvidia. Het gaat om een Founders Edition-variant van de RTX 5080 en niet om een kaart van een partnerbedrijf. De gegevens van GPU-Z zouden volgens VideoCardz gevalideerd zijn. Dat wil zeggen dat de informatie op de screenshot betrouwbaar is.

Nvidia heeft nog niet gereageerd op de nieuwe bevindingen met betrekking tot de RTX 5080. Het Amerikaanse bedrijf heeft eerder deze maand bevestigd dat sommige RTX 5090- en RTX 5070 Ti-videokaarten minder rops zouden kunnen bevatten. Het zou volgens het bedrijf om 'een zeldzaam probleem' gaan en de impact zou ook 'gering' zijn. De gpu-prestaties gaan volgens de fabrikant door de ontbrekende rops met ongeveer 4 procent achteruit, terwijl gebruikers bij de AI- en computeworkloads geen verschil zouden moeten merken.

Getroffen klanten kunnen bij de boardontwerper aankloppen voor een vervangend exemplaar. Nvidia zei dat de productiefout inmiddels is opgelost. Het is onduidelijk hoe de fout is ontstaan. Raster Operations Pipelines zijn onderdelen van een videokaart die pixeldata helpen verwerken, bijvoorbeeld om pixels naar de framebuffer te schrijven.

Nvidia RTX 5080 met minder ROP's in GPU-Z. Bron: Reddit-gebruiker Gingeraffe90
Nvidia RTX 5080 met minder rops in GPU-Z. Bron: Reddit-gebruiker Gingeraffe90

Door Jay Stout

Redacteur

24-02-2025 • 08:37

131

Lees meer

Reacties (131)

Sorteer op:

Weergave:

Zoveel problemen met de 50x0 serie, was aan het jagen op een 5090 als upgrade voor een 3080 (AI) en 6900xt 4k gaming, maar denk inmiddels dat ik deze generatie maar oversla.

Smeltende connectors,
Minder ROP's,
Niet Leverbaar,
Veelste duur,
Teveel Watt.
Je vergeet de black screens :P
https://www.notebookcheck...e-schuldige.958475.0.html
.
In de build voor een kennis net hetzelfde, alsmaar blackscreens met een RTX5080

Ik heb dit opgelost door hem op een PCIe 4.0 slot te steken.
AutoHDR en HDR uitschakelen en beide monitoren samen op 60Hz of 120Hz.
(Met een enkele monitor probeer op 120Hz)

Maar nog steeds 3/4 van zijn games die niet werken of telkens crashen . |:(

[Reactie gewijzigd door MPIU8686 op 24 februari 2025 12:11]

Crashende games kan ook liggen aan wegvallende support voor oudere render technieken zoals physX en dergelijke... NVidia heeft wederom weer niet duidelijk gecommuniceerd wat er wel of niet nog werkt mbt tot oude software / games!
Ja, is inderdaad door het ontbreken van 32bit PhysX ..


.
Ik zie nu deze comment en denk.. shit..
Ik heb dus een RTX 5080 (met alle ROPS) en mijn tweede beeldscherm flikkert afentoe onder load of blijft soms wel tot 30 seconden uit.

Had al een nieuwe kabel besteld en allerlei drivers geupdate..
Wou vanmiddag de nieuwe kabel erin prikken maar vrees dat dat dus ook niet zal helpen.
Normaal zou je op zijn minst toch je schermen werkend moeten krijgen en die blackscreens wegkrijgen.

Het is blijkbaar wel belangrijk dat je RTX5080 op een PCIe 4.0 slot moet zitten.
Als je 2 dezelfde schermen hebt, daarom niet van hetzelfde merk..
maar met dezelfde specs krijg je normaal wel alles werkend.

Maar alle games werkend krijgen is nog een andere zaak.

Ik weet niet of ik blij voor jou moet zijn dat je aan een RTX5080 bent geraakt of
dat het eerder een straf is met deze release .. 8)7
Ik heb hem voor een opzich nog redelijke prijs op de kop getikt via coolblue (1599€)
Ik heb 2x 27 inch maar de ene heeft 165hz en de andere 144hz.

Het valt me op dat het alleen onder load gebeurt, al is het maar een klein beetje. Zeer jammer.
Tot zover het afschrijven van Intel omdat ze moeite hebben oude games te ondersteunen...
Ondersteunt Nvidia nog wel z'n eigen control panel? Die herken ik ook nog uit de tijden dat ze hun drivers nog "Detonator" noemden :P

Zonder gekheid, het is balen dat PhysX niet meer wordt ondersteund. Maar vooral jammer vind ik het dat de aankoop door Nvidia er vooral voor heeft gezorgd dat PhysX sowieso eigenlijk amper nog werd toegepast in games. Het had echt veel potentie om games een extra dimensie te geven aan games, maar is gewoon een stille dood gestorven omdat het nooit echt groot heeft kunnen worden, op wat schowcase games na.

Maar aan de andere kant, het is niet alsof je bij de concurrentie PhysX kon gebruiken, dus in hoeverre is het überhaupt een aankoopargument geweest? Als je het lijstje van games er bij pakt (https://www.pcguide.com/n...ing-physx-32-bit-support/), zou ik niet eens kunnen zeggen of hier een game bij zit die in dit decennium is uitgekomen.
In een eerder nieuwsbericht over physx heb ik in een reactie gelezen dat een moderne cpu sneller physics berekeningen doet dan het huidige physx, dat lijkt me een goede reden waarom de lijst met physx games zo klein is.
Het gaat ook nog alleen om de 32-bit variant van PhysX, als een spel de 64-bit variant gebruikt is er niets aan de hand. Je kunt natuurlijk altijd nog de CPU variant kiezen of PhysX helemaal uitschakelen in het spel zelf (indien dat kan, want ja AMD kaarten werden nooit ondersteund door PhysX, dus die optie moet er zijn).
Er zijn anders genoeg 32bits games waar de performance helemaal in elkaar kakt als je cpu physx gebruikt. Sta je dan met je dikke 5090, maar je spel draait beter op een bak van 10 jaar terug.
Zet je toch gewoon weer een PhysX kaart (of aparte videokaart met PhysX) er los naast...
Haha, ik zeg dat als grap, maar vermoedelijk zal dat technisch dus wel een werkbare oplossing zijn.

[Reactie gewijzigd door xtlauke op 24 februari 2025 14:40]

Er was al een post ergens van iemand die een RTX 3050 als PhysX kaart naast zijn RTX 5090 gezet had.
Is natuurlijk een manier om het probleem te omzeilen.
Wel een vrij dure en inefficiënte oplossing natuurlijk. Als je nog veel oude titels speelt dan ben je beter af met de 4000 series kaarten i.p.v. de 5000 series.
Inderdaad, en dat was mijn punt ook een beetje. Dat nVidia dit niet beter oplost? Als je nog graag wat oudere titels speelt, dan is dit echt wel iets om deze nieuwe kaarten niet te kopen. Moeilijk leverbaar, belachelijke prijzen, verscheidene problemen, en dan zou je 10 jaar oude kaart nog beter presteren ook? Maarja, die dingen verkopen toch wel, het is niet dat ze kopers te kort komen ...
Het wordt nog best veel gebruikt in spellen, alleen niet meer de variant waarvoor hardware acceleratie nodig is.
Ik vermoed dat dat tegenwoordig veel van die effecten die we toen zagen ook prima op de cpu kunnen, mits er fatsoenlijke ondersteuning is voor multithreading, en er gebruik wordt gemaakt van SSE/AVX i.p.v. X87 (wat de reden is dat het voor geen meter draait op cpus tenminste zover ik het heb begrepen).
Bron: https://www.realworldtech.com/physx87/4/

Ik heb het nooit echt gemist, van wat ik in spellen zag was het voornamelijk onrealistisch veel effecten.

[Reactie gewijzigd door Sp3ci3s8472 op 24 februari 2025 19:55]

Je vergeet de black screens :P
Worden die niet veroorzaakt door een driver issue? Beetje zoals toen met de 3090 waarbij de Nvidia drivers die kaarten opbliezen op het laadscherm van een of andere game. Installeer je de Nvidia drivers dan loop je kans dat je nieuwe 5000-kaart ermee op houdt.
Nvidia heeft toch nooit driver issues, dat is toch voorbehouden aan AMD? (sarcasme)
Ik blijf het verbazingwekkend dat men zoveel geld verdiend, maar het dan nog voor elkaar krijgt om een product met zoveel problemen op de markt te brengen.
Omdat Nvidia niet verdient aan ons maar aan AI. Eerst waren het de Bitcoins bois, toen de scalpers en nu Nvidia zelf die de boel opjaagt voor wat precies?

Zoals zat mensen al aangeven het upgraden is het geld niet waard. Maar het vervelende is, of de verkoop meezit of tegenvalt maakt bottom line voor Nvidia niet zoveel uit. Wij zijn een centje extra en zolang wij een after thought zijn, wat zal het Nvidia schelen dat er diverse problemen zijn die naar mijn inziens niet eens daar zouden moeten zijn. Het is toch te belachelijk dat problemen zoals connector issues, minder ROP's voorkomen? Dan heb je geen QC in huis die zijn werk doet, of het boeit de QC weinig.
Is het Nvidia die de prijs opdrijft of winkels en board-partners? De officiele prijs van een 50XX kaart is een stuk lager dan de winkel prijs. Dus waar gaat het geld naar toe?
* 1.5 tot 1.8 zodra het de EU binnen komt. Boven op de marge komt dan nog de BTW.

Het lijkt wel of onze webshops daar (VS) online inkopen op consumenten prijs en dan nog een marge er op zetten. Of hier een lege webshop hebben en bij de tussenhandel inkopen. Weet niet wat het is maar de vraagprijs verschil is gewoon te groot.

Ik merk op Discord dat de gamers daar een betere kaart kunnen kopen voor veel minder geld. De laatste nieuwe, en aanbiedingen voor het vorige model.
.oisyn Moderator Devschuur® @n4m3l35524 februari 2025 10:13
Eerst waren het de Bitcoins bois
Het waren overigens nooit de "Bitcoin bois", om het simpele feit dat bitcoin mining op de GPU al sinds 2012 niet meer kosteneffectief is. Het waren de proof of work chains waar geen ASICs voor waren en die niet te doen zijn op een FPGA.
Upgraden van een 40x0 is de moeite niet, nee. Zelfs vanaf de 30x0 is het erg duur. Maar er zijn nog genoeg gamers die met oudere hardware gamen.

Dat dit issue met de Founders Edition ook optreedt is wel significant. Daar is NVidia zelf verantwoordelijk voor de kwaliteitscontrole alvorens het product naar de markt gaat.
Gedeeltelijk met je eens als je kijkt naar de huidige situatie. Een punt voor Nvidia is echter ook de lange termijn strategie.
Gamers zijn een redelijk stabiele markt, waarmee ik vooral bedoel dat deze over de jaren zou blijven bestaan.

Er zijn al meerdere markten geweest die vroeger winstgevend en groot waren, maar nu niet meer bestaan of nog maar een kleine afname markt kennen.
Hier volgt een aanname
AI is nu weer de gewilde markt, maar zal compleet van GPU’s afstappen wanneer quantum processoren echt gebruikt gaan worden.
Einde aanname

Al met al weet Nvidia dat ze de markt niet links kunnen laten liggen. Zelfs als ze er tijdelijk even tussenuit zouden stappen, win je dat niet zomaar terug. Kijk naar hoe moeilijk AMD en al helemaal Intel het hebben om marktaandeel te winnen.
Mocht Nvidia nu niet investeren in de consumenten GPU tak, dan zullen standaarden compleet ombuigen naar die van concurrenten.
Het is ook geen blik bonen wat ze in elkaar zetten he… er is vrijwel geen bedrijf wat doet wat zij doen (Intel en AMD lopen mijlenver achter).

Dat ze vervolgens willens en wetens brakke producten op de markt brengen is dan wel weer niet zo netjes.
Intel en AMD lopen mijlenver achter
Mijlenver? De 5080 is slechts 12% sneller dan de 7900XTX. Leuk dat de 5090 met z'n enorme die en vermogen zo snel is, maar bij gelijk vermogen ligt Nvidia niet zo ver voor hoor.
[...]

Mijlenver? De 5080 is slechts 12% sneller dan de 7900XTX. Leuk dat de 5090 met z'n enorme die en vermogen zo snel is, maar bij gelijk vermogen ligt Nvidia niet zo ver voor hoor.
Ja maar hoeveel mensen geven iets om het verbruik?
Ik ga eerlijk zijn als mijn kaart 30% meer zou verbruiken voor 10% meer performance zou ik dat zeker ok vinden, en ik denk dat de meeste gamers het daarmee eens zouden zijn.

Daarnaast is software ook een dingetje, DLSS, Moonlight, RTXHDR, RTXvoice, RT, path tracing dit zijn dingen waarmee Nvidia gewoon jaren voorloopt op AMD.

Ik heb zelf nog een AMD gpu maar heb toch besloten om nu de overstap te maken, alleen doet de hele 50 serie launch me toch twijfelen, het is dat mijn 6800 een beetje tegen de limieten draait.
Verbruik is hitte. Hitte is herrie.

Undervolten is tegenwoordig misschien wel net zo populair als overklokken, juist om tegen een minimaal verlies aan prestaties wel de winst te pakken qua verbruik en warmte. Velen kiezen er juist voor 30% minder te verbruiken tegen hooguit 5-10% minder prestaties.

Daarnaast dien je te investeren in een zwaardere voeding, waar ik toch eigenlijk gewoon blij ben als mijn 650W voeding weer een generatie extra mee kan, in plaats van dat ik weer een nieuwe PSU aan mag schaffen. Zeker omdat het verder een top of the line model is (BQ Dark Power Pro 11).

Verder, ja, leuke features, als je ze gebruikt. Voor mij zijn het oplossingen waar ik een probleem bij moet zoeken. Ikzelf streep dat alles weg tegen de zorgvrije support op Linux, wat nog eenvoudiger is dan Windows. En op Windows kan ik juist de moderne drivers, zonder gezeik of zorgen dat iets achter een eventuele registratie of paywall zou worden gezet, waarderen.

Als je nu nog op een 6800 zit zou ik me vooral afvragen wat je werkelijk gaat gebruiken. Een waslijst aan features is leuk, maar als je het niet gebruikt, zijn er andere factoren die doorslaggevend kunnen zijn :)
(En als FSR4 de verwachtingen inlost, is misschien het belangrijkste argument ook nog eens van tafel, fingers crossed)

[Reactie gewijzigd door Cid Highwind op 24 februari 2025 10:21]

Helemaal mee eens. Heb nog een 650W voeding die ik niet van plan ben om te veranderen.
Zelfs nog een 1650 super of zoiets die ik destijds "tijdelijk"gekocht had tot een GPU uitkwam die prijs/kwaliteit correct leek. Wacht ik dus nog altijd op al zal ik dit jaar uiteindelijk dan toch een nieuwe GPU kopen.
Daarbij telt gewoon de raster vs prijs vs watt/hitte/lawaai.
hitte is hitte ook XD. hell op aarde in de zomer vooral in mijn kamer. Ik kijk liever naar de kaart met de beste FPS/watt. maar zelfs daarmee loopt AMD achter volgens mij

[Reactie gewijzigd door berchtold op 24 februari 2025 15:52]

Ja maar hoeveel mensen geven iets om het verbruik?
Ik ga eerlijk zijn als mijn kaart 30% meer zou verbruiken voor 10% meer performance zou ik dat zeker ok vinden, en ik denk dat de meeste gamers het daarmee eens zouden zijn.
Dat verschilt inderdaad per persoon, maar zo bedoelde ik het ook niet. Wat ik bedoelde is dat de 5090 zo ver voor ligt door bruut vermogen en dat hij per gespendeerde watt niet zo veel sneller is. Dat houdt in dat AMD de 5090 bij zou kunnen benen als ze de moeite zouden steken in een RDNA kaart met een die zo groot als die van de 5090 en vergelijkbaar stroomverbruik.
Dat doen ze niet, waarschijnlijk omdat het niet winstgevend is ofzo.
Daarnaast is software ook een dingetje, DLSS, Moonlight, RTXHDR, RTXvoice, RT, path tracing dit zijn dingen waarmee Nvidia gewoon jaren voorloopt op AMD.
Qua RT zaken ligt Nvidia ongeveer één generatie voor op AMD. Vergelijk de RT prestaties van de 3090 en 7900XTX maar eens. De AMD kaart ligt een procent of 10 voor.
Dus AMD is niet dé beste koop voor een RT liefhebber, maar voor de rest van de gamers die "wel eens een spelletje met RT opties spelen" is een AMD kaart best een goede optie. Vergeet niet dat de 7900XTX 300 euro goedkoper is dan de 5080 (als die ooit voor 1200 euro in de schappen ligt) en in raster maar een paar procent achter ligt.
Moonlight
Moonlight kun je op elk systeem gebruiken ongeacht GPU. Moonlight is alleen de client op de andere (niet game) computer. Met Sunshine op je game pc kun je dan alsnog streamen naar een moonlight client als je geen Nvidia kaart hebt.

[Reactie gewijzigd door youridv1 op 24 februari 2025 09:20]

En dan hebben we het nog niet eens over AI workloads gehad...
Ik snap dat dat in de Tweakers / Software Dev bubbel heel erg relevant lijkt, maar de gemiddelde Geforce/Radeon klant doet daar niet zo veel me. Bij professioneel gebruik wordt vooral workstation grade hardware ingekocht. Hoe goed een consumentenkaart LLM's kan draaien is niet super relevant. Bovendien geldt dat alleen voor de 90 serie kaarten. De rest van de kaarten blijft steken op 16GB VRAM en voor veel modellen met veel parameters is dat veel te krap.
16 GB is vooral een LLM beperking, maar niet alle AI is een LLM of GenAI. Een klassieke AI taak als beeldherkenning gaat uitstekend met CUDA op een 4080.
Veel mensen .. (fervent gamer of niet, je moet kijken naar je verloning en de maandelijkse kosten die allemaal moeten worden betaald, niet iedereen heeft een riante verloning)

Het valt op dat ik alsmaar meer energiezuinige builds moet bouwen voor mensen, het is zelden dat iemand nog een RTX4090 wou verleden jaar. Of ze namen voorlopig een RTX4070Ti SUPER in de hoop met een latere generatie te kunnen upgraden naar een snellere maar even energiezuinige GPU die toch nog wat performance geeft.

Ik heb zelf even een build gehad met een RTX4090 ..goed voor enkele weken gamen, maar was voor een kennis gebouwd. Zou het zelf niet moeten hebben in deze tijd van veel te hoge elektriciteitskosten.

Verbruik is wel degelijk een issue bij veel mensen momenteel.
Zelf kijk ik dus wel naar performance per watt en hoef ik geen kaart die 400W verstookt of meer. Momenteel heb ik een RTX 4070 om die reden.
Inderdaad, daar heb ik ook naar gekeken en om die reden vorige week een RTX 5070 Ti gekocht en geen 5080 (ik kwam van een 2080). Gisteren getest in een game en hij trok toen max 252 Watt (TDP is 300W). Want ja, we moeten toch echt zelf iedere maand die stroomrekening betalen.
In dit gezin met Old Gamer en zoon new Gamer, wordt stroom gewoon doorbelast. Maw hoort bij de kostprijs, ik ga zijn auto ook niet aftanken.

Gewoon prijs performance, gemiddeld wattage. Systeem inregelen, fps enz. Wij spelen een spel en zitten niet met truukjes te kijken of we misschien een verschil zien. Onze beleving zit in het spel, PvE pvp puzzels grind strategie.

Dus wij gaan meer en meer richting Indië games. Visuele (audio) presentatie is een ding maar als het spel verder niet te vreten is en alles het zelfde is met ander special effect sausje dan laat maar.

1500 eur om alles glimmend nat te maken, een niet realistisch sausje.
Daarnaast is software ook een dingetje, DLSS, Moonlight, RTXHDR, RTXvoice, RT, path tracing dit zijn dingen waarmee Nvidia gewoon jaren voorloopt op AMD.
Moonlight heb je geen NVIDIA voor nodig.
RTXHDR toegegeven zou ik niet weten of AMD hier ondertussen weerwoord voor heeft. Van de videos die ik heb gezien is het sowieso niet bepaald een enorm verkooppunt door wisselvallige resultaten.
RTX voice heeft al heel lang een tegenhanger in de Adrenalin software (met een lagere performance impact).
Ray/path tracing is een kwestie van die-space hieraan toewijden. AMD maakte de keuze dit niet te doen. Met de aankomende kaarten doen ze dit wel en de verwachting is dan ook dat het verkooppunt dat NVIDIA dit veel beter zal doen wegvalt.

N.m.m. zijn de grote verkooppunten raytracing performance, DLSS, een iets lager verbruik en CUDA.

Die eerste twee punten zal AMD meer de aankomende generatie naar verwachting de boel behoorlijk gelijktrekken.
CUDA is enkel van belang voor een zeer klein percentage van de gebruikers en ZLUDA lijkt ook steeds beter te worden.

Pluspunt voor AMD is dat de Adrenalin software nog steeds een stuk completer dan de NVIDIA app is. Alhoewel NVIDIA daar recent een enorme stap vooruit heeft gezet.
--
Als reactie op een andere bovenstaande post. AMD loopt echt geen jaren achter. Op de één of andere manier ondanks dat ze zoveel kleiner zijn ontlopen elkaar nauwelijks. Als ze wat meer die space aan raytracing wijden (wat ze dus doen bij aankomende generatie) dan maken ze dat een grote inhaalslag. Hetzelfde voor de RTX 4090/5090. Het is niet alsof ze geen kaart kunnen maken die vrijwel gelijk zou presteren, het is simpelweg dat het voor hun de kosten niet waard zouden zijn. Mocht NVIDIA ten onder gaan dan is het niet alsof we er plots jaren op achteruit gaan qua grafische kaarten voor gaming. AMD zou prima in staat zijn dat gat te vullen.

Voor CUDA toepassingen en AI zou het wel een stap achteruit zijn. Vandaar ook dat NVIDIA niet zoveel om gamers lijkt te geven op het moment. Het is een beetje bijzaak.
Ik verwacht eigenlijk dat low tot mid end gaming binnenkort het domein van APUs en iGPUs wordt een dan valt het nog te bezien of NVIDIA daar aan mee wil doen met ARM chips (want een x86 license hebben ze niet, ze hebben wel genoeg geld om Intel te kopen).
Dit is persoonlijk, maar ik undervolt mijn GPU (4090) ver zodat ik hier geen standkachel heb. Ik moet nu alsnog buiten de winter met airco aan gamen. Ik kijk echt uit naar zuiniger performers puur voor de warmteproductie
Kuch, Cuda mijlen ver ;-)
Ook bij niet vendor-specific varianten ligt nvidia simpelweg voor: OpenCL draait beduidend beter op nvidia kaarten momenteel.
De 7900XTX is AMD's flagship toch? Dan is het redelijker om deze te vergelijken met de 5090, En dan is dat verschil wel mijlenver.
Ja en nee. In principe heb je gelijk, als je het beste van het beste wilt, is AMD geen optie door het prestatieverschil met de 4090 en 5090.
Echter is de reden dat dat gat zo groot is dat de 4090 en 5090 gewoon veel meer hardware aan boord hebben en ook veel meer verbruiken. Qua performance per watt liggen ze dus niet zó ver voor, maar Nvidia heeft simpelweg een grotere GPU geproduceerd en vraagt daar ook de hoofdprijs voor. AMD had dat ook kunnen doen, maar heeft dat om de een of andere reden niet gedaan. Waarschijnlijk omdat ze geen brood zagen in zulke enorme GPU's produceren.

Ik weet dus niet of het zo redelijk is om de twee te vergelijken. Ja, het is het beste wat beide partijen kunnen leveren, maar die vergelijking heeft alleen zin als je kosten wat kost de snelste GPU wilt hebben. De rest van de markt kijkt naar prijs/performance en performance/watt. Niet iedereen heeft een oneindig budget. En in dat opzicht verschillen AMD en Nvidia een heel stuk minder.

Is het eerlijk om een videokaart met een MSRP van 1999 USD te vergelijken met een kaart met een MSRP van 849? Ik zou willen stellen van niet, maar dat is voor iedereen anders.

[Reactie gewijzigd door youridv1 op 24 februari 2025 12:00]

Op welk vlak lopen ze mijlenver achter dan? GPU performance wellicht. Maar dat staat los van de complexiteit van de chip. Als je dat bekijkt is het niet zo eenvoudig. Ook aantal transistoren is het geen gelopen race.
Ik denk er totaal anders over. De RTX 50** series is inderdaad teleurstellend, qua performance per watt en per euro in aanschaf, aanschafprijs in absolute termen, verbruik in absolute termen, en de problemen die er verder zijn. Ik heb er nog geen gekocht en zal dat voorlopig ook niet doen, ondanks dat ik dat met mijn hoge resolutie en wensen er wel graag een zou willen gebruiken (al staat de hitteproductie in de zomermaanden me tegen).

Maar het is inderdaad cutting edge wat ze hier leveren en geen ander bedrijf krijgt het voor elkaar wat ze doen. Daarbij zijn ze afhankelijk van een TSMC, want niemand anders kan dit produceren op dit moment. En de winsten voor eenzelfde stukje wafer zijn in de zakelijke markt een stuk groter (vandaag dat er ook zo weinig kaarten beschikbaar zijn).

Dat we op die forums als dit lekker doorzeuren verandert echt helemaal niets aan het feit dat Nvidia zo populair is (want AMD is ook niet perfect en loopt tegen vergelijkbare uitdagingen aan, en past zelfs releasedatums in maanden aan o.b.v. wat Nvidia doet).

Dit soort kritiek wordt al sinds 2016 gegeven (toen de kaarten grotendeels naar crypto mining kopers gingen en de prijzen erg hoog waren, en sindsdien is de algemene trend dat ze alleen maar hoger zijn geworden, en fors ook). Of zelfs langer dan sinds 2016. En Nvidia is volgens mij nog nooit zo populair geweest. Zie de hype en zie hoe snel de kaarten uitverkocht raken, er extra betaald wordt, en waarschijnlijk de komende maanden dat nog steeds zullen zijn. Sommige van de huidige problemen zoals smeltende connectoren speelden ook al bij de RTX 4090.

We gaan er echt niets aan veranderen. Lijkt me echt een illusie. Natuurlijk moeten we geen smeltende connectoren accepteren, en die kaarten met minder ROPs moeten inderdaad kunnen worden omgeruild zoals Nvidia beloofd. Maar om zo neerbuigend te doen over wat Nvidia, AMD, TSMC, etc. in het algemeen bereiken komt kortzichtig over.

[Reactie gewijzigd door xtlauke op 24 februari 2025 14:42]

Jaren geleden deden ze ook al cutting edge dingen. Enkele flaters te na gesproken lukte het toen wel om iets degelijks op te leveren. Nu gaat het toch hard de foute kant op. En dat mag gezegd als het gebaseerd is op feiten. Net zoals het gezegd mag worden dan Nvidia nooit veel heeft gegeven om consumenten die problemen ervaarden (cfr. GTX 970 VRAM debacle; 16-pin power connector issues... )
Ook al zijn bedrijven er niet om onze vriendjes te zijn of om weldoeners te zijn, het lijkt(!) toch alsof respect voor de consument steeds meer wordt opgeofferd. Zolang de boot te water gaat, zeker? Al kan dat lang zijn in het geval van een quasi-monopolie.
Ergens zit er te veel druk op om de nieuwe kaarten snel op de markt te brengen. Er is niet voldoende tijd genomen om de kaart en de productielijn te testen.
Normaal wordt de productie al gestart voordat een nieuw product aangekondigd wordt, zodat er al enige voorraad is op het moment van de aankondiging. NVida heeft ook nog eens een beperkte productiecapaciteit.
Uit de geruchtenmolen komt naar voren dat de kaarten slechts kort voor de release dates uit de productie gerold zijn, en dat er dus weinig tot geen tijd geweest is om uitvoerige productie testen te kunnen doen.

Dat er dus nu een aantal issues uit de kast komen rollen is dan ook niet vreemd.
Of je wacht gewoon een half jaar / jaar tot al die punten waar nodig zijn aangepast, de prijzen zijn gedaald en de kaart weer leverbaar is. Alleen het stroomgebruik zal niet veranderen. Dan kan je beter een minder high-end model kiezen.
Het vervelende is nou net dat de prestaties per Watt nauwelijks zijn verbeterd bij deze generatie. Je kunt wel een lager gepositioneerd model nemen, maar dan heb je kans dat je prestatieverbetering ook tegenvalt. Dan kom je op een prestatieniveau dat je bijna net zo goed met de 40-serie had kunnen bereiken.
Ja, als ik een 40xx kaart had zou ik die ook zeker nog lekker een paar jaartjes houden. Ik ben persoonlijk nog steeds tevreden met mijn 3070 en sla gerust nog een generatie over. (Als de nieuwste games ook de leukste games zouden zijn zou dat misschien anders liggen). Maar ongeacht je upgrade interval: je betaald de hoofdprijs met een grotere kans op kinderziektes als je koopt bij launch van een nieuw product. Een beetje geduld bespaart een hoop.
Ik snap ook niet waarom mensen met een 40xx series kaart met 80 of 90 aan het eind nu zo nodig willen upgraden. Ik ben jaren terug al gestopt om met iedere nieuwe generatie GPU release door een upgrade cycle te gaan. Ik sla tegenwoordig minstens 2 generaties over en koop dan de top of the line GPU van die generatie.

Mijn RTX 3090 is nog steeds goed genoeg voor 2560x1440 gaming, wat meer dan genoeg is voor mijn opstelling. 4K gaming komt wel een keer als er genoeg redenen zijn om daar heen te gaan.

Mijn GPU daarvoor was een GTX 980, die is er uitgegaan omdat 4GB VRAM gewoon echt niet meer kon.
Groot gelijk heb je. Ik zit min of meer op jouw upgrade cyclus maar een treetje lager in de specs. Mijn vorige kaart was een 970 :) Daar was na een jaar of 7 gebruik nog niks mis mee, behalve inderdaad behoorlijk achterhaalde specs.
Dit wordt inderdaad nu "gewoon" bij Nvidia, maar het is natuurlijk van de zotte dat de leverbaarheid zo slecht is. Zij kiezen zelf het moment van de release, en hoeveel chips ze produceren (de foundries van de wereld zijn drukbezet maar Nvidia heeft zo ongeveer de meeste invloed om productiecapaciteit te kopen). Er had gewoon langer gewacht kunnen worden om meer voorraad op te bouwen, of Nvidia zou een paar procent minder AI-chips kunnen maken om genoeg GPU's te kunnen maken. Dat gebeurt niet. Ze brengen de kaarten uit terwijl ze overduidelijk niet genoeg geproduceerd hadden; dit is geen natuurgeweld maar commercieel wangedrag. Dan missen er ook nog ROPs in sommige gevallen, het verschil met de 4000-serie is niet eens zo groot, en de prijzen zijn astronomisch. Het herstellen van de missende ROPs lijkt te gaan zonder terugroepactie, dus alleen voor wie er zelf achterkomt. Er waren meerdere nettere oplossingen voor deze problemen en Nvidia kiest die bewust niet, terwijl ze meer geld hebben dan zowat elk ander bedrijf ter wereld...

Nvidia valt steeds verder naar beneden in gaming, maar er is zo weinig alternatief dat mensen het "normaal" gaan vinden. Alsof wij ons als consumenten maar moeten aanpassen aan deze streken. Maar de meeste andere complexe consumentenproducten komen op de markt wanneer het product echt af is, en er wél genoeg voorraad is; dat zou toch echt de norm moeten blijven.

Onze invloed gaat via onze portemonnee, dus kopen of laten liggen. Maar ook in discussies zoals hier hoeven we Nvidia's gedrag niet te normaliseren. Dan is het alsof we vragen om genaaid te worden, en Nvidia te accepteren als onze heer en redder.

[Reactie gewijzigd door geert1 op 24 februari 2025 11:26]

Nee, zeker mee eens. Maar ik normaliseer het niet hoor. Er is een inherent risico aan kopen rond de launch. (Van welk product en van welk merk dan ook). En ook een kans op te weinig voorraad. Je kunt veel van dit risico vermijden en geld besparen door uit principe pas later te kopen. En in alle opzichten een beter geïnformeerde keuze maken.
En je moet een tweede, oudere, videokaart ernaast houden voor 32-bit PhysX.
Hé interessant, hebben ze die support eruit gesloopt bij de 50-serie?
Laten we niet te hard van stapel lopen. De connector issues zijn pas bij een handvol kaarten gezien. De minder rops ook, en men kan de kaart gewoon omruilen (slordig, maar toch). Hij is wel leverbaar, zijn al zat mensen die er een hebben, duur is in the eye of the beholder, en teveel watt is subjectief.

Is het allemaal ideaal? Nee, maar laten we nu niet doen alsof er alleen maar problemen zijn.
Leverbaar? Stuur mij maar een link waar ik de videokaart kan kopen onder 110% van het MSRP
Als ze niet leverbaar waren geweest hadden reviewers en mensen er geen gehad. toch zijn er al genoeg mensen die er een hebben weten te bemachtigen. Dus ze zijn leverbaar. Niet fulltime wellicht, maar leverbaar zijn ze wel.
Dat is niet de definitie die de meeste mensen in hun hoofd hebben voor het woord "leverbaar". Wat jij leverbaar noemt, noem ik eerder "gelanceerd". Leverbaar voor mij betekent dat je mij nu een linkje kan sturen, waar ik gelijk kan afrekenen en binnen de week het pakketje kan ontvangen. Met andere woorden, als ik wil, kan die geleverd worden. Leverbaar.

Dat is dus gewoon niet het geval, hoe hard je ook probeert jouw interpretatie van dat woord door te drukken. Er zijn een paar gelukkigen die een kaart hebben kunnen kopen, en de rest moet gewoon kin kloppen. En het gevolg is dus grote schaarste waardoor we weer met woekerprijzen zitten.

De price/performance bij MSRP was sowieso al dubieus tegenover de vorige generatie (die ook niet geweldig was), maar met we werkelijke straatprijzen is het gewoon dramatisch. En nee, je kan de oude kaarten niet meer kopen want die zijn allemaal uitverkocht. In de praktijk betaal je nu dus meer geld voor minder performance dan een half jaar geleden.

Voor de consument is het dus gewoon slechter geworden. Het had allemaal betaalbaarder geweest als deze kaarten gewoon niet waren uitgekomen. En dan krijg je nog eens de problemen met die connector en power architectuur van die kaart die gewoon een tikkende tijdbom zijn, de ROP lotto, black screens, PhysX support weg voor oudere games... Zijn er alleen problemen? Misschien niet. Maar laat ik het zo zeggen: De GTX 480 launch ging beter.
Je beseft dat reviewers voor het overgrote deel gewoon de kaarten op voorhand toegestuurd krijgen door Nvidia en diens partners en dat ze niet zelf een gaan kopen (wat al na de verschillende embargo's zou zijn)?

The RTX 50 serie "leverbaar" noemen is gewoon onzin.
Er zijn ook gewoon normale gebruikers genoeg die een 50 serie kaart hebben.

Zeggen dat ze "niet leverbaar" zijn is gewoon onzin.

Met de 4080 super heb ik op launch tijd ook op f5 zitten drukken en er een weten te bemachtigen , daar zei men ook van dat het niet leverbaar was. Toch had ik 4 dagen later een 4080 super in mijn pc.

[Reactie gewijzigd door Visgek82 op 24 februari 2025 13:08]

Dat vraagt hij niet he....hij wil een link zonder scalper prijzen ;)
Uh, reclame-doeleinden? Dat is de reden waarom belangrijke reviewers (meestal youtube kanalen) er 1 in bruikleen krijgen. Hoe vaak het voorkomt dat de reviewer het betreffende produkt tot aan het einde der tijden in bruikleen mag hebben, dat weet ik niet. Dat zal veelal liggen aan de reviewer, de toon van de review en andere (persoonlijke) interacties tussen het bedrijf en reviewer.

Maar dat heeft dus niets te maken met de daadwerkelijke leverbaarheid van het produkt als het gaat om normale consumenten. Zolang ik het niet zonder moeite aan kan schaffen in een winkel en/of online voor MSRP, dan is er alleen sprake van een 'paper launch', oftewel zijn er niet genoeg kaarten geproduceerd en wat er geproduceerd is, gaat of naar reviewers of naar bedrijven/personen die 2x de MRP voor die kaart willen hebben.
Aha. Oké. We hebben blijkbaar een andere definitie van leverbaar.
Leverbaar had Nvidia veel beter op orde moeten hebben. Paper launches en beperkte oplagen horen niet voor te komen.

Als je een 5080 released, dan moet hij overal in dikke aantallen bij de winkels al liggen. Anders krijg je wat je nu krijgt. Uiteindelijk veel slechte publiciteit en niet tevreden klanten.
O ja 2e hands met minimaal 20% er bovenop. 2e hand zou moeten zijn onder de nieuwprijs dus voor 1750 ofzo is reëel toch?

/wishfull thinking
Geen probleem hier, 2* de prijs van de VS. Voor mij is de extra grafische saus geen 1400-2000 eur waard. Ach ik zit bij de goed is goed groep. Er is nog zoveel te spelen op Steam, en anders gaan we over naar de Console.
"What's new" bij Nvidia? Elke generatie was er wel iets vreemds aan de hand. En telkens weer moesten consumenten er zelf op een of andere manier achter komen.

Of het nou een...
  • GT 730 met DDR3 en een versie met GDDR5
  • GTX 970 met 3,5GB + 0,5GB
  • stiekem twee versies van de RTX 4080,
  • nieuwere kaarten, lagere memory bus
  • Claims over Planned Obsolence
Altijd weer vage dingen... waar gebruikers pas later achter komen, maar altijd weer achteraf te verklaren zijn door Nvidia, maar waardoor je als consument extra alert moet zijn als je een kaart van Nvidia wil aanschaffen.
Maar ja... de kaarten verkopen toch als zoete broodjes.

[Reactie gewijzigd door Obfzk8R op 24 februari 2025 18:51]

Ik heb een 5080 en ervaar geen van boven staande problemen. Ik vraag me af in welke mate alles wordt uitvergroot en daadwerkelijk een issue is. Iedereen praat elkaar na of baseerd zijn mening op een enkele Redditpost of Youtube video.

Ik ben ontzettend blij met mijn 5080 en draai mijn games allemaal op ultra. Im loving it <3

[Reactie gewijzigd door EzMe op 25 februari 2025 14:32]

Ik vind het maar gek, dit kan toch niet legaal zijn? Je kan toch niet gewoon random een paar "defecten" tussen je stock gooien die 7% minder renderen kan maar toch dezelfde naam/product zou zijn?
Product voldoet niet aan de specificaties. Wat mij betreft een heel erg iets. Zeker daar waar veel geautomatiseerd is en er vele controles op van alles moet plaatsvinden voordat het eindproduct er staat.
Het is al decennia bekend dat er variatie is in CPU's en GPU's. Kleine defecten kunnen ervoor zorgen dat niet alles het doet. Daarom worden CPU's en GPU's "gebind", ingedeeld in klasses waarbij de lagere klasses deels defect zijn, danwel op een lagere snelheid lopen.

Het is in die situatie dus normaal dat er binnen een bin ook variatie is. Overclocking is daardoor mogelijk, kijken waar in de bin jouw CPU valt.

Dit is normaal en daarmee an sich legaal. Je moet wel opletten als verkoper dat je de productspecificatie baseert op de onderkant van de bin, niet het gemiddelde.
Voor het prijskaartje van die RTX 5080 mag je toch anders wel een binned GPU verwachten lijkt mij en gaat dat in deze eigenlijk niet helemaal op. Waren de prijzen nu redelijk normaal dan had ik ook wel zoiets van tja, kleine variatie is wel oke.
De GPU van een 5080 is de GB203, en de top bin daarvan. De 5070 Ti heeft ook een GB203, maar dan de lagere bin. De 5070 is dan weer de top bin van de GB205. Ongeveer elke GPU is dus binned, ongeacht prijsklasse.
De GPU van een 5080 is de GB203, en de top bin daarvan.
Ja dan zou je dus al helemaal verwachten dat die nagenoeg geen 'defecten' heeft. Plus kijk maar eens naar het commentaar van Gamers Nexus, het zou om een verlies van 4% gaan volgens Nvidia. Hij vind dus die 4% behoorlijk veel en neemt daarbij ook nog een heel aantal andere zaken erbij, plus nog eens de absurde prijs.
Het is een fout en de kaart word gewoon omgeruild als hij dit defect heeft. Slordig is het wel.

[Reactie gewijzigd door The Reeferman op 24 februari 2025 09:56]

Ja maar dan ben je ook al een paar weken tot maanden verder (depending op hoe erg het nou echt staat met de stock)

Daarnaast haalt dat niet weg dat dit echt voelt als een "ik hoop dat ze het niet merken" situatie, zo'n kaart gaat echt niet de deur uit zonder dat het opgevallen is door een systeem.

[Reactie gewijzigd door Joshuffle op 24 februari 2025 09:57]

Denk dat defecte kaarten binnen een maand vervangen worden. En tot die tijd kan je er prima mee uit de voeten. Sommige kaarten met minder ROPs zijn zelfs als review samples uitgegeven. Denk niet dat ze zich bewust waren. Wat wijst op ontoereikende kwaliteitscontroles.
Met de huidige "tekorten" verwacht je dat kaarten binnen een maand vervangen gaan worden?
Zou zomaar kunnen, ga jij een kaart uit je systeem trekken? En dan hopen dat er vervanging is, en enige tijd zonder zitten. Want tja 5% minder is het de moeite?

Kan zomaar dat ze daar op gokken, hun response niet van invloed op ai prestatie.
Vroeger werden zulke modellen opzij gehouden en werden op de markt verkocht onder een andere benaming ..

maar waar is inderdaad de kwaliteitscontrole
en gebeuren zulke controles al volledig geautomatiseerd of niet .. :?
Wat een shit show. Nvidia claimde "na onderzoek" dat dit kan gebeuren met de 5090, 5090D, en 5070Ti, maar over de 5080 is met geen woord gerept. Ik zou voorlopig alles met een korrel zout nemen en mij als consument wel twee keer bedenken voor ik 1500+ uitgeef aan deze serie.
Kennis van mij had een RTX5080 kunnen bemachtigen, heb deze voor hem ingebouwd gehad. Eerst een hele tijd blackscreens, nadat ik dat had opgelost bleek meer dan 3/4 van zijn games niet eens meer te werken. Dat kreeg ik dus niet opgelost .. blijkt dit aan het ontbreken van 32bit PhysX te liggen .. |:(

Nu hoor je overal over smeltende 12Vhpwr stekkers en PC brand .. !!
Krijg al schrik om deze RTX50** reeks nog in te bouwen voor mensen.

.

.. Nvidia's geloofwaardigheid verdwijnt momenteel als sneeuw voor de zon ..
De toekomstige RTX5060 zal het dus ook hebben, minder ROPs.
Dus geen +15% maar 10% meer performance, en veel geld voor fictieve frames. Dus hoe hard gaan ze dit melken bij de volgende kaart?

Als sim vlieger wil ik niets fictief zien, dat een punt (vliegtuig ) gewoon verzonnen wordt of weggelaten.
Stel dat je een 5080 koopt als upgrade voor de 4080. Performance winst 12%. Dan krijg je dus een kaart die minder goed presteert 8% sneller dus als de 4080 en deze is gemiddeld 2000 of hoger.

En helaas zijn er mensen die dus een 4080 voor een 5080 gaan inwisselen.

Omruilen kan je niet snel. Want wanneer krijg je een nieuwe kaart als die er niet zijn.

Wat een aanfluiting.
Er zijn er genoeg die altijd het nieuwste moeten hebben bij release.
Het enige geluk dat velen nu hebben is dat ze er door de tekorten nog niet aangeraakt zijn

Maar ik ken er met een RTX5090 en RTX5080 die nu met de gebakken (GPU's) peren zitten .. :D
Minder dan 8% zelfs, 112%x0.96=107,52% performance ten opzichte van de 4080.
ja, ik ben autist..
Uiteindelijk vertellen ze dan toch weer niet de hele waarheid.
Als ze wisten over welke batch het ging, dan zouden ze onmiddellijk moeten toegegeven hebben dat er ook 5080's zijn met dit probleem.
Nu reppen ze er met geen woord over, en komt dit dan toch uit.
Mogelijk zijn er nog heel wat meer gedupeerden die het zelf niet eens weten.
Voor Content creators (lees Blender, generative AI) is het minder belangrijk of er ROP's missen.
Echter voor gamers is dit voornamelijk wel een key-factor.

Ikzelf ben vanwege Blender/genAi nog steeds in de markt voor een 50xx series als de prijzen een beetje teruggaan naar adviesprijs, maar zit nu wel met een schuin oog naar AMD te kijken met hun RX 9070/9070XT (Geen Optix voor blender, maar wel een soortgelijke feature)
welke in gisteravond gelekte performance testen zo'n 40% sneller is dan de RX 7900 GRE, welke nu nog aardig meedoet in de charts tegenover 4070/5070ti ....
Als die een goede verkoop prijs krijgen en beschikbaar zijn kan dit zomaar een vlucht gaan nemen.

bron: https://videocardz.com/ne...erage-than-7900-gre-at-4k
Eigenlijk een gemiste kans voor Nvidia: plak er 32GB geheugen op en verkoop deze kaarten als 5080 AI Pro voor € 2499 -> nog meer profit.
En toch lopen ze als warme broodjes want er is een grote groep die het toch wel koopt.
Tja dezelfde die credit card trekken voor ingame aankopen. Om dan maanden later bij de gemeente een schuldsanering traject gaan volgen. Of zoiets als iemand die alleen op zijn zolder leeft na het werk.

Maar ja als je 2000 kaarten verkoopt met 1000 eur extra marge. Is dat toch 2.000.000 eur. Scheelt hoop werk 20.000 klanten of 2.000.

Het trieste is dat voor velen 1000 eur de norm is. En dan is het in de eu *2
Snel verkopen als limited edition rop 5080 voor een nog hogere prijs, dan wachten op een 5080 die wel oké is.
Even serieus: de eerste die opgevallen is duikt op. Hoewel de 50 series in DIY machines natuurlijk de meeste aandacht krijgt, en het is zeker geen kleine markt (maar wel kleiner dan smartphones, consoles, TV's, en integratie -- zeg maar alle andere internet/media/game apparaten), is het wel een kleinere markt dan OEM's. En zelfs elke DIY-bouwer zit misschien niet op het niveau dat ze ná het inpluggen van een nieuwe kaart ook GPU-Z kennen én gebruiken.

Hoeveel 50-series (en voor dat: andere/lagere series) kaarten zijn er wel niet in het wild waarbij de gebruiker een of meer gebreken NIET doorheeft? Een paar missende ROP's zijn een vertraging die iemand die van een 1080-series kaart afkomt misschien niet eens merkt, maar de andere gebreken kunnen in potentie op den duur (soms zelfs na een middenlange duur) gevaarlijk zijn!
"de impact zou ook 'gering' zijn" ...
Dat lijkt me wishful thinking, als je getroffen bent is de impact natuurlijk niet gering, om over de imagoschade voor nvidia zelf nog maar te zwijgen.
Gezien de keuzes en acties heeft Nvidia helemaal geen angst voor imagoschade. Was dat wel het geval geweest, had men deze kaarten namelijk helemaal niet op de markt laten komen. Het betreft immers slechts een gering aantal, iets wat sowieso nooit was opgevallen omdat het hier sowieso vrijwel een paper launch betreft met slechts een minimaal aantal op de markt gebrachte kaarten.

Daarnaast koopt men nog altijd massaal Nvidia GPU's, ondanks hun 3.5GB debakel van de 970 generatie. Ze kunnen doen wat ze willen, de consument heeft hen al lang en breed ter kennen gegeven niet bereid te zijn over te stappen.

Het PR antwoord spreekt wat dat betreft boekdelen:
We have identified a rare issue affecting less than 0.5% (half a percent) of GeForce RTX 5090 / 5090D and 5070 Ti GPUs which have one fewer ROP than specified. The average graphical performance impact is 4%, with no impact on AI and Compute workloads. Affected consumers can contact the board manufacturer for a replacement. The production anomaly has been corrected.
Gewoon business as usual voor een bedrijf dat weet dat de consequenties te verwaarlozen zijn.

Op dit item kan niet meer gereageerd worden.