'Nvidia is gestopt met leveren van RTX 4090 aan board-partners, 4080 volgt snel'

Nvidia lijkt te zijn gestopt met het leveren van nieuwe RTX 4090-gpu's aan board-partners. Voor de RTX 4080 gebeurt dat naar verwachting volgende maand. Ook Tweakers hoorde die geruchten. Fabrikanten kunnen hun bestaande voorraad nog opmaken.

Leaker @harukaze5719 deelt een screenshot met interne communicatie vanuit Nvidia richting zijn board-partners. Daarin staat dat het fabrikant inmiddels al is gestopt met het leveren van RTX 4090-gpu's. Ook Tweakers hoorde dat eerder deze week van een board-partner. De tekst op de Chinese website die harukaze5719 deelt is overigens ook nog slechts een gerucht van een gebruiker die daar zelf stelt het bericht als board-partner te hebben gekregen. In het bericht staat dat het gaat om zowel de RTX 4090 als de 4090D, de gpu voor de Chinese markt. In de communicatie staat dat 'de RTX 4090/4090D-serie al is stopgezet' en dat die niet meer geleverd wordt. Fabrikanten kunnen de komende weken gebruiken om hun bestaande voorraad weg te werken.

Daarnaast schrijft Nvidia dat hetzelfde later deze maand gaat gebeuren met de RTX 4080. Daarvan wordt de levering 'naar verwachting' volgende maand stopgezet. Vanaf november zullen fabrikanten dan hun bestaande voorraad moeten opmaken.

Het stopzetten van leveringen komt nog ruim voordat Nvidia de nieuwe generatie videokaarten heeft aangekondigd. Tweakers wist eerder deze zomer al te melden dat de RTX 50-serie niet in 2024 meer uitkomt, maar is uitgesteld naar volgend jaar. Eerder gingen er al geruchten dat de kaarten tijdens de CES in januari worden aangekondigd. Nvidia heeft het stopzetten van de leveringen nog niet officieel bevestigd, en heeft ook nog geen prijsdaling voor de RTX 40-serie aangekondigd.

Door Tijs Hofmans

Nieuwscoördinator

04-10-2024 • 19:29

147

Lees meer

Reacties (147)

147
142
40
3
0
79
Wijzig sortering
Is dit hoe het normaal gaat? Je zet de levering van je oud product stop nog voor je zelfs je nieuwe project aangekondigd hebt 8)7. Voorraad opmaken is één, maar je oude product zul je toch ook nog wel een tijdje verkopen. Een aantal weken lijkt me wel heel kort, zelfs na introductie van het nieuwe model zijn oude kaarten nog niet direct obsolete. Zeker 4090 en 4080 niet. Of willen ze zo iedereen verplichten om wel over te moeten stappen naar de nieuwe 50x versies.
Je doet een aantal aannames die naar mijn mening niet kloppen in dit marktsegment. Ten eerste denk je dat ze het oude product nog wel een tijdje gaan verkopen, dat zou waar zijn als het hier om een 4060 ging, maar niet over de markt die exclusief is voor mensen die het beste van het beste willen kopen. Als die straks mogen kiezen tussen een 5080 of een 4080, zelfs al was de 4080 honderden Euro’s goedkoper, dan deden ze dat niet en kochten ze alsnog het veel nieuwere en betere product. Sowieso zal de vraag naar deze kaarten nu al, maar zeker de komende maanden, tot een nulpunt gaan dalen. De potentiële koper in dit segment wacht op de opvolger en gaat nu geen upgrade doen naar een binnenkort verouderd model.

Je tweede aanname is dat ze het product willen blijven verkopen, nogmaals, het segment 60 en misschien zelfs 70 series zal inderdaad nog een tijd doorgaan met verkopen en er zullen zelfs nieuwe SKU’s uitkomen op dat precede, maar er komt geen nieuwe 4080 of 4090 meer, daar is geen markt meer voor en dus zou het vreemd zijn als Nvidia voorraden gaat aanleggen van die chips, wat ga je daar mee doen, proberen naar de datacenter markt te pushen? Ook daar zullen ze liever een kaart op de nieuwste architectuur willen.

Dit betekend overigens sowieso niet dat men je dwingt over te stappen van de 50-serie, je 40-serie zal nog prima werken en support krijgen, dus die kun je gewoon blijven gebruiken. Maar in dit marksegment zullen er genoeg overstappers zijn, als je dan perse een goedkope 4080 of 4090 wilt kopen dan kun je best de V&A of Marktplaats in de gaten houden a.s. januari.

[Reactie gewijzigd door Aiii op 4 oktober 2024 20:12]

Als de 4080-serie snel zal volgen is het echt wel wat meer dan de mensen die het beste van het beste willen kopen. De 80-serie is namelijk waar de veeleisende doorsneeconsument begint met kopen. Ik acht het ook waarschijnlijk dat, doordat nVidia een beperkte verwerkingscapaciteit heeft qua productie, dit trucje ook voor de overige series sneller dan verwacht ten tonele zal verschijnen dan bij eerdere series. We komen langzaamaan op het punt dat nVidia wel eens zou kunnen gaan nadenken om de consumentenmarkt véél minder belangrijk te vinden. Er wordt relatief weinig geld verdiend aan dit soort klanten.
veeleisend en doorsnee is geen match. Ik ben doorsnee en koop geen kaart duurder dan 500 gezien ik daarboven belachelijk vind (zeker gezien je dan ook een dikke vette pc eromheen dient te bouwen en een top of the line monitor wilt om alles zo snel mogelijk te hebben). Je gaat tenslotte geen 4090 combineren met een ryzen 5 5600 of zo 😂... Dat is al een fiat panda met een v12 motorblok...
Er zijn allerlei smaken, maar de producten die aan de bovenkant van de markt zitten hebben altijd al een bijzonder prijskaartje gehad. Dat waren de SLI/CF opstellingen en de absolute topkaarten van de beide partijen. De producten in het segment dat daar net onder worden geplaatst hebben vaak een veel redelijker prijskaartje, maar zijn nog geen budgetkaarten. Jij hebt het over budgetkaarten in jouw voorbeeld. De laatste kaart die ik heb gekocht die onder de €500 was heb ik denk ik een jaar of 8 geleden gekocht. Dat is al zooo lang geen redelijke maatstaf meer dat ik dat niet eens serieus kan nemen als iets anders dan middenklasse of nu zelfs budgetklasse.
400 euro is nog altijd prima mainstream te noemen, dat is echt geen budget. Of althans, zoals ik het ken loopt budget ook vandaag echt maar tot 250 euro zoiets, en velen zitten met de portemonnee nog altijd naar 8GB VRAM kaarten te kijken nieuw, of moeten heel geduldig zijn voor een koopje met meer VRAM 2e hands. Dan kun je met inflatie afgelopen 12 maanden misschien net nog een RTX 3060 12GB of RX7600XT onder budget scharen, of precies als grens zien waar mainstream begint zo je wilt.

NVidia als eerste stap voorbij 8GB VRAM krijg je onderstaande met 12GB VRAM
uitvoering: MSI GeForce RTX 3060 VENTUS 2X 12G OC
bij AMD als eerste stap meteen 16GB VRAM maar wel al 300 euro
uitvoering: XFX Speedster QICK 309 RX 7600 XT
Ik ben het hier niet mee eens. De 60-serie is altijd al budget geweest in mijn ogen. De 70-serie is in mijn ogen de gulden middenweg tussen prestaties en prijs, en daarmee de niet-budget optie. De 80-serie de op prestaties gerichte optie zonder daar de wat-de-gek-er-voor-geeft prijs te betalen. En als je arm bent kon je voor COVID meer betalen dan nu, dat is zeker waar. Maar door marktontwikkelingen zijn de prijskaartjes die bij de diverse marktsegmenten horen verschoven. Die gaan nooit meer naar beneden. Als je niet meer over hebt of wil spenderen, dan ben je gewoon een categorie naar beneden gevallen, om het zo maar te zeggen.
je midrange met 1 release sku is wel erg mager.
igpu vorige-gen

x040/ igpu nextgen
x050 low budget

x060/70 midrange

x080/90 high-end

waarbij we in overgang van onderkant lowbudged worden dikkere igpu
60-series is echt budget, of je het nu leuk vindt of niet. De 70- en 80-series zijn voor de mensen die wel geld hebben, maar dat niet weg willen gooien.
Nu combineer je de 70/80 serie..?? De 70 serie is voor mensen die goed willen gamen maar de belachelijke prijzen van een 80/90 serie niet willen betalen. De 70 serie is midrange en prima betaalbaar voor jan modaal. De 80/90 serie is dure "high end" shit voor mensen met dikke waggies en dikke doekoes! En de 60 series mag je budget noemen maar de prijzen ervan zijn dat bij diverse varianten absoluut niet. In de klassen budget en midrange verliest Nvidia vele klanten gezien AMD netter is met zijn prijzen in dat segment. En begin nou niet over al die software trucks die Nvidia heeft tov AMD...we hebben het over RAW power..
Als in het opzicht van budget vs middenklasse\ inderdaad. Dat is toch niet zo moeilijk?
Het hele overzicht:
De 90-serie is de top, wat de gek er voor geeft.
De 80-serie is de bovenkant middenklasse, waar prestaties er toe doen maar waar prijs ook een rol speelt om daar te komen.
De 70-serie is de onderkant van de middenklasse waar prestaties niet al te veel geld mogen kosten.
De 60-serie en lager is budget, waar geld belangrijker is dan echte prestaties.

Wat mij betreft ben ik compleet consistent geweest in mijn antwoorden.
80 series bovenkant middenklasse?
Grappenmaker 8)7

Die dingen beginnen bij €1000 joh.

[Reactie gewijzigd door Zexion op 6 oktober 2024 12:11]

Dat is nu de middenklasse, Dat jij dat niet kan of wil betalen is heel wat anders.
50 en 30 serie al vergeten? Nvidia heeft goed zijn best gedaan.
50 en 30 zijn de budget gpu's , maar die zijn poef verdwenen.
Tja, dat je uberhaupt overweegt die dingen te kopen voor iets anders dan een HTPC of NAS is wonderbaarlijk.

De 50- serie: Technisch gezien bestaan die dingen, maar ze zijn het geld dat je er voor betaalt niet waard. Geen noemenswaardige prestaties en ze zijn zo slecht dat je om nog nieuwe spellen te spelen bij de volgende generatie gelijk weer aan de beurt bent. Verspilde moeite en verspild geld.
De 30-serie is voor als je een extra paar poorten nodig hebt of als je wil transcoden. Verder niks.
De 1050ti en 1650 waren toch een lange tijd de populairste gpu en beste bang for buck.

Lager dan dat is inderdaad zonde van je geld.

Maar nvidia heeft het midden segment gewoon een klasse omlaag gehaald sinds de 40series.

4060 hoort 4050 te zijn, aangezien deze slechter presteert dan een 3060ti.

De echte 4060 bestaat niet, die is foetsie. Er zijn geen 40 serie kaarten die net wat beter zijn dan de 3070.

4070 klopt, presteerd hetzelfde als 3080.
Ik kijk niet naar populariteit, ik kijk naar prestaties en levensduur voordat de kaart effectief gezien overbodig wordt. En een 60-series kaart kan je één generatie overslaan voordat de prestaties in nieuwere titels ondoenlijk worden. Met een 70- of 80-series kaart meestal wel twee, waarbij een 80-series kaart op het einde van de effectieve levensduur in nieuwe spellen net iets beter presteert dan de 70-series kaart van die generatie. Met een 50-series kaart ga je ten tijde van een nieuwe generatie spellen geen nieuwe spellen kunnen spelen zonder dat het ondoenlijk wordt.

[Reactie gewijzigd door ocf81 op 5 oktober 2024 20:22]

Voor workloads die op de GPU draaien zoals 3D rendering of andere CUDA stuff heeft dat 0,0 invloed en is zelfs een 1st gen Ryzen prima te gebruiken.
Ik weet dat het kan..uiteraard! Maar het is niet handig om een budget systeem met een dikke videokaart te gebruiken voor gaming ondanks dat het kan. Een goedkoop moederbord heef eenmaal slechtere caps/vrm's en een degelijke voeding met een beetje extra capaciteit kan geen kwaad (veiliger en toekomstbestendiger).
doordat nVidia een beperkte verwerkingscapaciteit heeft qua productie
Nvidia produceerd helemaal geen chips, dat doet TSMC voor ze. Ze hebben gewoon geen nieuwe batch bij hun leverancier besteld, dat moet bij TSMC (productie tijd inkopen) al heel erg van te voren, dus dit is gewoon gepland bij Nvidia en ja ze moeten ruimte maken voor de nieuwe chips die al lang en breed in productie zijn.
nVidia is afhankelijk van de leveranciers TSMC en Samsung, en kan niet 100% van de capaciteit van deze partijen claimen. In die zin heeft het te maken met een beperkte capaciteit. Dat is toch niet zo moeilijk te begrijpen?
Als je het kunt inplannen heb je dan toch ook geen beperkte capaciteit. Plannen en anticiperen is een vak.
Er is geen eindeloze capaciteit beschikbaar en de producten kunnen ook niet eindeloos worden uitgesteld, want dan zijn ze niet relevant meer. Dat verhaal van jou klopt dus niet.
aangezien er ook geen eindeloze afzetmarkt hebben is dit ook niet nodig.

ze kopen per kwartaal zoveel miljoen chips want ze verwachten zoveel afzetmarkt.

geloof mij, de afdelingen die hiervoor verantwoordelijk zijn een pak slimmer dan jou en mij.
en die spreken niet over beperkte capaciteit .
De AI markt is nu wel tamelijk overspannen en dat komt omdat het aanbod de vraag niet aankan. Er is dus wel een allocatieprobleem.

En spreek alsjeblieft voor jezelf, niet voor anderen.

[Reactie gewijzigd door ocf81 op 6 oktober 2024 15:09]

Alles tot en met de 4060 is ronduit troep. Ik heb een Palit GeForce RTX 4060 Ti StormX en speel hooguit twee keer per jaar een spel en zelfs dán is het een behoorlijke teleurstelling. Niemand die ook maar serieus gamed zal een dergelijke kaart aanschaffen. Vanaf de 4070 wordt het interessant en als je deze tegen het eind van zijn cyclus koopt, krijg je een fatsoenlijke kaart voor het geld van een kansloze 4060. Ik verwacht dat Nvidia veel meer om zal zetten als ze de topmodellen van de vorige generatie langer door zouden verkopen, tenzij de de opvolger slechts een marginale upgrade is; dan duikt iedereen op de oude kaarten en laten ze de nieuwe links liggen.
Er zijn hordes mensen die juist een net oudere serie kopen, juist omdat je dan alsnog jaren vooruit kan, ver in de top zit maar het veel betaalbaarder is. Deze hele groep sluit je uit door je aanname.
Is dit hoe het normaal gaat? Je zet de levering van je oud product stop nog voor je zelfs je nieuwe project aangekondigd hebt 8)7.
Ja. Het kost 4-6 weken om een gpu chip te maken. Vervolgens heb je een wereldwijde lancering en heb je dus letterlijk honderdduizenden chips nodig. Die chips moeten tevens nog door een AIB op een bord gezet worden samen met het geheugen en de overige componenten. Het is vrij logisch dat je een aantal maanden vóór de wereldwijde lancering stopt het de oude lijn. Zou je dat niet doen dan weet je zeker dat de launch voorraad extreem beperkt is.

[Reactie gewijzigd door sdk1985 op 5 oktober 2024 00:36]

Hangt er natuurlijk vanaf hoeveel ruimte er is in de fabs voor de juiste proces tech. Die is er momenteel niet, dus dan is het makkelijk.
Dat en de assembly lines bij de AIB's zelf waar ze echt in elkaar worden gezet. Die moeten ook worden aangepast.

[Reactie gewijzigd door sdk1985 op 5 oktober 2024 12:17]

Correctie, het kost maanden om een gpu te maken.
Nog steeds maanden. Of het nu 5 of 3 is. Tel daar de beperkte productie bij voor datacentre gpu’s.
Denk eerder dat, omdat performance winsten misschien tegenvallen. Maar dit is een aanname.
Of Nvidia heeft momenteel zoveel vraag naar hun chips dat ze de productie capaciteit willen gebruiken voor de 5000-serie, om 2 "highend" lijnen naast elkaar te laten bestaan is niet heel logisch, te meer daar straks iedereen de 5000 serie wil tenzij ze een flinke korting geven op de 4000 serie, en dat is natuurlijk niet wat ze willen.
Misschien willen ze de productie capaciteit gebruiken voor niet het volgende consumenten product, maar hun business producten lijn of is reengineering nodig van de huidige productlijn alvorens ze het nieuwe product of misschien nog beter, willen ze de product nu al omzetten zodat er voldoende voorraad is in januari, zodat de 5000 serie niet weer een paper launch wordt.
Kan ook ja, één ding is leidend, de winst. :+
Precies graaiers zijn het als je dus een top kaart wil hebben moet je een 5000 serie nemen, want de 4090 goedkoper verkopen nadat de 5000serie uitkomt willen ze niet.
Lijkt me heel verdedigbare bedrijfsvoering, waarom je partners verlies laten maken? Of zelf dat risico lopen?
Ze willen niet de markt overspoelen met vorige gen wat release adoptie van next-gen ondermijnen kan.
naast dat sterke concurrentie van vorige vs next-gen krijgt.
Ze hebben domweg geen 4090s meer en niet de capaciteit die te maken. Als ze de oude lijn moeten laten doordraaien kunnen ze niet aan de vraag naar de 5000 serie voldoen en ga je vast klagen dat je genoegen moet nemen met een 4000 serie voor teveel geld...
Is maar hoe je het bekijkt....
Dus ze hebben teweinig capaciteit waar ze zelf voor kiezen dan...

1 kleine lijn die door draait voor deze serie en de grote lijnen voor nieuwe generatie. En het is opgelost.
Dit komt bij elke overgang terug.
Dus beetje een non excuus als meest waardevolle bedrijf ter wereld kunnen ze er echt wel een lijn laten draaien als ze dat willen.

Is dus puur een keuze en niet omdat ze niet aan de vraag kunnen voldoen als ze willen.
Alles kan, maar if het logisch is is een tweede. Er is gewoon veel meer vraag dan capaciteit. Capaciteit wordt van tevoren ingekocht en door de hoge vraag is er niet veel flexibiliteit. Het is logisch dat de capaciteit ingezet gaat worden voor het product waar het meest mee te verdienen valt.

Ook betekend het niet dat de stop direct zorgt dat de winkel voorraden op zijn, naar dat terzijde.
Klopy maar bzzzt zegt dat er geen capaciteit voor is en dat is nonsens.
Als meest waardevolle bedrijf ter wereld. Kun je heel veel realiseren.
Dus het us een keuze.
Denk eerder dat overgaan naar die nieuwere nodes en die oudere vrijgeven. Die andere klanten van TSMC dan overnemen zoals AMD en daar chiplets of Radeon RDNA 4 gaan produceren. Of qualcom. of intel
lijkt me sterk dat dit het geval is of die schaarste is met opzet gemaakt.
Wat is er verkeerd met winst willen maken?
Winst willen maken is op zich niet verkeerd, die winst kan gestoken worden in het ontwikkelen van nieuwe producten waardoor het bedrijf zelf er op vooruit gaat.
Waar het fout gaat is dat NVidia (net als veel andere beursgenoteerde bedrijven) jaarlijks winst op winst wil maken zodat de aandeelhouders er elk jaar op vooruit gaan.
Op zich gebruikt nV die nieuwste en dus duurdere nodes met monolitisch GPU dus dat maakt he duur voor top-end gpu. met voordeel transistor density en beter voor mobile gpu toepassing als maakt kleinere chip zuiniger. AMD radeon pakt oudere node maakt het goedkoper maar minder zuinig minder geschikt voor mobiel. Maar voor volume productie efficiënter. En met die keuze past top high-end er niet in. want dan moet je de duurste nodes gebruiken om geen kachel te creëren. met als risico dat kroon niet pakt en tier lager moet verkopen.
En dat is jouw uitleg op de ongebreidelde zakkenvullerij van de aandeelhouders?
Ja is toch niet erg? Niemand verplicht u om een luxe product te kopen
niets maar de manier waarop wel dit heeft niets met winst te maken dat deden ze toch al dik. dit is graaien en het geld uit de zakken van de consument graaien, zo valt er weinig te kiezen en is dit geen marketing maar gedrag van dominantie. Hoop dat veel mensen zullen overstappen naar AMD evengoed met de CPU.
Weg met die graaiers en belazeren van consumenten. Ze krijgen te veel macht en maken daar te veel gebruik van.
Ja, ik heb echt medelijden met mensen die € 2000 neerleggen voor videokaart …. Die hebben het al zo zwaar met die hoge energierekening
Daarom dat de nieuwste GPU nodig hebben want bij dezelfde prestaties hebben ze minder verbruik. Is de enige manier om te besparen op de energierekening.
Dat is correct
* De meeste kijken wat voor performance ceiling brengt nextgen. factor 1,3 1,5 2x 2x+
* De minder gangbaar kijkt naar target vermogen limiet 275 watt een nieuw node en nextgen breng binnen vermogen punt meer performance mee 1,25 tot 1,5 naast dat schuift naar lagere SKU tier goedkoper uit bent.
* Dan heb je zeldzamere volk dat vaste eis heeft van 1080P gamen met medium tot high settings waar je binnen dezelfde performance je PC zuiniger wordt. Je kan dan weer tier lager gaan al kan zijn dat gen moet overslaan.

voorbeeld zijn APU met wat dikkere igpu . Toekomstige Nuc formfactor met nextgen APU ook intel met battlemage igpu vervangen instap G-kaarten.

Het probleem wat ik had is dat bijvoorbeeld PCCase, monitor een voeding van kwaliteit, lang mee gaat. Dus duurdere 80plus platinum maar met elke gen CPU en vooral GPU 330 naar 450 naar 550 naar 650 naar 850.
dus met die 5090 heb als 600Watt waar een kwaliteit 1K2 voeding nodig is. Al is mijn geval een 1850x met vega 56 in Asrock EATX mobo. Die verving een i920
Bij mij is het nog simpeler. Ik geef maximaal 300 euro uit aan een gpu en die moet minstens tweemaal zo snel zijn als mijn huidige.
Dat betekent dat ik een paar generaties moet wachten voor ik een nieuwe koop, maar dat heb ik er voor over.
Ben ik niet de enige die daar zo overdenkt. Helaas zijn er teveel mensen die zich graag laten uitkleden om maar het beste te hebben. En dat zie je overall terug Komen. PS5, GPU, telefoons, apple producten
Want Android heeft geen overpriced telefoons? Sterker nog de meest verkochte Android telefoons zijn degene die overpriced zijn en met Apple concurreren
volgens mij snap jij het niet helemaal er zijn ook mensen die het normaal niet kunne veroorloven en sparen daar Flink voor. en dus omdat het een luxe product is mag je dus ook flink belazerd worden. Het gaat er om dat die markt totaal ziek is er is geen concurrentie en zo komt alles in handen van machtige bedrijven en ja daar maak ik me ernstig zorgen om.
Inderdaad, de enige manier om hier paal en perk aan te stellen, is meer concurrentie op de markt. Daarom is het een spijtige zaak AMD qua high end GPU's de handdoek in de ring heeft gegooid, en dat Intel sowieso in moeilijk vaarwater zit.

En wie weet vergaat het GPU's ooit zoals met de sound card, natuurlijk.
Wat is er verkeerd om te 'graaien' op een luxe product? Niets volgens mij.
Neen net niet haha, daarom geen problemen mee dat ze zeer hoge winsten graaien bij LUXE producten! Zijn niet levensnoodzakelijk dus je kiest er zelf voor.
Dat noem ik jezelf laten naaien
Neen je kiest ervoor. Als je niet tevreden kunt zijn met iets minder dan moet je maar de volle pot betalen
dat klopt maar is ook niet helemaal waar door de 4090 eruit te gooien kan je daar niet voor kiezen
En dan kan het ook nog zo zijn dat de toewijzing voor de 5000-serie kleiner is dan bij de 4000-serie om zo meer ruimte te maken voor producten met een AI-focus.
Denk eerder dat ze de vrijgekomen lijn gaan inzetten voor AI en server segment.
Wij weten natuurlijk niet hoeveel chips nVidia en de boardpartners op de plank hebben liggen.
Of, zo creëeren ze meer schaarste, en kunnen zo de prijs hoog houden.
of.. zo creëren ze meer voorraad van hun nieuwe product, en kunnen zo net schaarste vermijden?
Dat is deel van de zet, maar als de prijs van de 4090 gaat stijgen als gevolg van vraag>aanbod, kunnen ze straks meer vragen voor de nieuwe kaarten. Omdat er simpelweg geen (AMD/Intel/Nvidia) alternatief is voor de 4090 kunnen ze daar ook echt mee wegkomen...
Verplicht over stappen naar de 50x reeks? Mijn "oude" RTX2060 doet het nog redelijk goed, ook al was ik nu aan het uitkijken om up te graden naar 4060. De laatste nieuwe bordjes zijn mij altijd te hoog geprijsd.
4060 zou ik echt niet doen, die is 10% trager dan de 3060ti.
De 3060ti was wel 2x duurder dan de 4070 en volgens een snelle zoektocht ook niet meer verkrijgbaar (bol.com, coolbue.be, amazon en alternate gechecked)
Hoezo? uitvoering: Gigabyte GeForce RTX3060 Ti Gaming OC PRO 8G (rev. 3.0, LHR)

Ik zag ook eentje van +800€ maar heb mijne 2 jaar geleden minder dan 500€ betaald.
Die had ik gemist!
Nu zie ik ook dat er 4060ti's zijn die in dezelfde prijsorde liggen.
Ik ga nog even verder vergelijken :)
Valt wel mee, denk ik, De 3080 is ook nog steeds nieuw te krijgen in allerlei varianten. Er is zelfs nog een 2080 nieuw te koop. Er is genoeg ouds om uit te kiezen, mocht dat je voorkeur hebben.
Dat is een grotere vraag creëren voor de XX80/90. En voor de retailers leuk, die meer kunnen vragen voor wat er overblijft. Voorbeeld 7800X3D
Dan heb je na die prijs verhoging dat men denkt, "die prijs van die nieuwe valt nog mee".
Voorbeeld 7800X3D
Teringjantje, dat ding is duurder dan een jaar geleden.. Is er al een alternatief voor die chip dan?
Nee.

Voor gaming is dit nog steeds zo'n beetje het beste wat je kan krijgen , Intel 14th gen is een "alternatief" maar ik denk dat we allemaal wel weten waarom je dat niet zou moeten doen.
staalplaat op je pc kast leggen...dan kun je een eitje bakken tijdens het gamen?
Ook de 7800x3d wordt binnenkort van zijn troon gestoten door de 'blijkbaar' snellere 9950x3d. Nu is dit niet zo erg want ten eerste blijft de 7800x3d een hele rappe gaming cpu en blijft het am5 platform nog lang levend. Ze hebben pas nog een hele nette cpu geleverd voor het oudere am4 platform en dat vind ik een hele goede prestatie voor AMD. Intel is ook goed, alleen dat verbruik. Ik vind 400 watt voor een cpu heel extreem want die cpu is gewoon niet goed te koelen en moet geknepen worden. De 7800x3d is even snel in games en verbruikt maar 1/3 vergeleken met de 14th gen Core I9.

Dat ze stoppen met de 4080 en 90 zal simpelweg te maken hebben dat de 50 serie aanstaande is. Wie zal dan nog een high-end 4080 of 90 kopen? Het is dus niet zo dat ze niet meer te krijgen zijn. Er zullen voorlopig genoeg exemplaren in omloop blijven.

Hoe noodzakelijk is een high-end gpu? Sinds DLSS en FG hebben die kaarten gewoon veel meer rek. Alleen is Nvidia vrij zuinig als het gaat om Vram.

Oftewel is er nog weinig aan de hand. Pas over enkele maanden kunnen we hier eens op terug blikken.
Dit is gewoon standaard en niet opmerkelijk. Zo gaat het al sinds .. eigenlijk altijd. Het is nooit anders geweest. Ik vind het een beetje vreemd dat Tweakers het zo brengt dat het 'een probleem zal vormen voor gpu-makers', want dat is het niet. In de tijd dat ik voor Club3D werkte gebeurde dit al en dat is al meer dan 20 jaar geleden.
Ja dat is normaal, dit is enkel de voorraad van de 'echte' makers, de makers hebben nog een hoop liggen voor bordjes te maken. Het alternatief is dat ze blijven doorgeven tot de 5000-series uit is en dan zitten de bordenmakers met een hoop overschot dat nVIDIA dan moet terug ophalen.

Er zit een heuze periode tussen de chips fabrikeren en wat jij in de winkel koopt, wat vandaag van de band gelopen is bij nVIDIA kan voor de volgende maand in een container zitten naar een ander Aziatisch land, dan zitten ze nog een maand in het warenhuis van vb XFX, moeten de kaarten een paar dagen later nog eens in een container om verscheept te worden naar oa. Dell die het systeem samenzetten alvorens een maand op een schip te zitten naar de warenhuizen in de VS en Europa waar ze dan nog enkele weken verblijven alvorens naar de klant gestuurd te worden. Tegen dat jij de tech in handen krijgt als "gloednieuw" is het volgende model al begonnen met voorbereidingen.

[Reactie gewijzigd door Guru Evi op 5 oktober 2024 01:53]

De boardmakers hebben al lang nieuws over de 50xx chips, voordat de huidige voorraad op is zijn we nog wel een heel tijdje verder. De productie capaciteit voor dit soort geavanceerde chips is niet zo groot dat ze die door kunnen laten lopen terwijl ze ook de 50xx willen produceren, dus moet de 40xx gestopt worden.
dit is gebruikelijk. er ligt voorraad bij de fabrikanten, groothandels en retail. onderschat het volume daarvan niet. veel retailers kunnen binnen 24uur leveren vanuit eigen of voorraad groothandel. en die 5090 zijn waarschijnlijk al in productie dus die productie is niet meer voor de 4090 maar voor de 5090.
ik zit voorlopig nog wel even goed met mijn 4090.
Waarschijnlijk verkopen ze sneller dan ze geproduceerd worden en hebben ze zelf geen voorraad. En als ze dan de fabriek nodig hebben voor een nieuwe kaart moeten ze stoppen met de oude.
Er lift genoeg voorraad bij partners om de vraag vanuit consumenten maanden af te dekken.
Is dit hoe het normaal gaat? Je zet de levering van je oud product stop nog voor je zelfs je nieuwe project aangekondigd hebt 8)7
Dat is toch logisch? In de autoindustrie is dat ook zo. Bij de introductie van een nieuwer model moet de assemblagelijn aangepast worden en rijdt er even geen auto van de band.

De 4080 en 4090 zullen waarschijnlijk uit productie gaan. Dan hebben ze een paar maanden om een nieuwe productie op te zetten met hun partners en voorraad op te bouwen. Anders heb je weer die paper launch van weleer en dan staan de comments ook vol geklaag.
markt voor 4090 zal wel direct afnemen omdat
a: degenen die de 4090 kopen willen het beste dus die zullen dan altijd voor de 5090 gaan
b: en 5080 zal waarschijnlijk redelijk vergelijkbaar worden met 4090 met wat extra features dus ook daardoor minder aantrekkelijk

4080 is zoals je zegt weer wat langer houdbaar blijft omdat prijs/feature verhouding mogelijk iets beter is dan de 5070. of misschien op prijs/prestatie vs 5070&5080
Door ervaring en market werking leert men bij nV en Radeon AMD. Het kan ook teken zijn dat verschil mager kan zijn tussen een 4090 en 5080 als goed beschikbare vorige gen zet de straat prijs next gen onder druk. Naast betere price hike mogelijkheden voor next-gen. En magere Vram groten. Dus nee oud product wil zo snel mogelijk EOL en voorraden op hebben zodat de keuze en beschikbaarheid alleen next-gen SKU zijn. Dan kan je MSRP wat los zetten van vorige gen, zo ook specificaties.

Als 5080 maar 16GB geeft. En rond de 4090 presteert. Is handig als 4090 op is. Ook als de prijs dichter bij de 4090 komt dan bij de 4080.

Ik denk ook dat 5080/5090 chips zijn met deel uitgeschakeld gericht op client markt en full chips voor AI. Als aanzienlijk deel is uitgeschakeld kan zijn dat nextgen dichter bij de vorige gen kan zitten. 5090 zal wel flinke stap maken, maar de 5080 hoeft maar iets sneller te zijn dan 4080. Bij 4080 vs 4090 had die laatste ondermekaar betere bang for the buck kwa MSRP wereldwijd.
Nee, zodra mensen lucht krijgen van een aanstaande release kopen er veel geen current series meer, omdat ze 'beter kunnen wavhten' en waardoor overschot ontstaat en er verlies gedraaid gaat worden als ze er vlot vanaf willen. En de productie lijnen zullen dan ingezet worden om voorraaf nieuwe serie te maken
Het betekent denk ik vooral dat de nieuwe generatie 50xx chips niet goed genoeg is om zich duidelijk te onderscheiden van de vorige generatie. Daardoor zouden de oude chips een te grote concurent vormen voor de nieuwe chips die ze voor max prijs willen verkopen.

Het is eigenlijk het creeren van kunstmatige schaarste en eigenlijk ook een vorm van misbuik maken van de markt middels eigen positie. Het schuurt heel erg aan tegen misbruik maken van een monopolie.
Ik vermoed dat er grofweg twee markten bestaan. Full HD tegenover 4k.
Full HD gebruiker heeft genoeg aan een RTX4060 met 8GB VRAM, en kan daarmee gebruik maken van de meest recente DLSS (of FSR) functies.
4K Gebruiker moet 4 maal zoveel pixels genereren, en het liefst ook nog op buitensporig hoge refreshrates, en loopt op die wijze toch met moderne, dure, hardware tegen prestatie issues aan. Best slim van die hardwarefabrikanten. Die groep kun je nog eens een upgrade verkopen. (Stroomverbruik ligt tegenwoordig trouwens ook bijna vier keer zo hoog als pakweg 9 jaar geleden. Gek he?)

Snap sowieso niet waarom 4K de nieuwe standaard is voor desktop monitoren. Ding staat vrijwel bij iedereen op een armlengte afstand.
1440p, al dan niet ultrawide, groet u.

De gulden middenweg om een rug te sparen op je GPU. 1080p is wel erg retro.
Ik heb zelf ook een ultra wide, en VR bril, waardoor ik ben uitgeweken naar een 'Quadro' een RTX A4000 met 16GB VRAM. Werkt prima, lekker stil en zuinig.
Hier ook een 1440p ridder voor diezelfde reden.
*

[Reactie gewijzigd door AntonMadness op 6 oktober 2024 08:47]

Ja dit. Ik zit al sinds een jaar en een dag op 3440x1440p en op deze resolutie heb je ongeveer een 1080 ti nodig voor een goede ervaring, mits je bereid bent om dingen ook af en toe op medium of low te zetten.

We kunnen hier op tweakers wel doen alsof je 120fps en ultra nodig hebt, maar als je alles op medium zet en een goedkope 12gb gpu koopt (denk 3060 of 6700xt), dan is 1440p heerlijk en kan 4k ook prima. Worst case moet je de render resolutie lager zetten, evt met FSR of DLSS.

Maar, 1080p op een QHD of 4k scherm (evt met AI upscaling) zal er bijna nooit slechter uit zien dan 1080p op een 1080p scherm en je hebt wel gewoon het voordeel dat text en UI scherp is, zowel in games als in windows. En dat is waar resolutie het meeste verschil maakt.
Same. 4k vind ik persoonlijk op pc schermen nutteloos. Eerste wat ik doe in windows is de scaling aanzetten omdat het toch te klein is. Kan ik evengoed gewoon een trapje lager als native resolutie pakken. Gaming misschien nuttig, maar vind daar ook niet zo veel kwaliteitverschil opzitten. Films kijken doe ik verder op mn tv die idd wel 4k is maar dan wel 3m van me staat
Ik heb twee 4K schermen, maar die staan allebei te doen alsof ze 1080p zijn, omdat nu in 2024 nog steeds desktop spul niet netjes mee kan schalen. (Linux doet een hoop goed, maar verkloot ook wel eens wat)
Idd. 4K gaming is er bijgekomen boven op 1080p/1440p.

Ik sta altijd versteld hoe er mensen zijn in de comments die doen alsof 4K het nieuwe normaal moet zijn en PC’s veel duurder zijn geworden en dat het de schuld is can GPU-bouwers. Wat natuurlijk onzin is.

Er is gewoon een segment bijgekomen. Je kan al jaar en dag een goede gaming PC samenstellen rond de €1000. Dat gaat nog steeds maar voor 4K ga je toch richting de €2000.

AMD heeft zich voorlopig ook terug getrokken uit die high-end markt.
Sinds Dos tijd perk 80386S 25Mhz
gegamed
mode-X 320x 240 640x480. 800x600 .... 1800x1400 ja 19" trinitron buis
TFT 720p 1080p 1440 4K

de stap van Y as 240 naar 480 naar 600 naar 720 is aanzienlijk naar 1080p goed merkbaar maar al gevoel van Deminishing return naar 1440p wordt dat al duidelijker magere verbetering.
4K merk ik al niet . Misschien omdat mijn 32" te ver staan 1 meter. ik ben tevreden met 1080P / 1440p
720p zou ik niet voor gaan maar max 1440p 4K i voor mij energie verspilling. zo ook 120++ fps. voor non competitie gaming.

nu PS5 meer gelijkheid daar game ik heel casual competive als COD MWIII aan Pc monitor.
PC zal meer Star citizen ding worden maar geen haast mee. Nog steeds Alpha die Squadron 42
Betekent dit dat de 40xx kaarten in prijs gaan stijgen zodra de voorraad slinkt en de 50xx kaarten nog niet uitgebracht zijn?

Ik hoopte ergens eind dit jaar een pc te bouwen met de 4070 Ti Super.

[Reactie gewijzigd door Guerilla op 4 oktober 2024 19:55]

Niet per definitie, 4080 en up hebben beperkte verkoop aantallen. De meeste mensen geven zulke bedragen niet uit aan een gpu. Neem hierbij dat het best mogelijk is dat board partners nog significante voorraden hebben en het zou zelfs kunnen dat de prijs keldert naar mate de release van de 50xx serie dichterbij komt door consumenten die wachten op de opvolger. Zeker in dat prijs segment is dat aannemelijk.

De realiteit is dus, het zou alle kanten op kunnen gaan, we hebben te weinig informatie om dat te kunnen voorspellen.
Heb inmiddels dik anderhalf geleden een nieuwe game pc gebouwd met een 4070ti./i5 13600k, 32 GB DDR5 RAM, 1000w platinum PSU, Z790 MB en een nette Liama 32" 4k monitor.
Was idd even een investering maar heb voorlopig nog geen spoor van behoefte om iets te veranderen
Voor wat ik er qua games mee doe is feitelijk alleen MSFS2020/DCS/CotW
De kast zelf staat uit het zicht onder het bureau maar op het bureau: toetsenbord/muis/stick/throttle en roerpedalen ( uiteraard onder bureau)
Oh, en ik gebruik ook trackir 5.
VR zou overkill zijn voor deze boy.
Dat geld voor straatprijs, die is onderhevig aan vraag aanbod. Valt aanbod weg dan kunnen de prijzen stijgen. Vooral als er nog vraag is.
Tja, is natuurlijk gewoon slim van ze, als de nieuwe kaarten dan uit komen hoeven de oude kaarten niet meer opgemaakt te worden.

Het zou in het beste geval kunnen betekenen dat de prijzen heel dicht bij elkaar gaan liggen, dus dat ze de voorraad 4080 op willen hebben voordat ze de 5080 uitbrengen tegen bijna dezelfde prijs.

Maar dat is enkel hoop.
Wellicht om keuzes na de 5000 series launch te beperken.
Ik neem voor het gemak maar aan dat de productielijnen niet op idle gezet worden, dus dan zal er wel wat anders mee geproduceerd worden. Wellicht alvast de 5000 serie, zodat men met de lancering niet meteen uitverkocht is en scalpers met woekerprijzen de meeste winst opstrijken.

Ik hoop in ieder geval een 5090 te kunnen vinden voor een in Nvidia termen normaal bedrag.
Zou daar niet op hopen. Sinds de 10 series zijn de prijzen van Nvidia kaarten met elke generatie omhoog gegaan, best sterk nog ook.
Nvidia gebruikt de meest moderne processen voor een nieuwe x090 launch. Dus nee, de 5090 zal niet de 4090 node hergebruiken.

Wat wel kan, is dat de 5070 voorlopig niet komt. Dan moet de 4080 het gat onder de 5080 opvullen.
Ik denk dat Nvidia er gewoon zeker van wil zijn dat de 4000-serie niet meer op voorraad is en zo met de 5000-serie kan concurreren. Ze gaan duidelijk nóg hogere prijzen vragen. Voor hun maakt het nu verder niet uit, want ze verkopen toch wel alles, liever nog zelfs, aan de professionele industrie in de vorm van AI-chips.
Geen idee of het in de zelfde straat wordt gefabriceerd maar wellicht maken ze de straat tijdelijk vrij om de productie van de switch 2 op te krikken?
Ik heb een 3080 : ben casual gamer: world of warcraft, Back4blood, world war z, god of war enz... spelen goed af. God of war/cyberpunk wel met dlss aan.
Maar alle games die ik heb spelen goed af op de max settings op een 3440x1440 scherm.

We zien wel wanneer dat we naar een nieuwe graka overschakelen, voorlopig te vroeg, die 3080 is een beest & kan nog effekes mee denk ik.
Zeker weten. 3000 serie presteerd prima.
Kan je jaren mee vooruit.
AI zaken interesseren mij niet.
Daar heb ik mijn gpu niet voot gekocht.
Veel reacties die zeggen dat er nog meer dan genoeg voorraad is bij de groothandels en retailers maar toch merk je zodra er berichten komen dat men gaat stoppen met een product dat de prijzen de hoogte inschieten dus kan je je toch de vraag stellen of er echt nog weinig wordt geproduceerd of dat ze met de prijs willen spelen en ze vinden dat ze meer kunnen vragen.

Net dit artikel gelezen https://www.tomshardware....chipmakers-recent-history dus waarom zou je tevreden zijn met 1.8 miljard als je uw prijzen nog wat hoger kan zetten door bepaalde berichten de wereld in te sturen en zo volgend jaar de 2 miljard te halen? En ja gamen is niet verplicht en het is een luxe product waarvan je niet verplicht bent om te kopen maar als bedrijf moet je nog altijd verkopen en ik denk dat er toch ooit een bepaald punt gaat zijn dat mensen zeggen dat het genoeg is en de prijs voor bijvoorbeeld een 5090 niet meer willen betalen. Het is niet alleen GPU's die duurder worden het is het leven in het algemeen en dan moet men kiezen.

Bedrijven kopen de zwaarste video kaarten voor AI maar veronderstel dat het toch enkele jaren duurt voor die zijn afgeschreven en dat ze niet elk jaar een nieuwe hoeveelheid kaarten gaan aankopen. Men moet altijd oppassen met bubbels, ze durven soms eens barsten.

Op dit item kan niet meer gereageerd worden.