Gerucht: Nvidia brengt RTX 4090 in oktober uit, RTX 4080 en RTX 4070 in 2023

Nvidia brengt naar verluidt alleen de Nvidia GeForce RTX 4090 met 24GB geheugen uit in oktober. De release van de RTX 4080 en 4070 zou in 2023 gepland staan. Nvidia zelf heeft officieel nog niets over de releasedatum van de RTX 40-serie laten weten.

Vooralsnog heeft Nvidia volgens bronnen van Moore's Law is Dead alleen de GeForce RTX 4090 voor de korte termijn gepland staan. 'Substantiële volumes' van het vlaggenschip zouden daarentegen pas in december op de markt komen. Grofweg gelijktijdig met de informatie van de youtuber zegt de doorgaans goed geïnformeerde dataminer Greymon55 op Twitter hetzelfde en voegt daaraan toe dat videokaarten met een AD103-, 104- en 106-gpu pas in 2023 uit zouden komen. Dit zijn naar alle waarschijnlijkheid de chipsets die de RTX 4080 en andere goedkopere RTX 40-serie gpu's aandrijven.

Volgens de bronnen van Moore's Law is Dead heeft de gefaseerde release van de Lovelace-generatie grafische kaarten te maken met het huidige overschot van pc-hardware. Nvidia zou in eerste instantie zoveel mogelijk RTX 30-serie kaarten die nu nog op voorraad zijn willen verkopen, wat ook de vermeende 'vertraging' van halverwege juli naar oktober motiveert.

Tot slot onderstreept de youtuber dat de GeForce RTX 4090 inderdaad een tdp van 450 watt krijgt. Een Ti-variant van 600W zou daarbij 'technisch gezien nog niet geschrapt zijn', maar het is nog niet duidelijk wanneer of onder welk subnoemer Nvidia de zeer energiehongerige gpu zou uitbrengen. Moore's Law is Dead suggereert dat Nvidia voorlopig de kat uit de boom wil kijken wat de Ti- of Titan-variant betreft.

Door Yannick Spinner

Redacteur

15-07-2022 • 17:18

128

Lees meer

Reacties (128)

128
128
56
6
0
55
Wijzig sortering
Wellicht wel handig om te weten dat deze Youtuber bijzonder vaak de plank misslaat met zijn 'betrouwbare bronnen' om maar aan de views te komen. Lijkt me verstandig om wat meer betrouwbare bronnen hun zegje te laten doen voor men in de pen klimt :P

Nvidia zit met een overschot aan 3xxx series en gaat vermoedelijk de MSRP (flink) verlagen. Dat is vrij logisch gezien de vraag aardig is gekelderd en veel gamers de kat nog even uit de boom kijken. Nvidia zal vooral AMD in de gaten houden. Oude kaarten raken ze voor de juiste prijs wel kwijt. Dus ik vermoed dat we eind Q3 gewoon de 4xxx series incl de 4080 en 4070 gaan zien. Gamers die nu wachten tot oktober wachten ook wel tot begin volgend jaar dus die zet is niet logisch.
Terechte toevoeging, maar het leek ons toch relevant gezien dit een van de vele leakers is die dit nu heeft gemeld. MLID kan het mis hebben, al wordt het steeds betrouwbaarder naarmate meer doorgaans goed geïnformeerde bronnen het melden. MLID, Greymon55 en kopite7kimi zeggen tot dusver allemaal hetzelfde!

Wat betreft Nvidia's positie, die lagere adviesprijzen zijn ook geruchten die Nvidia tot dusver heeft ontkracht. Je kunt je natuurlijk wel afvragen of ze hier niet gewoon even uitproberen wat een tijdelijke prijsverlaging voor een effect op de voorraden heeft, voordat ze eventueel structureel de prijzen omlaag gooien.
MLID, Greymon55 en kopite7kimi zeggen tot dusver allemaal hetzelfde!
MLID maakt toevallig steeds een video een dag nadat Greymon55 of kopite7kimi met een tweet komen, waarna MLID 'onthult' dat zijn eigen bronnen het precies eens zijn met Greymon55 of kopite7kimi.

Als je een beetje kritisch bent moet je dan wel vraagtekens plaatsen bij de bronnen die hij zegt te hebben. Volgens mij herhaalt MLID gewoon wat Greymon55 of kopite7kimi zeggen (en gooit hij er een dosis speculatie bovenop) en zijn die eigen bronnen binnen AMD en Nvidia er helemaal niet.
Wat betreft Nvidia's positie, die lagere adviesprijzen zijn ook geruchten die Nvidia tot dusver heeft ontkracht.
Wat opvalt is dat de kaartenmakers op Newegg allemaal precies op de genoemde nieuwe MSRPs gingen zitten, terwijl ze normaliter vaak een meerprijs vragen vanwege hun betere koeling, hogere overclocks, etc. Dat is een sterke indicatie dat Nvidia ze een maximumprijs heeft opgedrongen.
Dat laat ik in het midden, daar weet ik simpelweg niets inhoudelijks aan bij te dragen. Die aanname zou absoluut kunnen kloppen en misschien ook niet. In dit geval kwamen de Tweet en de video op dezelfde dag uit. Het feit blijft hoe dan ook dat Greymon55 en kopite7kimi hetzelfde melden, wat het geheel legitimiteit genoeg geeft om dit als gerucht te brengen.
Hoe kan er een jaar amper kaarten beschikbaar zijn en nu een overschot..
Er zijn vele redenen voor die eigenlijk een perfect storm veroorzaken (en dat is echt geen goeie zaak, tenzij je in de markt bent voor een nieuwe grafische kaart natuurlijk)

1) Crypto mining is wederom op laag pitje gezet
2) Door instorten aandelenmarkten, crypto, hoge inflatie hebben mensen minder centen, en is 'het gevoel' dat ze rijk zijn weggeëbt... waardoor ze geen/minder geld aan dit soort luxe willen opdoen
3) Gebrek aan gratis centen (coronasteun in de EU/VS) is gestopt
4) Mensen zitten niet meer verplicht thuis
5) Energie véél duurder
6) Meer en meer betaalbare tweedehands dankzij o.a. #1 + #2 (verkopen uit noodzaak) en #5... Grafische kaarten of de rekeningen kunnen betalen
En misschien belangrijkste:
7) Veel winkels dachten dat de enorme (artificiële --> Mining + covid gratis geld + onrealistische/onhoudbare economische 'groei' in een wereld die op slot zat 8)7 ) vraag zou blijven, maar die is dus door vele redenen opeens flink gekrimpt, en nu zitten ze opeens met overstock... Men voorspelt zelf rond eindejaar serieuze kortingen op luxe/elektronica om toch nog rendabel te blijven en personeel te kunnen blijven betalen... (Heb het ook pas geleerd dat dit het Bullwhip effect heet)

[Reactie gewijzigd door musback op 25 juli 2024 00:33]

Ik wacht al twee jaar met upgraden, heb een aardige bult geld liggen, maar ik ben geen dief van mijn portemonnee. Ik wacht wel tot de recessie er aan komt derde- vierde kwartaal.

Enige voordeeltje aan de komende ellende.
Recessie betekent toch inflatie en dus nog duurdere videokaarten?
Recessie en inflatie hoeven niet samen te gaan (zie 2008). Maar een flinke inflatie kan wel een recessie veroorzaken dus daar heb je gelijk.
Recessie veroorzaakt juist deflatie, het omgekeerde van inflatie. Mensen hebben gn geld, verkopers blijven met stock zitten, waardoor ze prijzen verlagen, waardoor mensen blijven wachten op een lagere prijs, waardoor verkopers met stock blijven zitten, etc.

Inflatie gaat juist gepaard met een sterke economie, sterke groei, sterke vraag, sterke concurrentie om goederen te kopen.

Maar centrale banken verhogen ten tijde van inflatie wel moedwillig de intresten, om de economie af te koelen. Wat dan weer (doelbewust eigenlijk) recessie kan teweeg brengen. Dus er is wel een indirecte link.

Ik ben gn econoom, maar dit heb ik er toch ongeveer van begrepen / gelezen.
Zoiets is het inderdaad wel.
Klopt allemaal - tenminste, normaal/theoretisch gesproken. Maar we hebben jarenlange grote groei gehad en super lage inflatie, en nu hebben we een depressie EN inflatie, dus er is een verschil tussen theorie en praktijk. Verassing ;-)
Dat is wel een bedenkelijke koop. Naast dat jij de toekomst niet kan voorspellen, kan je je geld beter in een indexfonds gooien dat tegen bodemprijs verkocht wordt.
Ik ben zelf in de markt voor een low budget kaartje dat ondersteunt bij emulatie van o.a. PS3 en Switch, maar ondanks alle berichten over prijsdalingen zie ik dat de gtx 1650, rx 6400 etc nauwelijks goedkoper worden bij o.a. Megekko. Iemand enig idee waarom?
dat is vermoedelijk omdat

1. we betalen een hoop belastingen op een kaart
2. de euro is flink gezakt tegen over de dollar
3. geen idee of dit in NL ook zo is maar in In België is het reeds jarenlang wettelijk verboden om goederen te verkopen aan een prijs beneden de inkoopprijs, uitgezonderd tijdens solden en andere uitzonderlijke omstandigheden.
En als miners door minen willen ze mss de zuinigere 4000 series willen hebben ze mss de 3000s series verkopen.
Perfect storm is geen goede zaak, zeg je. Dat was de gpu shortage ook niet. Je weet wel, waar de handel dik aan heeft verdiend. Dit is het gevolg van zo'n absurde uitmelk periode.
Hoe kan er een jaar amper kaarten beschikbaar zijn en nu een overschot..
Omdat de vraag van miners voor een groot deel is weggevallen.
[sarcasm] Welnee, miners waren toch maar een paar procent en zouden geen noemenswaardige rol spelen in de tekorten. [/sarcasm]
Kaarten waren al een tijd beschikbaar in de Nederlandse webshops, dat de prijs je niet aanstaat is een ander verhaal.
Ik heb hier twee 3070 voor MRSP, dus geen zorgen. Ze waren simpelweg amper leverbaar, waarom denk je dat er hele fora opgetuigd waren om bij te houden wanneer er nieuwe batches gedropt werden?

Daarnaast rep ik met geen woord over prijs dus je reactie slaat echt op kaas.
Ze waren wel 'leverbaar' aan miners en scalpers met bots blijkbaar. Dat heeft Nvidia en AMD ook geen windeieren gelegd, kijk maar naar de enorme winsten die ze afgelopen twee jaar geboekt hebben.

Als Nvidia er echt nt in slaagde om kaarten te produceren en verkopen zouden ze verlies gedraaid hebben. Ze hebben waarschijnlijk meer 30 series verkocht dan eender welke generatie GPU's ooit.

Ze waren niet 'leverbaar' aan de gewone man.
Jij komt aanzetten met "niet leverbaar" dat was echt niet zo en speelde alleen af in het 1e jaar.
Enige reden om "niet leverbaar" te roepen was vanwege de prijs.

Afgelopen jaren was de 30 serie prima leverbaar bij de standaard webshops behalve dat je er meer voor betaald.

[Reactie gewijzigd door mr_evil08 op 25 juli 2024 00:33]

Ik zeg toch ook letterlijk 'een jaar'.

Misschien even goed lezen waar je op antwoorden ipv woorden in de mond leggen, meermaals.

Zoals ik al zei, had ik er 2 tegen MRSP, op release date. Er meer voor betalen is inderdaad best wel dom, net als je reactie.

[Reactie gewijzigd door MatthiasL op 25 juli 2024 00:33]

Omdat ze tegen veels te hoge prijzen werden aangeboden en niemand ze kocht? Terecht overigens.

En/of omdat er een stortvloed aan 2e hands ex miner kaarten gaat komen die men liever "goedkoop" koopt en dus een nieuwe dure kaart in de winkels laat liggen, denk ik.
Ze waren praktisch niet leverbaar, dus duidelijk wel gekocht.
Omdat minen niet meer profitabel is.
NVidia heeft deze week (gisteren of eergisteren) al de MSRP aangepast (Jay van JayzTwoCents was de eerste die dit rapporteerde en je ziet in de VS inderdaad enorme prijsdalingen en ook op de website van EVGA) en dat doen ze inderdaad om zo snel mogelijk van de huidige voorraad van 3000 series kaarten af te komen voordat de 4000 series op de markt komt zodat op het moment dat de kaarten in de winkel liggen je niet langer meer 3000 kaarten nieuw kan kopen en dus als je een nieuwe kaart wilt verplicht bent een 4000 series kaart aan te schaffen.
je niet langer meer 3000 kaarten nieuw kan kopen en dus als je een nieuwe kaart wilt verplicht bent een 4000 series kaart aan te schaffen.
Of mensen gaan naar de concurrentie... AMD of Intel... Of gewoon een 2e hands kaart...
AMD heeft een veel lagere productie dus als die kaarten aanbied die gelijkwaardig of beter presteren zijn ze binnen 1 dag uitverkocht (zie de RX 6800 als perfect voorbeeld hiervan) en Intel is absoluut geen concurrent want hun kaarten presteren niet op hetzelfde niveau en aangezien ze ook nieuw op de markt zijn voor gaming kaarten zal er een hoop driver optimalisatie en ontwikkeling vanuit de kant van spellen leveranciers om die kaarten volledig te ondersteunig nodig zijn voordat ze daadwerkelijk kunnen concurreren met NVidia en AMD.
TSMC heeft capaciteit over; NVidia wil er van af vanwege hun voorraden. AMD is al klant en heeft ontwerpen die geschikt izjn voor TSMC's processen. Dus de lagere productie van AMD? Die kan heel snel eindigen, als TSMC capaciteit dumpt.

En als je er over nadenkt, het is natuurlijk in TSMC's belang om te laten zien wat er gebeurt wanneer je je als klant plotseling terugtrekt.
zie de RX 6800 als perfect voorbeeld hiervan
Je haalt wat zaken door elkaar, de RX 6800 kwam uit eind 2020, net als de RTX3080, onder onmstandigheden waar cryptomining hoogtij vierde en iedereen een videokaart wilde hebben. Waarschijnlijk heb je dit onderwerp gemist:
nieuws: 'AMD, Apple en Nvidia willen minder chips afnemen van TSMC'

De RTX 3090 zit al €200 onder de advies prijs bij introductie van €1549.
De RTX 3090 Ti zit al €550 onder de advies prijs bij introductie van €2249.

Iedereen die nu nog een RTX 3090 koopt, gaat in oktober geen RTX 4090 meer kopen... En ik verwacht eigenlijk alleen maar RTX 4090 klanten vanuit de pool mensen die voorheen een RTX 3090 kochten of nu voldoende geld hebben gespaard om een top-of the-line spiksplinternieuwe GPU aan te schaffen bij introductie.

Er is nog amper vraag vanuit cryptomining (en een overschot aan kaarten vanuit die hoek). De vraag vanuit gamers valt nu ook reuze mee, geen lockdown meer en velen hebben in de afgelopen twee jaar toch nog een nieuwe kaart op de kop weten te tikken. Stroom begint erg prijzig te worden, inflatie, oorlog, onzekerheid. Dat zijn niet omstandigheden waarbij met geld gaat smijten voor een videokaart als je dat al niet langer heb liggen. En zij die het al langer hebben liggen, verwacht ik er niet veel van te zien.
Ik heb helemaal niets gemist, ik kaart dit niet aan juist omdat dit NU niet van toepassing is en de RX 6800 ook na de val van het gebruik van crypto kaarten nog steeds enorm lastig te verkrijgen was en zelfs nu is de vraag nog steeds hoger dan het aanbod.
Mijn antwoord was gericht op jouw bewering dat mensen dan maar naar de concurrentie stappen en nu haal je iets compleet anders aan om daar omheen te praten en doe je net alsof ik iets gemist heb wat dus pure onzin is.
Dat er geen vraag meer is vanuit cryptomining weet iedereen, dat hoef je dus ook niet aan te kaarten.
Dat de prijzen van de huidige kaarten flink gedaald zijn weet ook iedereen.

NVidia weet heel goed dat zolang mensen bereid zijn om een smak geld neer te leggen voor een nieuwe kaart ze dit gewoon blijven doen, wat de omstandigheden ook zijn omdat er altijd mensen zijn die perse het nieuwste van het nieuwste willen hebben of willen opscheppen over hun nieuwe aankoop in dezelfde zin dat er altijd mensen zullen zijn die een nieuwe BMW kopen in plaats van een goedkoper alternatief simpelweg omdat een BMW 3-serie meer prestige heeft dan een Ford Mondeo of een Mazda 6.

Daar komt bij dat kaarten zoals de 3090, 3090 Ti, 4090 en 4090 Ti niet gemaakt zijn voor gamers maar voor mensen die de kaarten vooral gebruiken voor professionele toepassingen en als je daar je geld aan verdient en een Quadro boven je budget ligt dan koop je toch wel zo'n kaart ook als is deze veel duurder dan een 3080 / 4080 enkel en alleen omdat het vergeleken met een Quadro nog steeds een stuk goedkoper is.
…..of een PlayStation, of een Xbox. Alles in 1 en je bent klaar voor jaren mits het in je gebruik past. Sinds ik een Xbox heb is mijn game pc alleen nog maar in gebruik voor desktop dingen die ik op de Xbox niet kan doen. Had ik mezelf 3 jaar geleden echt niet kunnen voorstellen.
Ik heb overwogen om dat erbij te vermelden, maar ik vermoed dat de meeste die dit zouden doen, dit allang hebben gedaan in de afgelopen twee jaar. Persoonlijk zie ik dat echt niet snel gebeuren en een hoop hier met mij...

Wat ik mogelijk nog wel zou kunnen zien is bv. een Steam Deck aanschaffen en streaming vanaf mijn super zuinige PCtje (PS+ Premium, GeForce Now, Xbox Cloud Gaming, etc.) en gewoon deze generatie overslaan of (indien de prijzen goed zijn) een tweede hands kaart te kopen...
Prima toch, ik wil geen 2 jaar oude ROG Strix 3070 voor €800.
Wellicht wel handig om te weten dat deze Youtuber bijzonder vaak de plank misslaat met zijn 'betrouwbare bronnen' om maar aan de views te komen.
En hij haalt z'n video's met foute voorspellingen offline zodat het lijkt alsof hij geen foute voorspellingen doet.
Lijkt me verstandig om wat meer betrouwbare bronnen hun zegje te laten doen voor men in de pen klimt
De leakers die vroeger redelijk betrouwbaar waren spreken zichzelf nu regelmatig tegen, dus die kun je nu niet meer vertrouwen.
Het tegen spreken is vaak eerder dat er allerlei verschillende designs en configuraties zijn, veel meer dan vroeger. Bijvoorbeeld Navi 21 had met een 384 bit bus kunnen komen, maar later bleek het Navi 21 ontwerp met "Infinity Cache" toch beter te zijn.
Apple geruchten zijn daar een mooi voorbeeld van, als je het een beetje volgt zoals ik (tussendoor als ik het zie, ik kijk er niet specifiek naar) valt het op dat de info op ten duur elkaar tegenspreekt.

Natuurlijk lekt er altijd wel iets uit, maar meeste info is of niet compleet, of outdated of gewoon fake.
Heb je toevallig voorbeelden? Ik heb ook vaker zo'n vermoeden gehad maar nooit echt de tijd genomen om het eens uit te pluizen. Moet wel zeggen dat ik het vermakelijk vind om naar podcasts of videos te luisteren waar gespeculeerd wordt over aankomende hardware. Ergens hoop ik toch dat hij wel degelijk betrouwbare bronnen heeft. Er is ook nog zo'n kanaal: RedGamingTech maar die vent is niet echt fijn om naar te luisteren.
Ik kijk hem weleens uit verveling, maar ik heb hem al meerdere keren betrapt op foute info.

Natuurlijk is dat altijd mogelijk, zijn bronnen kunnen fout zitten, maar de manier hoe hij het brengt is altijd op zo'n manier dat het klinkt alsof hij weet waar hij het over heeft.

Net als zoveel YT channels en "experts", tot het echt uit is geloof ik meeste info toch niet.

En zelfs als ik bij Nvidia zelf zou werken, zelfs dan is er een kans dat je verkeerde info krijgt.

Laat staan als je van daarbuiten komt.

niet dat alles wat hij of andere channels zeggen onzin is, maar vaak genoeg wel. Niks mis mee zolang je daar rekening mee houdt
Als je ver van tevoren probeert te voorspellen is voor bedrijven zelf ook niks zeker. Hij zit met zijn "zekere" voorspellingen vaak wel goed. Niet altijd maar het is wel handig als richtlijn.
Sorry hoor, maar van veel van dit soort leaks kan alleen Jensen zelf bevestigen of ze waar zijn en zelfs dan kan het anders lopen. Juiste informatie betekent namelijk ook niet dat er een product uit komt en pure bullshit kan ook puur toevallig waar zijn. Om in dit landschap te spreken over "betrouwbaar" lijkt me pure illusie.

Bij het kopen van een videokaart zou ik kijken naar wat je nodig hebt en wat je daarvoor bereid bent om te betalen. Je kunt misschien de grote lijnen uit leaks overnemen, maar helemaal niemand weet met 100% zekerheid wat morgen gaat gebeuren, zij het bitcoin-bro, youtuber, twitterraar of een tweaker zoals jij en ik.
Zeker, maar hij heeft het ook vaak correct. Dus het luisteren van zijn speculatie is het wel waard. Hij is 1 van de grootste speculatoren in deze markt.
Ik vind het wel meevallen eigenlijk hoe vaak hij mis zit. Dat je er af en toe naast zit als je langetermijn voorspellingen doet is onvermijdbaar. Omdat nvidia en amd ook nog last minute zaken als power targets, prijzen en segmentatie kunnen aanpassen.
Ik zou niet uit gaan van Q3. Wordt echt pas Q4 voordat uberhaupt een aankondiging laat staan een release gepland staat. Ik vind het ook onzin dat hij vaak de plank mis slaat. Snap niet waar je dat op baseert maar goed ieder z'n mening.

[Reactie gewijzigd door oscarkortekaas op 25 juli 2024 00:33]

Zolang er voldoende vraag is naar de RTX 3xxx denk ik dat Nvidia niet de noodzaak ziet om de 4xxx serie zsm op de markt te brengen.
Misschien heb ik het artikel niet zo goed begrepen. Maar is het juist niet de gebrek aan vraag de reden van uitstel van de 4? Ik bedoel, crypto is ingestort en daarmee de enorme vraag waardoor ze nu met een grote voorraad zitten en dus daarom veel prijsverlagingen doen. Dus die vraag is er dan toch niet?
De hoofdreden is dat ze eerst van alle 3000 series kaarten af willen komen waar er op dit moment een overschot van is.
Dat zou je kunnen interpreteren als een gebrek aan vraag aangezien er een hoop mensen zijn die denken dat als de 4000 serie uit komt de prijs van de 3000 series daardoor zal dalen en ze wachten op dat moment om een nieuwe kaart aan te schaffen.
De werkelijkheid is dat deze strategie van Intel er juist voor zorgt dat tegen de tijd dat de 4000 serie uit komt alle 3000 series die nu bij retailers op voorraad zijn uitverkocht zullen zijn zodat als je een nieuwe kaart wilt je geen andere keuze hebt dan de 4000 serie te kopen.
Als je een 3000 serie kaart wilt is juist nu de beste tijd om te kopen omdat de prijzen op dit moment het laagst zijn omdat ze van de voorraad af willen voordat de 4000 serie verschijnt en NVidia zelf heeft de MSRP van de hogere kaarten (3080 / 3080 12 GB/ 3080 Ti / 3090 en 3090 Ti) aangepast en die kaarten zijn nu (in de VS altans) nu een stuk goedkoper dan een week geleden door deze prijs daling.
De RTX 3090 kost nog altijd een minimale 1.500 euro dus om NU zo'n kaart te kopen lijkt me nog steeds aan de dure kant. Normaliter koop je een GPU in de hoogste segment voor zo rond de 800 euro. Iets wat ikzelf een paar jaar terug ook had met de GTX 1080Ti.

Verder kun jezelf ook afvragen of een RTX 4000 serie kaart nog iets toevoegt tov een RTX 3090 / 3090Ti?
Die laatste twee zijn al behoorlijk presterende kaarten.
Dat kost die kaart hier, maar de MSRP is ondertussen aangepast naar 1299 dollar en die kaart wordt dan ook voor die prijs aangeboden, ook door 3e partijen zoals EVGA die op hun website hun FTW kaarten voor honderden dollars minder aanbieden dan een week terug.
Hoe lang het gaat duren voordat kaarten hier in de EU ook voor die prijs wordt aangeboden is zoals altijd maar de vraag aangezien om een of andere reden ze hier altijd duurder worden aangeboden dan in de VS en prijsdalingen altijd later zijn.
Zowiezo zou je als gamer nooit een 3090 aan schaffen aangezien je 3 tot 5% meer prestatie krijgt dan een 3080 Ti tegen een enorme meerprijs en veel hoger verbruik, de 3090 en 3090 Ti zijn meer voor professionele toepassingen.
Wat de 4090 toevoegd is (ook weer puur en alleen voor professioneel gebruik, heeft weinig meerwaarde voor een gamer) 16384 cores wat het een reken monster maakt maar de prijs die je daar voor betaald buiten de aanschaf is een enorm hoog verbruik dus ook hier is de 4080 Ti de beste gaming kaart.
Het is een afweging, als je zowel graag games op de hoogste resolutie wilt spelen, in elk geval moeiteloos op 4K, en tegelijkertijd ook het beste wilt halen uit videobewerking. De RTX 3090 is met z'n 24GB vram wel stukken sneller met rendering/codering dan de RTX 3080(ti). De vraag is alleen, hoe groot is dat verschil. Het verschil in prijs is inderdaad aanzienlijk, wat de RTX 3080ti wel aantrekkelijker maakt.

[Reactie gewijzigd door Snowwie op 25 juli 2024 00:33]

Ja ik had mijn MSI RTX 3080 Ti Ventus X3 OC gekocht voor 1000 Euro en de 3090 was op dat moment nog 1600, wat een enorm prijsverschil is en het lijkt me dat absoluut niet waard tenzij je inderdaad voor je werk het extra geheugen nodig hebt en een Quadro buiten je budget is.
Het is dus een berekening die je moet maken of dit rendabel is.
Kan je het prijsverschil en het hogere verbruik er uit halen door je werk sneller klaar te krijgen of ben je beter af met een goedkopere kaart die er wat langer over doet?
Welnee. Vroeger had NVidia aparte namen voor de topmodellen. De 780 Ti had al een dure variant, de eerste Titan, en boven de 2080 had je de Titan RTX. De MSRP van die laatste was $2499.

De RTX3090 heeft niet de naam "Titan" gekregen, en is ook qua prijs een stuk dichterbij de 3080 gekomen.
Volgens mij zijn vraag en aanbod nu toch wel redelijk in evenwicht? Een tijdje is de vraag veel groter geweest, maar ik heb nog niet echt gezien dat er meer wordt aangeboden dan wordt gevraagd en dus voor dump-prijzen kaarten op de markt komen.
Gezien de drama op de crytpomarkt zal er straks een redelijk overvloed aan kaarten zijn. Niet de kaarten die een gamer graag wil, maar het zal de prijzen zeker drukken.
Wellicht niet maar de 4090 is bij uitstek iets voor ontwikkelaars zodat ze de nog niet geoptimaliseerde ontwikkelingsversies van games kunnen draaien, met die enorme hoeveelheid geheugen. Lijkt me een goede reden om deze alvast uit te brengen.

Dan kunnen volgend jaar de games uitkomen die optimaal gebruik maken van de 4000 serie.
De laptops met 30xx kaarten erin zijn bij ons niet aan te slepen de laatste tijd. (Nagenoeg) alleen maar CAD-tekenaars die hiervan gebruik maken om thuis te kunnen werken. Steeds vaker gaan werkgevers inzien dat een beetje investeren in je personeel voorzien van goede machines zich heel snel weer terug betaald in productiviteit. Daar waar tekenaars in het begin van corona collectief thuis zaten en niets deden, zitten ze nu vrijwillig thuis en werken vanuit huis. Bespaart werkgevers heel veel aan reiskosten en werkplekken in stand houden. Da's al met al toch ook best een groot deel van de markt hiervan volgens mij, en is ook een markt die, als er snellere kaarten beschikbaar komen, die ook direct zullen willen gaan afnemen (en zeker zodra mobiele versies beschikbaar komen)
4090 is helenaal niet zo interessant voor veel developers, zal namelijk maar een miniscuul aantal gamers zijn die deze kaart aanschaffen.
Snap ik, maar als developers aan een game werken is deze nog niet geoptimaliseerd. Dus gebruikt veel meer texture geheugen (en performance) dan als het af is. Tijdens het ontwikkelen wordt er zoveel mogelijk tegenaan gesmeten en tegen de tijd dat het af begint te zijn gaan ze echt tunen en knippen voor de performance voor mainstream kaarten.

Ik ken een aantal game devs en die kopen de '90 kaart juist om die reden. Een early development game is veel zwaarder dan het eindresultaat.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 00:33]

Misschien voor games waarbij de planning van release pas over 4-5 jaar is ofzo, maar kijk ik naar 4-5 jaar terug, dan zie ik nog steeds niet dat RTX2080 performance mainstream is.
Nee natuurlijk niet, maar een development stack is gewoon veel zwaarder dan het eindresultaat. Wat een dev draait is niet vergelijkbaar met wat er uiteindelijk op de PC (of console) van de gamer gaat draaien.

Textures, shaders en modellen zijn nog niet geoptimaliseerd, er draait veel meer dan de game zelf (de hele editor omgeving), debugging symbols in de code enz. Daarom hebben devs ook veel zwaardere PC's dan gamers. Tijdens de ontwikkeling laten ze hun creatieve proces niet echt afleiden door de performance, en dan richting het eind gaan ze knippen en optimaliseren. Bijschaven van shaders, textures extra comprimeren, optimaliseren van code enz. Eigenlijk is dat een hele tak van sport apart.

Ik had vandaag nog een demo van een ontwikkelaar in Unreal, zijn setup was echt cool <3 Maar een lichte omgeving is het niet.

Nou ken ik geen mensen bij AAA studios, maar ik neem aan dat die het ook zo doen.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 00:33]

Maar daar heb je echt geen rtx4090 voor nodig, soms is het zelfs beter van niet, want downgraden kan soms lastiger zijn dan upgraden. Als je bv altijd bezig bent geweest op een razendsnelle PC en je moet het dan terugbrengen naar een mainstream pc dan kan dat dus wel eens grote problemen geven, een goed voorbeeld is bv cyberpunk 2077. Als developer is een snelle PC natuurlijk altijd wel heel erg fijn want je wilt niet continue moeten wachten op laden van content of compileren van code. Je moet tijdens de ontwikkeling van je game al goed rekening houden met de minimumspecs die je bij release wilt targetten, doe je dat pas bij het einde, dan ben je te laat, of je moet het dan zelfs een tijd maar uitstellen totdat de minimumspecs hoger liggen, maar dat is echt extreem en wil je echt niet.

Overigens in de tijd van UT99 t/m UT2004 gebruikte ik ook gewoon een doorsnee PC voor het ontwikkelen in Unrealscript en hadden de anderen in mijn team toen ook gewoon doorsnee PC's voor het ontwerpen van de models voor onze mod Roadkill warriors.

[Reactie gewijzigd door SuperDre op 25 juli 2024 00:33]

Wacht dan maar 10j.
Er is geen enkele game die een 4000 kaart nodig heeft.
De 3090 versie heeft al nergens problemen mee.
Tenzij je op 8k gamed en 200 fps wilt hebben.
Die games zijn er niet eens.
Nou ik vind het wel meevallen. Ik heb een 3080Ti en ik kom echt FPS tekort met flight simulator (VR) en in andere VR games loopt het ook allemaal niet zo soepel als ik zou willen.

Met gewoon gamen gaat het wel prima ja, maar ik denk dat de 4000 serie weer een extra niveau raytracing erbij op zal gooien en dat zal weer extra mooie effecten opleveren.

Ik kwam van een 1080Ti (dus zonder raytracing) en ik vond de verbetering met bijv. Cyberpunk zeer groot.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 00:33]

Ligt dat aan jouw video kaart?
Of zijn er andere dingen in jouw pc die niet optimaal met elkaar werken?
Ik zie een zware load op de videokaart in elk geval. Meer dan op de CPU. Die laatste is maar een 6 core maar Flight Simulator is toch niet geoptimaliseerd voor meer cores. VR is ook extra zwaar omdat de hele wereld 2x gerenderd moet worden van een iets ander punt, en bovendien is de framerate ook hoger dan een normaal scherm.

Nou moet ik zeggen dat FS2020 verrekte slecht geoptimaliseerd is (alleen opstarten duurt al minuten). Maar ik moet het detail veel lager zetten dan in 2D.

Iig vind ik VR wel een goede reden voor een zware kaart. Een 4090 zal ik niet kopen, en de 3080 Ti versie heb ik vooral gekocht omdat de gewone versie toen nog maar 10GB geheugen had en ik wilde per se meer.

Maar er is mijns inziens absoluut ruimte voor zwaardere kaarten met VR gebruik.

[Reactie gewijzigd door GekkePrutser op 25 juli 2024 00:33]

Totdat je gaat raytracen op 4k, dan gaat de 3090 ook zwoegen. Ik vermoed dat ook de 4000 serie maar net genoeg zal zijn voor raytracen + goede FPS.

En dat is nog een eenvoudige vorm van RT met weinig rays, een techniek als bijvoorbeeld global illumination gaan de 4000 en 5000 serie niet redden.

(Ik weet nog dat ik een hele dag moest wachten voor 1 gerendered frame op een paarse SGI... O+ )
AMD is de enige noodzaak voor hen op het moment. Vraag is ook wanneer zij precies met RDNA3 komen.
3090 is in oktober al ruim 2 jaar oud, er is altijd vraag naar meer en beter.
Deze geruchten vallen precies in lijn wat nVidia wil dat iedereen hoort. Dan kunnen ze nog wat 30xx kaarten verkopen voordat de 40xx er aan komt. Ik ben zelf ook maar eindelijk over stag gegaan voor een 3080 dit jaar, want de prijzen gaan echt niet veel veranderen hier in NL/Europa. De 40xx gaan bovendien ook nog eens meer stroom verbruiken, dus ik zag het nut er niet van in om te wachten op een kaart die nog krachtiger is dan een 3080 die nog meer stroom slurpt (en ik zou wss een nieuwe voeding moeten kopen daar boven op). Ik game op 2560×1080 met 120+ framerates in ieder geval, dan is een 3080 wel fijn en zal voorlopig nog wel even mee gaan, hoop ik :+
Is een 3080 dan niet al flinke overkill? Denk trouwens dat, als het klopt dat er nog veel miningcards beschikbaar komen, deze zeker de prijs nog even gaan drukken, iig op de used-market. Ben het overigens met je eens dat die kaarten van 350-400 watt echt idioot aan het worden zijn in termen van warmte productie. Die wil je echt niet op full load op/naast/onder je bureau hebben, zeker niet in de zomer!
Ik ben iemand die liever elke 3-4 generaties een krachtige kaart koopt ipv iets wat precies werkt voor een kortere tijd, vandaar :)

Wel is het een voordeel dat je moderne kaarten kan undervolten/underclocken, het is vrij makkelijk te doen en ten opzichte van mijn 970 is deze 3080 stiller en koeler, en daardoor (denk ik) goedkoper bij de stroomboer :P
Ja ik ben zelf van een 1080 Ti (die ik op 2050 MHz had draaien) over gestapt op een 3080 Ti die ik een undervolt heb gegeven van 800mV waardoor het verbruik omlaag is gegaan van 350 Watt naar 280 Watt en de prestaties met dat voltage zijn gelijk aan een 3080 12 GB.
Als ik ooit meer prestatie nodig heb dan is het 1 klik terug naar stock of 1 klik naar OC settings.
Mijn 1080 Ti verbruikte ongeveer 300 Watt door de overclock (stock 280 Watt) dus ik heb nu ongeveer dubbele prestaties tegen een gelijk verbruik.
Hoezo leg is uit....je weet toch wat de tdp zijn van beide kaarten.
970 ...148w
3080...320w

Iets klopt er dan niet en je stroomboer is happy....je verbruikt meer ;)
De 970 was overclocked om het laatste framepje er uit te persen, en de 3080 is undervolted en underclocked en draait momenteel niet meer dan 50% load. 't Is net hoe je het bekijkt. Maar je hebt gelijk dat de TDP's alleen maar omhoog gaan, en dat is wat minder fijn over het algemeen.
Nou nee je kan performance point kiezen bijvoorbeeld stock 3080. En dan pak je een 40xx die ook ongeveer die performance haalt. Bijvoorbeeld 4070 300watt . Dan ben mogelijk ook wat zuiniger. Maar ook goedkoper omdat tier lager koopt.
En daarom is de huidige gen van AMD en nV nogo. Als 7800 300wat is dan is dat ongeveer de max.
Tuurlijk kan je ipv een 3080 misschien een 4070 aanschaffen, ik verwacht alleen niet dat de prijzen veel gaan veranderen. Ook denk ik eerlijk gezegd dat die kaarten wat meer richting het "performance er uit persen ten koste van electriciteits gebruik" gaan ipv meer focus op efficiëntie. Maar ik kwam ook van een 970 af dus nog langer wachten werd ff te veel.
Voor tweakers is "prestatie/vermogen" juist al jaren een keuze die we zelf kunnen maken. Of het nu een over- of een underclock is, we voelen ons niet zo gebonden aan de ideeën van de fabrikant, laat staan aan de ideeën van marketing. De opvolger van de vorige $700 GPU is de nieuwe $700 GPU, en welke naam er dan op het doosje staat is maar voor de show.
Ik hoorde wat van lui dat bij de 4080 een 850 w voeding nog voldoende moet zijn.
Ah, gelukkig, het is maar 850 watt.
Tenzij AMD daar anders over denkt natuurlijk.
AMD radeon doet niet zoveel volume. Wanneer die een reeks met veel betere prijs prestatie gaan aanbieden dan zijn die binnen no time uitverkocht.
Dit leek er al aan te gaan komen. Je ziet veel "inventory" van miners nu de tweedehands markt op komen (niet alleen in Nederland). Dat wil zeggen dat die club niet meer nieuw materiaal aanschaft, maar dat die kaarten ook bij consumenten terecht komen. Er wordt dus minder nieuwe kaarten gekocht en dat stapelt zich op.
Prijzen moeten dan (drastisch) gaan zakken zou je denken door marktwerking. Wat nvidia hier doet is een soort van logische stap dus om dat effect wat tegen te gaan. Zolang er geen echte concurrentie is (AMD heeft geen bijzonder snellere of goedkoperen kaarten), hebben ze hier ook de mogelijkheid tot.

[Reactie gewijzigd door imdoctorbob op 25 juli 2024 00:33]

Ik verwacht ook zeker dat die 4090 2000 euro gaat kosten, maar dan praten we ook wel over echt spierballen hoor 16000 cuda cores op 2500 mhz/3000mhz met een zeer kleine node WOW maar wel echt te duur hoor.

als de geruchten kloppen.

[Reactie gewijzigd door Ladiesman777 op 25 juli 2024 00:33]

Een 4090 zal wel een leuke upgrade zijn van m'n 2080 ti... Al zou ik dan ook een betere monitor moeten kopen ipv m'n 1440p 60hz monitor wat ik nu heb.
Ik hoop overigens niet dat deze trend van 400+ watt de norm gaat worden voor videokaarten in de toekomst. Heb nog een oude GTX 780 met 250 watt tdp en Ryzen 5800x in mn PC zitten, en als ik zware spellen speel wordt het al ongemakkelijk warm op mijn kamer. Tijdens zo'n hittegolf kun je dan eigenlijk zelfs binnen niet meer gamen (heb geen airco helaas ;( ). Zou over een jaar toch graag eens spellen op 4k willen kunnen spelen, maar hoef daar dan niet per sé een straalkachel voor te hebben.

Iemand overigens goede ervaring met downclocken van GPU's om richting een schappelijke hoeveelheid warmteproductie te komen zonder al te veel performance verlies? (+/- 5%)
Vergeet niet dat een 3080 een TDP heeft van 320w, maar een factor 4 sneller is dan je 780.
Een 360 is al ~250% sneller, en bijna 100 watt zuiniger.. Undervolting met MSI met een curve is je oplossing in elk geval, en dat kan best prima. :)

Het is maar nét wat je kiest/nodig hebt.

[Reactie gewijzigd door Silent Hunter op 25 juli 2024 00:33]

Undervolten met curve kan alleen vanaf de 1000 series, dit werkt niet op een 700 of 900 series kaart zoals ik hieronder al aan gaf.
Als je een oudere NVidia kaart wilt undervolten kan dit alleen maar door je power target profiel aan te passen, dan doet de kaart dit zelf om binnen dat percentage te blijven.
Aangezien alleen 1000 series en hoger undervolten ondersteunen, kan je het volgende proberen in MSI afterburner of EVGA precision X:
Power target naar 70%, testen hoe stabiel dat draait en wat het verschil is in snelheid en temperatuur vergeleken met stock en dan 1% minder en opnieuw testen tot je het punt bereikt dat je framerate omlaag gaat.
Je zal waarschijnlijk uitkomen rond de 65% maar dat is per kaart verschillend vandaar de tests en waarom je het beste met 70% kan beginnen want dat is een gezonde marge.
Dit is een betere methode om de kaart koel te houden of stroomverbruik omlaag te brengen dan een downclock.
Koop een 2de hands 1070ti kan je makkelijk 2k mee game.

Ik zelf draai met 5900x+1070ti
Draait als een zonnetje.
Ik denk dat ik uiteindelijk voor een 2e hands 3070 ga zodra deze rond de 300-350 eu is of, als rtx 4000 een goede deal blijkt, mss toch voor een 4060/4070.
Vraag mij echt af wat dit gaat kosten. Momenteel ben ik afgestapt van steeds de high end kaarten te willen kopen. Zit nu zelf zonder desktop en enkel met een Series X om te gamen, en ik ben werkelijk onder de indruk van de grafische kracht van dit toestel. Mij zie je niet direct terug in PC land :)
Die 'Moore's Law is Dead' is zo onbetrouwbaar en heeft het al zo vaak fout gehad dat ik in de eerste plaats niet snap dat ze hierover zelfs een artikel durven schrijven.
Tja - iedere roeptoeter op het internet wil zo veel mogelijk volgers voor de inkomsten. Dan moet er niet gek worden opgekeken als titels clickbait zijn en de informatie nog onbetrouwbaarder is dan politieke beloftes uit de residentie. Het is sowieso al een schande dat t.net dit overneemt. Ze hadden eerst maar eens een belletje moeten doen naar het groene kamp om te kijken of er überhaupt iets van waar is. Journalistiek van likmevestje. Ik snap al helemaal niet waarom bronvermelding van zgn "influencers" worden gebruikt :r

Op dit item kan niet meer gereageerd worden.