Gerucht: Nvidia brengt GeForce RTX 3090 Ti op 27 januari uit

Nvidia brengt mogelijk op 27 januari een GeForce RTX 3090 Ti uit. Dat blijkt uit uitgelekte documenten die in handen zijn van VideoCardz. Het bedrijf zou op 11 januari ook een GeForce RTX 3070 Ti 16GB uitbrengen.

VideoCardz meldt dat de GeForce RTX 3090 Ti op donderdag 27 januari 2022 in de verkoop gaat, om 15.00 uur Nederlandse tijd. De techsite heeft documenten ingezien die worden gedeeld met board partners van Nvidia, waarop bijvoorbeeld releasedata voor komende producten worden vermeld. Aankondigingsdata voor de RTX 3090 Ti ontbreken, maar Nvidia houdt op 4 januari een CES-presentatie. Volgens eerdere geruchten krijgt de komende videokaart iets meer CUDA-cores en sneller geheugen dan de GeForce RTX 3090.

De website heeft ook vernomen dat Nvidia op 17 december een GeForce RTX 3070 Ti 16GB zal aankondigen. Die moet vervolgens op 11 januari in de verkoop gaan. Deze videokaart wordt mogelijk grotendeels gelijk aan de huidige RTX 3070 Ti, met 6144 CUDA-cores en dezelfde kloksnelheden. De gpu beschikt enkel over 16GB geheugen, ten opzichte van 8GB in de huidige RTX 3070 Ti.

Er gingen eerder ook al geruchten rond over een GeForce RTX 3050 voor desktops. Deze videokaart moet onder andere een GA106-150-gpu met 3072 CUDA-cores en 8GB GDDR6-geheugen krijgen. VideoCardz schrijft nu dat deze videokaart op 4 januari wordt aangekondigd, tijdens de CES. Die videokaart moet vervolgens op 27 januari uitkomen, tegelijk met de vermeende GeForce RTX 3090 Ti. Eerder gingen geruchten rond dat deze videokaart in het tweede kwartaal van 2022 zou verschijnen. Het bedrijf zou verder nog met een GeForce RTX 3080 12GB komen, maar daarvoor is nog geen aankondigingsdatum of releasedatum bekend.

Vermeende releasedata komende Nvidia GeForce-videokaarten (via VideoCardz)
Product Aankondiging Releasedatum
GeForce RTX 3090 Ti nnb (4 januari 2022?) 27 januari 2022
GeForce RTX 3080 12GB nnb nnb
GeForce RTX 3070 Ti 16GB 17 december 2021 11 januari 2022
GeForce RTX 3050 4 januari 2022 27 januari 2022
Nvidia GeForce RTX 3090 Ti-leak via VideoCardz
Afbeelding via VideoCardz

Door Daan van Monsjou

Nieuwsredacteur

09-12-2021 • 10:11

121

Lees meer

Reacties (120)

Sorteer op:

Weergave:

Helaas zullen ook deze GPU's waarschijnlijk snel uitverkocht zijn, met de markt van de afgelopen paar jaar. Tevens vraag ik me af wat een 3090 Ti nu voor meerwaarde heeft voor gaming, aangezien de 3090 al echt enorm sterk is.
De 3090Ti krijgt sneller geheugen en kan 2x zoveel geheugen kwijt per chip (simpeler kaartontwerp, minder warmte). Daarnaast heeft de kaart meer CUDA cores.

Geheugen wordt: Micron’s GDDR6X.
bron: https://videocardz.com/ne...ons-21-gbps-gddr6x-memory

Er is altijd verbetering onderweg. Betere yields, strakker ontwerp en daardoor betere/snellere producten. De prijs en leverbaarheid is op productniveau niet relevant. Het gaat om progressie van het product zelf. Alle logtistieke en commerciële problemen komen daar naturlijk achteraan.

[Reactie gewijzigd door OMD op 22 juli 2024 20:58]

Ben ik het niet mee eens. Ik vind dat een fabrikant/ontwikkelaar ook een verantwoordelijkheid heeft om ervoor te zorgen dat hun artikelen voldoende voorraad hebben waardoor ze niet tegen woekerprijzen worden aangeboden omdat ze bijna niet te krijgen zijn.

Nu hebben ze wat yield verbetering en een simpeler pcb ontwerp waarmee ze de yields en het ontwerp van de reguliere 3090 zouden kunnnen verbeteren en daardoor dus wat leveringsproblemen zouden kunnen oplossen.
Maar daarvoor in de plaats komen ze met een 3090 TI, met extra cuda cores , etc , waardoor hij toch weer wat ingewikkelder wordt, etc. tegen een hogere adviesprijs en waarschijnlijk weer niet zo goed leverbaar en dus weer woekerprijzen .
Daar ben ik het uiteraard weer niet mee eens.

Een developer of engineer afdeling krijgt de opdracht om product X te verbeteren. De engineers/developers die daarmee bezig zijn hebben absoluut geen kaas gegeten van commercie en logistieke afhandeling.

Ik snap jou punt en ja, een bedrijf hoort daar rekening meet te houden maar zoals de eeuwenoude regel in ondernemersland is: Stilstand is achteruitgang. Innovation is creation etc etc etc.

Je geeft daarnaast aan dat de kaart ingewikkelder wordt. Heb je daar een bron voor? Technisch gezien halen ze betere yields en wordt het pcb juist eenvoudiger door het nieuwe Micron geheugen. Hogere adviesprijzen, nogmaals, hebben niets met het product an sich te maken (qua innovatie etc)
Ik vraag me af of je minder warmte hebt, tenzij ze een andere productie process gebruiken voor de nieuwe chips waardoor ze veel kleiner zijn. Ik vermoed dat je misschien maar iets minder warmte hebt ten opzichte van 2 chips en dit doordat de warmte op 1 chip is geconcentreerd dit moelijker te koelen is. GDDR6 wordt erg warm (vergeleken met GDDR5) en GDDR6X nog meer.
De prijzen geven geen garantie voor de toekomst.
Off topic, maar waarom hebben cpu's nu pas ddr5 en zitten videokaarten al op ddr6?
Tegelijkertijd las ik ook geruchten over de massa hoeveelheid watt dat deze kaart nodig heeft. Geruchten ofc maar ik las ergens 1200W
De 3090 is niet voor gaming, lijkt me sterk dat de 3090 Ti dat wel is.
De 3090 is niet voor gaming, lijkt me sterk dat de 3090 Ti dat wel is.
Dat is natuurlijk niet helemaal correct. De Quadro en RTX A**** lijn is voor de zakelijke markt. De RTX lijn is gewoon voor gaming en zo positioneert Nvidia het ook gewoon. Je had voorheen nog wel de Titans, die waren meer voor echt werken maar Nvidia is daar van af gestapt omdat die kaarten ook gewoon voor gaming werden gekocht. Sterker nog, Het staat bij de Nvidia website gewoon onder Gaming & Entertainment. Ze schrijven over de 3090:
Bovendien heeft hij een verbluffende 24 GB aan G6X-geheugen, allemaal voor de ultieme gamingervaring.
[Edit]Kleine aanpassing benaming zakelijke grafische kaarten door @Navi :)

[Reactie gewijzigd door OMD op 22 juli 2024 20:58]

Lager op de pagina staan ook de productivity highlights alleen. Ze positioneren het voor beiden.
Welke pagina? Ik zie bijvoorbeeld dezelfde voordelen ook bij een 3070 staan. Dan weet ik even waar ik naar moet kijken.
Ze staan bij alle RTX kaarten, maar het feit blijft dus dat Nvidia zijn kaarten niet alleen voor gaming op de markt zet.
Yup. Snugger zou geweest zijn om daar de QTX van te maken...
Je kan er natuurlijk prima mee gamen, maar eigenlijk is een 3090 bedoeld als instap model voor video bewerking en renderen.
Nou nee. Dat is de status die jij zelf geeft aan de kaart. Nvidia plaatst de reguliere RTX kaarten als Gaming kaart.
https://www.nvidia.com/nl...graphics-cards/30-series/

3090 pagina:
https://www.nvidia.com/nl...cards/30-series/rtx-3090/

Kunnen beter wel even bij de feiten blijven. Eigen invulling aan bepaalde producten geven lijkt me niet wenselijk. Een Ferrari kan je ook als boodchappen auto zien maar de fabrikant heeft het daarvoor niet bedoelt.

Uiteraard spreken ze over:
Breng je creatieve projecten naar een nieuw niveau met AI-versnelde apps, met ondersteuning van het NVIDIA Studio-platform en aangedreven door GeForce RTX GPU's. Of je nu complexe 3D-scènes rendert, 8K-video's bewerkt of livestreamt met de beste codering en beeldkwaliteit, GPU-versnelling biedt je de prestaties om je beste werk te leveren
Maar dat doen ze bij de 3060 ook :+

[Reactie gewijzigd door OMD op 22 juli 2024 20:58]

Bij introductie was Nvidia vrij duidelijk dat 3080 de hoogst geplaatste normale gaming kaart is. En 3090 bedoeld is voor mensen die voor specifieke doeleinden enorm veel VRAM nodig hebben, en geld niet echt een bezwaar is. Zoals 8k demos op beurzen, simulator setups met meerdere 4k schermen, rendering, etc.

Situatie is nu natuurlijk wel anders dan bij introductie, maar de stelling dat de 3090 niet als gaming kaart gepositioneerd is klopt wel degelijk.

[Reactie gewijzigd door cnieuweboer op 22 juli 2024 20:58]

Ja, je kan geupvote worden en het kan logisch klinken. Maar ik snap niet helemaal waarom men het hier nodig vind om er tegenin te gaan wat er op de website van Nvidia staat:

... allemaal voor de ultieme gamingervaring

Dus jouw genoemde stelling klopt niet, vergelijk voor de grap de product pagina van de 3090 eens met een NVIDIA A100 .. geen screen shot van een game te zien daar terwijl dit het meest prominent is op de 3090 pagina.

Mooi dat jullie het daar niet mee eens zijn maar dat wil niet zeggen dat Nvidia het daar ook mee eens is.
Een A100 is een compleet ander product 100% gericht op het data center. Het heeft bijvoorbeeld niet eens actieve koeling omdat het volledig leunt op de airflow van de server case. Maar heeft daarnaast ook geen NVENC, wel NVDEC voor AI.

Ik ben het volledig eens met @cnieuweboer, er zijn eigenlijk alleen niche scenario's waarin je game echt gebruik gaat maken van die 24G geheugen. Het kan wel dat de website van NVIDIA het aanprijst als de gaming prestatie winnaar, maar dat neemt niet weg dat in het echte leven deze kaart gewoon meer professionele doeleinden heeft. Mijn verwachting is dus ook niet heel anders van de nieuwe 3090 Ti.

[Reactie gewijzigd door master.fean op 22 juli 2024 20:58]

Je verward "ultiem" met "normaal". In de introductie video van de 3080 en 3090 werd dat vrij duidelijk genuanceerd.
3080 https://www.youtube.com/watch?v=E98hC9e__Xs&t=1512s
3090 https://www.youtube.com/watch?v=E98hC9e__Xs&t=2052s
Instap voor video bewerking? :+

Gpu word wel steeds meer gebruikt voor die programma's maar tenzij je heel high end video editing doet, functioneerd een 3090 niet veel beter dan een 3070, niet voor het verschil in prijs.

3D rendering en bewerking, dan nog zou ik het geen instapkaart noemen, maar wel een aan te raden kaart.
RTX 3090 instap model voor video bewerking en renderen? 8)7
De Quadro lijn voeren ze niet meer (voor nieuwe GPU's dan), het is nu de RTX Axxx series. Bv RTX A4000.

Vind het geen slimme zet.

[Reactie gewijzigd door Navi op 22 juli 2024 20:58]

Met een Macbook M1 Max kun je ook gamen, of het een goed idee is, is een ander verhaal natuurlijk. Een 3080 Ti bijvoorbeeld doet niet onder voor een 3090 in gaming, maar is wel veel goedkoper. Eigenlijk prijst Nvidia op die manier de 3090 voor zichzelf uit de gaming markt.
Het is gewoon een game kaart vandaar dat er ook Ray tracing op zit, en op die zakelijke kaarten niet ,deze zijn meer geoptimaliseerd voor autocad en revit.Maar die ti versie is nog sneller als gewoon 3090 rtx.

[Reactie gewijzigd door rjmno1 op 22 juli 2024 20:58]

Dat lijkt mij dus ook niet. Hij heeft iets betere specs wat bijna verwaarloos baar is. Enigste wat ze hebben veranderd js dat er nu vram chips op zitten van 2gb ipv 1gb zodat de temps lager liggen. De vram chips gaan van 19gb/s naar 21gb/s. Voor de rest weet ik zoverder nog niets. de kaart zelf blijft op 24gb totaal.
Meer CUDA cores, goedkopere productie PCB doordat kaart de helft minder geheugenchips bevat. Deze "kleine" verandering is best een grote verandering op prodcutieniveau.
Op productieniveau wel ja. Maar voor de gebruiker zou dit niet veel verandering zijn.
GeForce is voor gaming. Wil je workstation dingen doen heb je de Quadro lijn.

Maar ik denk dat deze kaart niet voor de huidige 3090 bedoeld is. Maar voor mensen met een niet 3000 kaart.
Quadro lijn bestaat niet meer , althans er worden geen nieuwe kaarten meer gemaakt met het Quadro label. Het is nu RTX-A voor zakelijke doeleinden.
Werkt hier toch echt prima in combinatie met een 4k scherm. Vooral de nieuwere games lusten graag een hoop vram zeker op hoge resoluties, en hey, wie wil er nou geen 500fps in rocket league ;-)
Het zal ongetwijfeld goed werken, maar we weten allemaal dat een 3090 meer is bedoelt als multi-purpose GPU. Kijk je puur naar gaming dan is een 3080 Ti duidelijk de betere koop, min of meer gelijk qua fps maar wel veel goedkoper. Heb je echter veel VRAM nodig voor productiviteit bijvoorbeeld, dan kan de 3090 toch een betere keuze zijn.
Volgens mij was het zelfs zo dat de 3080 bij bepaalde games beter deed dan een 3090, en vise versa ook weer.
Ik gebruik hem toch echt als gaming kaart op een 3840x1600 monitor. Die extra power t.o.v. een 3080 is niet heel veel, maar net dat beetje extra soepelheid dat het op deze resolutie voor me doet.

[Reactie gewijzigd door OriginalFlyingdutchman op 22 juli 2024 20:58]

De 3090 is wel echt als een gaming kaart neer gezet. nVidia pushde zelf 8K gaming. En ja hij heeft veel geheugen vergeleken met de 3080 maar het is overduidelijk wel een kaart gericht op gaming alleen dan voor een Titan prijs. Prijs gaat nu alleen maar verder omhoog nu de 3090 Ti komt.

nVidia heeft Quadro voor Professioneel gebruik. En ja de 3090 kan je ook redelijk voor professioneel gebruik in zetten door zijn 24GB memory maar hij heeft geen professional drivers.

[Reactie gewijzigd door Astennu op 22 juli 2024 20:58]

Tot je op een qwhd scherm ultra speelt
Of 4k 144hz wilt spelen
Ik wacht met smart op de 4000 series om mijn 3090 te kunnen vervangen. Kan wel wat extra rekenkracht gebruiken voor o.a. mijn simracing setup zonder concessies te hoeven doen in kwaliteit / fps.
Voor € 2900,-
En later in het jaar nemen de chip tekorten af en kun je in december een 4080 Ti voor de helft kopen :+
€ 2900,- als aanschafprijs, en daarna dikke energierekeningen omdat de kaart richting de 400-450W zal gaan. Wel lekker warm voor in de winter |:(
Helemaal mee eens, ik snap de lovende reviews niet: de GPUs zijn niet te krijgen, ze zijn reteduur, EN ze gebruiken meer dan ooit.

Toen Fermi uitkwam werd de GTX480 met de grond gelijk gemaakt omdat hij zo veel meer gebruikte dan de concurrentie en de vorige generaties.
Met de 3000 serie doet nVidia hetzelfde: er zijn nieuwe stekkers en sterkere voedingen nodig, het enige dat ze goed doen is dat de stock cooler nu best wel goed is (en ook enorm, want dat is nodig).

Maar de 3080 springt ivm de 2080Super van 250Watt naar 320Watt, en hoewel de performance/watt tov Turing licht verbetert moet je bedenken dat dit EN een nieuwe architectuur is EN een nieuw procedé, wat normaal voor een heel grote sprong moet zorgen (kijk maar naar Zen2, de nieuwe Intel chips, etc). In de reviews wordt er ergens enorm mild op gereageerd, terwijl dat in de tijden van Turing echt wel afgestraft werd.
Maar de 3080 springt ivm de 2080Super van 250Watt naar 320Watt, en hoewel de performance/watt tov Turing licht verbetert moet je bedenken dat dit EN een nieuwe architectuur is EN een nieuw procedé, wat normaal voor een heel grote sprong moet zorgen (kijk maar naar Zen2, de nieuwe Intel chips, etc). In de reviews wordt er ergens enorm mild op gereageerd, terwijl dat in de tijden van TuringFermi echt wel afgestraft werd.
Ik merk zelf dat ik 225Watt een goede grens vind en 250 nog net te doen; meer maakt je kamer gewoon te warm. Ik voel tijdens het gamen met een 6900XT die op 300 Watt zit de warme lucht langs mijn benen gaan. Dat had ik met eerdere kaarten niet.
Ik hoop dat AMD en Nvidia niet nog verder doorgaan in het verbruik verhogen voor die extra performance. Waar is de grens, in de winter kan ik het nog wel verantwoorden maar in de zomer. Persoonlijk vind ik dat AMD en Nvidia hierin te ver doorschieten, nu met name Nvidia met hun nieuwe 450 Watt kaart.

Die Fermi generatie gebruikt ineens weinig vergeleken met de monsters die nu uitkomen.
Mwah, +50% performance vanaf de 2000 series vind ik toch groot genoeg om die 30% extra stroom verbruik te pakken.

Als de geruchten waar zijn en de 4000 series de performance verdubbelt voor maar +30% stroom upgrade ik weer zo snel mogelijk. Of de adviesprijs nou verdubbelt of niet.

[Reactie gewijzigd door Seditiar op 22 juli 2024 20:58]

€ 2900,- als aanschafprijs, en daarna dikke energierekeningen omdat de kaart richting de 400-450W zal gaan. Wel lekker warm voor in de winter |:(
Als je de kachel lager zet en de videokaart je kamer tot een comfortabele temperatuur laat verwarmen, dan is het toch geen verloren warmte? ;)

In een compacte PC die ik ooit gebouwd heb zit een GTX 1080. Ik vond dat al een energieslurper. Dit is meer dan het dubbele. Het worden ondertussen inderdaad kacheltjes. :|

[Reactie gewijzigd door The Zep Man op 22 juli 2024 20:58]

vroeger had ik geen verwarming op m'n kamer en was toen blij met pc en toen vooral de monitor als verwarming :)
Valt toch wel mee, dat is bij 24 uur gamen dan 3 euro, dus bij 8 uur gamen kost het je 1 euro. Ino gewoon een koopje net als de gpu zelf. Mits je genoeg gamed natuurlijk :)
€ 2900,- als aanschafprijs, en daarna dikke energierekeningen omdat de kaart richting de 400-450W zal gaan. Wel lekker warm voor in de winter |:(
Ik heb serieus overwogen om voor deze winter crypto PCs te bouwen als kachels door het huis, ik heb hier al eens eerder naar gekeken, maar met de gas situatie/waarschuwingen werd dat idee weer relevant. Echter door de hoge prijzen, de slechte verkrijgbaarheid en een onstabiele markt voor zowel crypto mining als videokaarten, is dat idee weer terug de kast in gegaan. De kans is gewoon te groot dat je 50+% van je investering ziet verdampen.

De reden dat normaal crypto zo energie verkwistend is, komt omdat alle warmte niet gebruikt wordt. Nu gebruik je EN de crypto EN de warmte.
Precies dat de reden dat ik weer twee 1070 kachels heb draaien. Door zonnepanelen kosten ze ook nog eens niks en het bespaard wellicht wat gas, het is in ieder geval iets warmer in de werkkamers.
Ik denk dat de mensen die zo gek zijn om zulke videokaarten te kopen dat allemaal geen reet interesseert.. Die hebben sowieso geld genoeg..
Ik vraag me af of de prijzen ooit nog teruggaan naar een normaal niveau, aangezien het afgelopen jaar wel is gebleken dat mensen bereid zijn om goud geld te betalen voor videokaarten.
Ik denk dat dat maar een zeer verwaarloosbaar klein deel van de markt is die zich de huidige prijzen kan/wil veroorloven.

Het is werkelijk bizar dat ik mijn 2070S en 2080S voor meer kan verkopen als dat ik er zelf ooit voor betaald heb. Ik doe dat echter niet, want dan zou ik mezelf een ongelooflijke afzetter voelen.
Waarom? Kwestie van vraag en aanbod toch? Niemand hoeft je kaart te kopen en het maakt je zeker geen afzetter.
Ik doe dat echter niet, want dan zou ik mezelf een ongelooflijke afzetter voelen.
De mensen die hun huis graag voor meer verkopen dan ze het zelf hebben gekocht (iedere huizenkoper denk ik) zijn het daar niet mee eens :Y)

Zelf had ik er geen moeite mee 400 euro te verdienen aan mijn 3080 omdat ik een 6900XT had gekocht. Of er aan verdienen je doel is bij de aankoop of een toevallige mogenlijkheid wordt die op je pad komt maakt voor mijn mening best wel verschil.

Als ik een 3090ti kan kopen gaat mijn 6900xt ook voor meer weg dan ik betaald heb!

[Reactie gewijzigd door watercoolertje op 22 juli 2024 20:58]

Dat wel, maar zal een hele tijd gaan duren helaas :|
niet meer gamen op pc :+ iets wat ik al ruim 35jr doe, iedere 5-6jr upgraden/vervangen. inmiddels is mijn huidige bak de 6jr gepasseerd, maar upgraden/vervangen vind ik moreel niet verantwoord; dan ga ik een 5K pc kopen .... :W dan maar niet meer gamen op de PC (overgestapt naar console)
Oudere games die prima entertainment zijn (en alle bugs opgelost) draaien prima op een APU *O*
En indie spellen werken vaak ook goed op oudere hardware.
Ik heb voor het eerst in mijn leven een game laptop gekocht. Prestaties zijn uiteraard iets minder dan op de desktop maar het was de enige manier om een goede upgrade onder de 2k krijgen.
Heb nu een 3070 en game op mijn 144hz 1440p scherm en vind het alles meevallen.
Console zou de volgende stap zijn maar ik hou nu eenmaal van toetsenbord en muis, en pc games die vaak niet te krijgen zijn op consoles (of zwaar gelimiteerd worden in frames).
Consoles van de nieuwe generatie zijn ook lastig te krijgen, maar je kan ook prima gamen op de vorige generatie.
geregeld gebruik gemaakt van de streaming dienst van nvidia; opzich prima wanneer het geen 'fast paced game' is als een FPS
niet meer gamen op pc :+ iets wat ik al ruim 35jr doe, iedere 5-6jr upgraden/vervangen. inmiddels is mijn huidige bak de 6jr gepasseerd, maar upgraden/vervangen vind ik moreel niet verantwoord; dan ga ik een 5K pc kopen .... :W dan maar niet meer gamen op de PC (overgestapt naar console)
doe ik ook, gelukkig net voor de complete gekte m'n pc vernieuwd, dus binnen een jaar of 3-4-5 mag dea markt weer wat normaal zijn.
Helaas ben ik bang dat de chiptekorten zeker nog 2 jaar aanhouden. Ik werk zelf in de elektronica industrie en we zien dat leverdata voor componenten nu al naar medio 2023 worden verschoven. De markt is nog steeds zwaar overbelast en voordat je er een fab operationeel bij hebt duurt dat zo'n 5 jaar :|
Denk dat 2023 onder voorbehoud is. Mid 2020 zou het tot begin 2021 aanhouden, daar begonnen wij mee.
Jup als 4060 komt dan is m'n 2080ti low end kaart geworden 4060>3070>2080ti
:+

[Reactie gewijzigd door Kaassaus3 op 22 juli 2024 20:58]

Een RTX 3090 kost momenteel 3500-3650 Euro (Alternate). Een RTX 3090 Ti zal waarschijnlijk 4000 Euro gaan kosten. Echt waanzin, daar kreeg je een paar jaar geleden acht GTX 1070's voor.
"Voor de prijs van een kleine auto".

Ik vraag me af in hoeverre deze schaarste niet ook kunstmatig is om hun eigen game-streamdienst te pushen. Ook die draait natuurlijk op eigen kaarten die anders gewoon op de markt gekomen waren.
Gezien er ook geen chips meer voorhanden zijn om auto's te bouwen vermoed ik dat het niet alleen gpu bouwers zijn die tekorten hebben.
Je zou dat kunnen denken, maar als je verder kijkt dan alleen deze industrie zie je dat werkelijk overal te korten zijn, leveringsproblemen en wat nog meer. Prijzen rijzen de pan uit, leveringen duren steeds langer, nee dit is geen kunstmatig probleem maar een daadwerkelijk mondiaal probleem waar de hele wereld last van heeft.
Klopt, maar ik denk wel dat het resultaat hetzelfde zal zijn. De game industrie zit al jaren te pushen met "games as a service", en streamingdiensten. Ik vermoed dat ze de huidige situatie zullen omarmen om het een extra zetje te geven.

Het enige wat het kan stoppen is meer concurrentie op gpu gebied, maar dat kan alleen gebeuren zodra het tekort-gedeelte en de cryptominers die alle gpu's opkopen verdwijnen.
Mee eens, tuurlijk zullen ze gebruik maken van deze situatie om andere verdienmodellen zoals deze streamingdiensten te pushen, hoewel ze een topomzet gedraaid hebben is dit soort onzekerheid in de toekomst iets wat je wilt voorkomen en streamingdiensten, 'GaaS', zijn DE oplossing voor leveranciers.
'gaas' mooie afkorting :)
Aangezien AMD ook dezelfde problemen heeft is het dus echt niet kunstmatig, ga er maar van uit dat ze ook het liefst meer kaarten kunnen verkopen want daar verdienen ze nog steeds op dit moment meer mee dan met GeforceNow, en dan kunnen ze dus nog rustig aan GN opschalen en verbeteren totdat de tijd voorbij is dat consumenten nog een losse GPU gaan kopen en overstappen op die streamingdiensten, over een jaar of 10 is game-streaming de standaard manier hoe de doorsnee gamer zal gamen.
Hoe kan het kunstmatig zijn als de werkelijke productie capaciteit bij de fabs echt compleet is volgeboekt? NVidia kan gewoon niet meer chips bestellen.
Ik vraag me af in hoeverre deze schaarste niet ook kunstmatig is om hun eigen game-streamdienst te pushen. Ook die draait natuurlijk op eigen kaarten die anders gewoon op de markt gekomen waren.
Totdat je realiseert wat de prijs van een abo is en wat de prijs is van een RTX 3090 Ti, zelfs zonder de huidige woeker prijzen is dat ~8 jaar gamen op het duurste Geforce Now abo. Een RTX 3080 iets van 4 jaar het duurste abo. Dat is nog zonder de doorlopende kosten van het draaien van die dienst in een datacenter voor al die jaren. Het is dus voor Nvidia nog steeds veel aantrekkelijker om ze direct aan een consument te verkopen.

Maar niet iedere consument speelt 24/7, dus kunnen ze hardware inzetten voor meerdere gebruikers. Echter omdat datacentra aan specifieke regio's gebonden zijn, zal het gros van de klanten rond dezelfde tijden spelen, wat dus weinig oplevert. Daarnaast gebruikt Nvidia niet zijn consumenten kaarten maar zijn Nvidia Tesla graphics cards:
https://en.wikipedia.org/wiki/GeForce_Now
https://en.wikipedia.org/wiki/Nvidia_Tesla
Als Nvidia kunstmatige schaarste zou creeëren zou het gros gewoon een AMD kaart kopen, dus dat gaat niet op.
Ik kijk al een tijdje noodgedwongen naar een nieuwe videokaart. Echter vrees ik dat ik mijn hobby even op pauze ga moeten zetten omdat ik het met de huidige prijzen aan mezelf niet meer kan verantwoorden...
Heb nog een 2080 super. Daarmee kan ik nog het meeste op max spelen op 1440p. Destijds voor 780 euro gekocht. Vind dat nog te veel geld. De huidige kaarten worden echt niet meer dan 300 euro inelkaar gedraaid hoor.
maar het probleem zit em ook niet bij nvidia/amd, de prijs gaat daarna pas gigantisch omhoog door de resellers.
Ik had nog een 970, toen deze de geest gaf kwamen net de RTX'en uit. Die premium wou ik toen nog niet betalen en kon wel even verder met de IGPU. Ondertussen had ik op de EVGA website een kaartje op het oog waar ik een notificatie ingesteld had mocht die terug op stock komen. Jammer genoeg is dat nooit gebeurd...

En toen brak de cryptocurrency gekte uit gevolgd door de tekorten. Prijzen zijn niet meer normaal geworden. Nieuw is me dus te duur en die 2080 super van je, die kost nu 2de hands 900 euro zonder garantie. Denk dat ik daarvoor toch nog even bedank en blijf hopen dat er ergens normale prijzen volgen in de toekomst.

Vermoedelijk speel ik nog een jaartje via shadow verder. Het heeft ook zo zijn problemen en zal er geen FPS mee spelen. Maar het is doenbaar en in tussentijd spaar ik nog wat verder minus het abbonomentsgeld (minimum 360/jaar + evt. extra opslag).

Benieuwd wat de MSRP van de GeForce RTX 3070 Ti 16GB zal zijn, en wat hij effectief gaat kosten.
Ben benieuwd of deze ook een limited hashrate krijgt tegen mining.
De 3090 heeft geen LHR, dus lijkt me sterk dat de 3090 ti dat wel krijgt. Als je al zo veel betaald wil je geen gelimiteerde kaart.
Kan niet wachten om hem nergens te kunnen kopen! :X
Ik zal wel teleurgesteld zijn die makkelijk verkrijgbaar was. :)
Met de prijs van een RTX2060 12GB op 650-700 euro zullen we het maar niet over de prijs hebben. Echter relatief aan de performance van de bovenstaande kaart en diens prijs, dan vermoed ik toch wel iets in de regio van 6000 tot 8000 euro voor de RTX3090 TI.

Kortom, het is een kaart omdat het kan maar geen enkele gebruiker met de gemiddelde portefeuille heeft er wat aan. Daarmee is deze kaart voor thuisgebruik totaal oninteressant naar mijn mening.
Ik vond mijn €500 eind vorig jaar voor de 2070 super FE al gigantisch veel geld.
Echter bem ik blij dat ik deze destijds aangeschaft heb, wanneer ik een half jaar later de upgrade had willen doen, met dezelfde performance, was ik wellicht 3x zoveel kwijt geweest.
Dat had ik ook, aantal maanden voor de RTX 3000 release een 2070 Super gekocht voor € 550,- vond ik toen duur zat, maar ze gaan nu 2de hands voor meer weg :+
545 voor een 2080Ti toen de 3000 serie in presale ging. Vond ik toen wel een leuke prijs, ondanks 2e hands.
Achteraf is het de deal van de eeuw geweest als ik de prijzen van een 2080Ti of 3070(TI) zie.

Maar voorlopig ook de laatste gamerkaart die ik gekocht heb. Mocht deze stuk gaan gaat er een simpel kaartje in voor desktopwerk en game ik wel op de consoles.
Want de prijzen gaan helemaal nergens over.
Blijft een gekke wereld. Miljarden die gaan naar 10min bezorgdiensten van boodschappen en andere 'onzin platformen', maar weinig of geen miljardairs die investeren in de productie van videokaarten/chips.

[Reactie gewijzigd door maxkranendijk op 22 juli 2024 20:58]

die bezorgdiensten zijn nieuw, dus als je daar de markt mee veroverd heb je op een "simpele" manier een monopolie. Dit zonder al te veel start opkosten. Echter voor iets als het maken van videokaarten, ben je niet een twee dire klaar. En hebben we het niet over miljoenen om een markt in te stappen, maar echt over miljarden aan investeringen.
Er wordt wel degelijke geinvesteerd in chip productie. Alleen voordat dit tot uiting komt zijn we 5 jaar verder. Een fabriek neerzetten kost miljarden en ook letterlijk jaren.
Dit kunnen wij stervelingen toch nooit in handen krijgen, de markt wordt helemaal verziekt door bots en opkopers, kom je bijna niet tussen, zoek al tijden een 3060ti, 3070ti of 3080ti, en ja, als ik 2000-3000 euro betaal krijg ik hem wel, maar de "normale" prijs is bijna niet te vinden

Op dit item kan niet meer gereageerd worden.