Nvidia presenteert RTX 3090 Ti niet, ondanks belofte dat te doen in januari

Nvidia heeft geen nadere details bekendgemaakt over de RTX 3090 Ti-videokaart. Begin januari zei het bedrijf dat er 'later deze maand' meer informatie zou volgen, maar dat is niet gebeurd. Het uitstel volgt op geruchten over hardwareproblemen met de gpu.

Nvidia laat desgevraagd weten 'geen nieuws' te hebben op dit moment en geeft verder geen inhoudelijk antwoord op de vraag waar de GeForce RTX 3090 Ti blijft. Ook zegt het bedrijf niet wanneer het nieuwe topmodel dan wel verwacht kan worden.

Tijdens zijn CES-keynote op 4 januari bevestigde Nvidia de komst van de RTX 3090 Ti. Het topmodel werd toen in een livestream kort getoond en er werd bekendgemaakt dat de kaart 40 teraflops aan rekenkracht krijgt en 24GB aan GDDR6X-geheugen met een snelheid van 21Gbit/s. Nvidia gaf aan dat later in januari meer informatie zou volgen.

Halverwege januari kwam er een gerucht naar buiten over een productiestop van GeForce RTX 3090 Ti-videokaarten. Nvidia zou fabrikanten gevraagd hebben om de productie stop te zetten omdat er problemen zouden zijn met de bios en de hardware. Verdere details zijn niet bekend.

RTX 3090 Ti
Nvidia toont RTX 3090 Ti tijdens CES 2022

Door Julian Huijbregts

Nieuwsredacteur

31-01-2022 • 15:52

123

Reacties (123)

123
122
69
5
0
26
Wijzig sortering

Sorteer op:

Weergave:

Hoe langer ze dit rekken, hoe vaker ze er mee in het nieuws komen.
Bijna niemand gaat hem willen betalen, want de gewone 3090 is genoeg voor bijna alles, maar er staat elke paar weken weer een NVIDIA bericht op Tweakers. De schoone kunst der marketing.
Welkom in de wondere wereld van VR waarin met de moderne headsets zoals een Reverb G2 ieder spatje performance van je videokaart nodig is om aan de juiste stabiele framerate te komen.

Vorig jaar een 6900XT gekocht voor MSRP, en eigenlijk zou ik graag wat snellers willen. Nu is de 3090Ti niet in de prijsklasse waarin dat zoek en dat ga ik er niet aan uitgeven, maar er is zeker meer wens naar meer performance.
Vooral met extreem hoge resoluties is nvidia aan te raden. Tot aan 4k doet amd het prima. Daarbocen loopt nvidia wel echt uit.dus voor mensen met triple 4k of vr is de 3090 series wel echt een uitkomst
Dan spring je niet echt verder met TI versie je zou gek moeten zijn te denken dat zoveel meer winst geeft dan een 3090 Rtx.
1860 MHz on the 3090 Ti boost clock
Terwijl 3090 Rtx boost naar 2000Mhz
5 procent meer dan normale 3090 en voor wat prijs 3090TI en problemen die er mee komen.
De kaart is nog niet uit en is al terug geroepen wegens problemen.
https://www.igorslab.de/e...ecomes-a-corset-analysis/
3090 RTX is stabiel problemen zijn eruit gehaald .
3090 genoeg voor alles? Geen idee maar ik had graag een 2e voor SLI willen hebben als ze moeite hadden genomen om SLI profielen te blijven maken. In games die ik speel haal ik met moeite 80-100FPS in 3840x1600 met een 3090 Strix en 12900K en op een 144Hz scherm, zelfs met G-Sync voel je de FPS schommelingen duidelijk.

[Reactie gewijzigd door N1craM op 23 juli 2024 00:36]

3090 voor games is weggooit geld. De 24GB ram is niet interessant voor games. prestatie winst op 4K is echt minimaal tegen over 3080 ti.

3090 is ~4,5% sneller dan 3080 Ti op 4K
goedkoopste 3090 in price watch ~2300,-
goedkoopste 3080 ti is ~1800,-

Dat is 500,- verschil voor ~4,5%.

Mocht je het geluk hebben gehad om bij launch zo dicht mogelijk tegen de advies prijs te hebben betaald, dan zijn er een hoop jaloers hier en zou ik zeggen genieten gewoon van je kaart want de meeste onder ons kunnen het niet veroorloven om meer dan 2000,- euro neer te leggen voor een videokaart.
Stel dat je wil simracen met triple 4k monitor in assetto corsa competitione, of als je een high end vr bril hebt.
Of stel, je hebt een 8k monitor en speelt daarop games. ;)
Wat voor games speel jij dan in vredesnaam? Want ik denk niet dat we hier hebben over World of Warcraft of Warzone?
Iets zo stoms als Snowrunner, op hoge settings voel je gewoon korte FPS drops als je om je auto heen kijkt. Kaart zit ook continue aan zijn 400W+ power limit in dit spel...
Forza Horizon 5 draait redelijk, rond de 80-120FPS.
Nu vind ik 3840x1600 niet een bijzonder hoge resolutie voor een "38 ultrawide hoor, dat is nog steeds een goed stukje lager dan 4K. Ik heb ernaast ook een "27 FHD AOC 144Hz paneel staan en die is niet om aan te kijken, zo wazig, zelfs vergeleken met mijn oud 3440x1440 scherm.
Daarom baal ik ook zo enorm dat er steeds minder ondersteuning voor SLI is...er zijn games genoeg waar een 3090 moeite mee heeft. Crysis Remastered met RTX is al helemaal om te janken in deze resolutie. :D

[Reactie gewijzigd door N1craM op 23 juli 2024 00:36]

SLI is altijd een ramp geweest, ik heb in het verleden een aantal keer SLI geprobeerd en telkens was het een grote teleurstelling. Van games die het niet ondersteunen tot glitches omdat 1 videokaart "spontaan" raar ging doen in SLI mode (en zonder SLI deed die kaart het prima).

Ik kan SLI alleen maar afraden.

Persoonlijk net een nieuwe computer besteld (stupid, probably), hierin heb ik een 6900XT gedaan. Misschien minder goeie raytracing, maar in een vergelijkingsvideo met zelfde settings was het vaak minder dan 5fps verschil voor aanzienlijk minder geld dan een 3080ti/3090. (heel soms iets meer verschil, en geloof zelfs met 1 game [van die video] sneller)

(dat en ik ga er ook hackintosh op dualbooten - en dan is een amd kaart beter)

[Reactie gewijzigd door Da_Teach op 23 juli 2024 00:36]

Denk eerder dat die games zoals Snowrunner super slecht geoptimaliseerd zijn.
Minecraft RTX op 4k draait maar ~40 fps op een 3090.
Flight simulator op 4k ~46 fps.
Cyberpunk op 4k zelfs onder ~30 fps.

Denk dat de kracht van de huidige generatie GPUs toch zwaar wordt overschat omdat je zo makkelijk heftige compromissen kan maken door RTX uit te zetten of DLSS aan.
Minecraft RTX? MINECRAFT!? wat.. why... hoe dan!? :P

Maar on topic.... ik denk gewoon dat de eisen van sommige gamers een stuk te hoog liggen. En dat is dan wel weer de schuld van o.a. Nvidia en de console boeren die steeds net doen alsof hun producten 4K@60FPS aan zouden kunnen terwijl dat echt nog niet het geval is... 4K gaming is nu nog een niche, en eigenlijk niet echt realistisch haalbaar (als je 60FPS wilt, en de meeste gamers vinden dat zelfs al laag)

Ik zit zelf op 3440x1440 en zou niet weten waarom op dit 34 inch scherm de resolutie hoger moet. natuurlijk zijn er niche gamers die op 3 schermen zitten (ik ook) en daar merk je inderdaad dat de 3080TI en ik verwacht ook de 3090TI de 100FPS niet halen met alles aan, maar die verwachting is er bij mij ook niet.
Inderdaad. Zelf net en 3080 Ti gekocht. Dan merk je toch dat 4k gaming, zoals in Cyberpunk 2077, nog steeds moeizaam gaat (met alles op max) en full raytracing. Ook in een wat minder heftig spel, zoals, zeg, Control, haal je toch net niet die 60 fps.

Gelukkig heeft nVidia DLSS (de Ai upscaling); dan worden zaken intern op lagere resolutie gerendered, maar met Ai weer upgescaled. Ziet er retegaaf uit. En dan is 60 fps, ook op 4k, goed te doen.

[Reactie gewijzigd door albatross op 23 juli 2024 00:36]

60 fps is denk ik wel haalbaar, maar niet op ultra settings.
Ja, maar dan is ook dat hele punt van op hoge resoluties willen gamen onderuitgeschopt.

[Reactie gewijzigd door teacup op 23 juli 2024 00:36]

want? High settings is amper minder dasn ultra, zeker als je speelt valt het amper op. Ja, als je niks doet en achterover leunt...o owww... dan zie je het...wat errug....
Maar zeg nou zelf, het verschil tussen een 1440p en 4K zie toch ook niet terug in veel games. Als kijk hoe grof veel landschappen nog gemodelleerd zijn en hoe rendering nog is gelimiteerd door de beperking van de gamegrootte.

1440p kan ik nog wel begrijpen, of widescreens, of meerdere schermen, voor een grotere Field of View. Maar 4K alleen voor de 4K? Zouden er games gemaakt worden die de potentie van 4K echt adresseren, dan zijn die games heel wat duurder en groter dan ze momenteel zijn. Ook bij een grotere beeldbreedte doe je die concessie, maar dan krijg je die breedte nog. Waar ik voor 4K een toevoeging zie is bij het runnen van strategiegames. Ben je echt into strategiegames dan levert 4K he gewoonweg meer informatie op.

Of de extra productiekosten zijn te rechtvaardigen terwijl de consoles een grote dikke onderkant aan de markt vormen die de investering in high end relativeert, daar twijfel ik wel. Consoles ondergraven PC gaming. Niet alleen op 4K resoluties.
4k hoeft voor mij niet perse, het drijft ook het stroomverbruik op, meer hitte die afgevoerd moet worden. Bij gamelaptops zie je goed waar dat toe leid, zonder stekker word je battery rap leeggetrokken en dus ook zwaarder belast aka kortere levensduur. Het word gewoon absurd.
En niet met ray tracing.
Wat de consoles betreft, dat is zeker waar.

Xbox Series X : Forza Horizon 5
- performance mode: 60FPS , dit voelt tenminste goed en niet stoterig aan als je rond rijd. Echter mis je alle gras en wat details, zelfs verdwijnt het random rondrijdende verkeer van tijd tot tijd tot herstart of door de switch naar quality modus.
- quality mode : 30FPS, stuk mooier maar nog niet zo mooi voor mijn gevoel als 4k op de pc met extreme alles aan settings.

Op de PC met een 3080 10gb in 4k is Forza Horizon 5 met gemiddeld 60-70FPS gewoon echt veel mooier en soepeler te spelen dan op de xbox series x.
Klopt alleen wat betaal je voor dat verschil in performance?
Als je de rest van de nieuwe pc niet meerekend, minder dan een PS5 en Xbox series X samen :+
Het is dat FH5 het zo slecht deed op een R9 290X 4gb op een 1440p monitor, FH4 was geen probleem.
Destiny 2 was nog redelijk te spelen op de R9 290X.
Netjes - ik heb een redelijk snelle PC maar weiger de absurde prijzen te betalen voor een nieuwe grafische kaart (nu nog een 1080) dus voorlopig blijft de Series X de beste manier van spelen voor mij.
Volgens mij is het maar een kleine groep die 30FPS te laag vind, laat staan 60. Het is natuurlijk niet realistisch om te verwachten dat de resolutie verviervoudigt, de framerate verdubbelt en dat er ook nog eens grafische vooruitgang te zien is.
Vrijwel alle nieuwe spellen haal je lang geen 144 FPS op 4K als het een beetje grafisch is. Warzone 1440p trekt mijn 3080 al leeg op medium settings terwijl ik een 4K scherm heb.
Een maat van me wou onlangs de Samsung G9 kopen.. 5120 x 1440 @ 240 hz, succes om dat te draaien met een enkele 3090...
Gaat hier toch best goed hoor, bij alle games op Ultra eigenlijk wel > de 60 fps. Bij de nieuwste games vaak wel met DLSS aan op Quality en dan kom ik vaak zo rond de 80-100 fps gemiddeld. M'n 3070 die ik eerst had daarentegen... :P

[Reactie gewijzigd door pcrepairworld op 23 juli 2024 00:36]

Dat zegt ie zelf al
80-100FPS in 3840x1600
De eisen qua resolutie en framerate zijn voor sommigen astronomisch hoog geworden. Dat is de reden waarom we nu kaarten als de 3090Ti zien met een MSRP van ver boven de €1000.
Hoe lang bestaat deze resolutie al ? Jaartje of 10 ? Zou toch eens tijd worden dat daar fatsoenlijk op gegamed kan worden, zeker op de ultra high end kaart.
De 3090 is toch bedoeld voor servers? Volgens mij was de performance/prijs in vergelijking met de 3080 niet interessant voor gamers en was deze kaart bedoeld voor AI in datacenters.

Ben wel benieuwd welke games je dan speelt?
Voor datacenters, servers etc heb je de tesla, quadro etc. Geforce= gamers
Voor datacenters heb je inderdaad die modellen, want de Geforce driver licentie verbiedt het gebruik in dat soort omgevingen. Maar "server" is wél toegestaan met de Geforce driver.

En qua prijs/performance is elke Geforce gunstiger dan elke Tesla of Quadro.
uiteraard is een geforce goedkoper, maar mogelijk minder degelijk en dus TCO uiteindelijk duurder als ze er door de 100% belasting bijna non stop eerder uitklappen.

@bosbeetle wist niet dat het tegenwoordig allemaal RTX was ;). Maar Geforce is nog steeds de naam voor de gaming kaarten hoor ;)
Klopt maar meestal wordt gewoon RTX3090 gezegd, en dat geforce niet genoemd. Ik vind het altijd wel leuk om te weten dat er nog een heel segment boven ligt, maar daar gaat de focus naar hele andere zaken, zoals veel rekenen. Wij werken wel eens met wat AI en zelfs de AI pro's denken soms dat het ophoudt bij de 3090 die wel snel is maar behoorlijk gelimiteerd kwa geheugen dan kun je beter richting de Atjes gaan.

Alleen de prijzen :X
FUD marketingpraat van NVidia. We hebben in onze server 3x 1080 Ti's die al jaren 24/7 draaien.
Die heten tegenwoordig ook gewoon RTX... de a lijnen zijn dat... RTX A4000 etc. Quadro is niet meer.
Het is meer voor mensen die naast games ook nog eens zware grafische werkzaamheden doen zoals 3D design/modelling of videobewerking.
Dat klopt, maar door de tekorten is de 3090 en de eventuele TI versie gewoon de volgende videokaart voor gamen.
Volgens mij was de performance/prijs in vergelijking met de 3080 niet interessant voor gamers
Dat ligt er aan of je waarde hecht als gamer aan prijs/prestatie. Als je gewoon de snelste wil hebben, koop je een RTX 3090.

Een RTX 3090 is nooit bedoeld voor server, Tesla is wat Nvidia produceert voor primair servers.
Je zult workstations bedoelen, en daarnaast heeft Nvidia de 3090 wel explciet als een gaming kaart gepresenteerd met hun 8k60 claim bij de announcement.
En voor gamers die gewoon teveel geld hebben en (op papier) gewoon de beste gear willen hebben die op dat moment uit is. Ik ken meerdere mensen die een 3090/3080ti of 3080 hebben maar alleen CSGO spelen en retro games. Puur voor de e-peen.
Maar als je een beetje competitive CS:go speelt heb je er wel degelijk wat aan als je ook 240FPS haalt. Nou is dat niet heel moeilijk met dat spel (500+ fps kan namelijk gewoon), maar als je het combineert met een hoge resolutie is een 3080 echt zo gek nog niet.
Ik heb nu een 3080TI en haal 1000+ FPS. Hiervoor had ik een 1080 en haalde 400+ FPS. Dat verschil merk je (ik) echt niet! Overigens spelen mensen die echt competitive gaan (in ieder geval de mensen waar ik het in mijn vorige post over had) op lage resolutie want rustiger voor de ogen en minder afleiding wanneer je geconcentreerd bent.
Maar dat spreekt toch niet tegen wat @hooibergje zegt? Hij zegt niet alles, hij zegt 'bijna alles' en 4k+ op 144hz en vermoedelijk hoge settings draaien is wel een flinke niche use case. Dat wil niet zeggen dat jij het misschien nodig hebt, maar het valt wel comfortabel binnen het woordje 'bijna', met dezelfde reden waarom SLI niet meer bestaat: Het is een niche product en de kosten/baten staan niet in verhouding voor Nvidia.
Er zijn inderdaad altijd wel use cases te vinden voor flightsimmers en race gamers, maar het is niet alleen 'het nodig hebben' maar ook '2000 euro uit willen geven voor een accessoire voor een hobby'. Dat is best een bak geld, en dat terwijl er voor 1500 euro kaarten zijn die bijna net zo goed zijn. Ik vraag me af of de meeste gebruikers het verschil ueberhaupt zouden merken.
Wat N1craM zegt en er zijn genoeg Sim liefhebbers die voor Flight Simulator or race simulators drie schermen aansturen. Dan wil je een krachtige GPU.
Nou ja, genoeg. Het is een nichemarkt. Maar een niche is nog steeds een groep klanten met wensen. Ik weet zelf al te goed hoe het is om een niche te zijn.
Even DLSS aanzetten meneer.
Joh je kunt ze niet eens kopen op een normale manier al zou je willen. De hele 3xxx serie is wat mij betreft op dit moment vaporware.

En nee, gebruik van custom browser extensies/lid zijn van Telegram/Discord groepen om op een bepaald moment klaar te zitten met je CC tot er weer een "drop" is vind ik niet de normale wijze om iets te kopen.
Maar dan is jouw definitie van vaporware verkeerd. Vaporware betekent niet dat jij het niet kunt kopen, dat betekent dat het niet bestaat. De vraag is gewoon heel hoog, dus het wordt wel verkocht, dus het is per definitie geen vaporware ;)

Dat het niet de normale wijze is om iets te kopen, mee eens, maar dat verandert niet de definitie van vaporware. Zou leuk zijn 'het brood bij de bakker was om 8 uur op, duidelijk vaporware!!'
Ach ja, zo'n reactie had ik kunnen verwachten :)

Goed, het is _per definitie_ dan geen vaporware maar het is ook niet op dit moment te koop. Dus hoe noem je het dan?
rens-br Forum Admin IN & Moderator Mobile @Arfman31 januari 2022 16:19
Uitverkocht
Nou hoe je het noemt is gewoon een markt met meer vraag dan aanbod door een extreem hoge vraag en externe factoren. Nvidia levert prima genoeg kaarten, maar de vraag is gewoon heel hoog (iets wat veel Tweakers volgens mij soms niet door hebben omdat 'tekort' in het woord chiptekort volledig letterlijk wordt genomen).

Is het vervelend? Zeker. Maar om dan dingen te gaan roepen als 'Vaporware' of wat je vaak ziet 'Nvidia moet zijn zaken op orde hebben', dan sla je volgens mij de plank niet mis, je hebt niet eens een hamer in je hand ;)
Nieuwe naam: "Dreamware", "Hopeware" of "Scalpware", wat mij betreft.
Goh jeetje. Hij gebruikt gewoon de term "vaporware" om te overdrijven he. Dat is hoe belgen spreken ( misschien een paar nederlanders ook .. ). Je moet hem dan toch niet in het nauw drijven om te zeggen dat het niet effectief vaporware is.... jezus christus.. maria.....jozef....
Ik zou willen dat die groepen en plugins überhaupt een manier waren om het te kopen. Ik doe daar ook aan, maar ik heb geen videokaart om ervoor te laten zien. Hooguit kan ik in een wachtrij komen met een verwachte wachttijd van een uur. En in 2 minuten is alles uitverkocht.
Daarom heb ik nu gewoon een pre-built PC gekocht. Prima Asus hardware (helaas gpu met blower koeler) in een crappy kastje wat ik binnenkort ga vervangen. Deze was vorige week 1560 euro bij de mediamarkt actie. Kan je los net een RTX3070 en 5800X van kopen, nu is t een hele machine.
Vaporware betekend wat anders dan dat je denkt.

Een RTX 3090 is prima voorradig, zelfs voor €2300... Dat is nog steeds lager dan de vorige generatie RTX Titan, welke een MSRP had van €2500.

Zijn dat hoge prijzen, zeer zeker! Maar alle RTX 30x0 producten zijn nu gewoon leverbaar, tegen hoge bedragen, maar voorradig. Dat is in de afgelopen twee jaar wel anders geweest...
Verhip, je hebt gelijk. Gewoon 30x0 kaarten op voorraad bij Azerty. Wel 1100 euro voor 3070Ti en 1500 voor 3080 maar goed, het is in ieder geval leverbaar.

Nu nog iets aan die absurde prijzen doen ..
Komt dat niet veel gamers zoveel geld overhebben voor zulke kaarten, en het dus ook steeds minder interessant word voor scalpers, want die komen er ook niet meer vanaf

Verder denk ik niet niet dat veel miners nog dikke investeringen zullen doen in GPU's op dit moment
Hopelijk gaat dit er voor zorgen dat de kaarten weer goedkoper worden
Ik mag het hopen. Die hele cryptoellende is eigenlijk nergens goed voor geweest :(
Het ligt natuurlijk ook wel een beetje aan Tweakers dat ze een nieuwsbericht schrijven over een product dat niet is aangekondigd gepresenteerd. :+

[Reactie gewijzigd door MeltedForest op 23 juli 2024 00:36]

Het volk dat voor een 3090ti gaat zal nu op 3090 zitten en hebben gewoon de drang om de beste te hebben en zullen dan ook elke gen top g-kaart moeten hebben.
Voor de meeste is gewoon zelf met gewone prijzen al te duur , maar er is deel van bevolking met geld te veel waar 3000€ niet zo bijzonder is die groep klein. Maar met de schaarste van nu drijft die groep de prijs tot grote hoogten.
Mijn budget zit meer rond de €600,- dat was vroeger performance klasse onder de 250watt.
En de 3070 Ti 16GB ook niet, maar die was volgens mij al uitgesteld :{

[Reactie gewijzigd door JDx op 23 juli 2024 00:36]

Heb je bij de 3070Ti wel baat bij 16GB VRAM? Bij de 3090Ti hoopte ik zelf op dat ze eindelijk de nieuwe VRAM chips met dubbele densiteit zouden gebruiken...daarmee zou het probleem met 110*C op de VRAM aan de backplate hopelijk opgelost moeten zijn en de paar % extra CUDA cores was mooi meegenomen.
Toen ik van 3060 (12GB) naar 3060 Ti (8GB) ging, gingen bepaalde games zeuren dat de texture omlaag moest, dat vond ik niet heel erg, maar dan vind ik dat er in een 3070+ toch minstens ook 12GB moet.
Betwijfel dat ultra/4k draait niet soepel genoeg en daaronder heb je geen 16gb vram nodig in 99.9% van de games.
4k kom je niet boven de 10 gig Heb zelf de 3080ti en draai alles op 4k en gaat niet verder dan 10 11 gig op dit moment
Dat geld totdat er weer wave aan nieuwe games komen waarvan er enkele die stuk meer eisen. Tenzij je upgrade naar elke gen. Ik zit nog Vega56 dus g-kaart die ik koop ziet games die nu nog amper in preproduction zijn. Maar ja 4K ga ik niet voor.
Staat die op je wishlist?
Wat voor jou de 3080 is, is voor mij de 3070, maar zoals hierboven geschreven vind ik dat in een kaart van een dergelijk kaliber (en prijs) gewoon geen 8GB meer hoort, ligt wel aan de prijsontwikkelingen in hoeverre ik het waard vind tegen die tijd.
Wanneer zijn de gpus weer voor vriendelijke prijzen te koop? De 4xxx serie komt ook al richting het einde van dit jaar.
Ik blijf die geruchten horen, maar het zou mij nog verbazen als er zo snel al een nieuwe serie komt. De huidige serie is praktisch nog steeds een paper launch. De vraag naar überhaupt een videokaart is ook idioot hoog. Nvidia heeft al RTX2060 kaarten bijgeproduceerd om aan de vraag iets beter te voldoen. Eigenlijk hadden ze ook wel GTX1000 en GTX1600 kaarten erbij kunnen maken, want ook die prijzen schieten de pan uit.

Waarom zou je dan een nieuwe serie maken, als alles wat je ooit hebt uitgebracht ook goed boert? Het maakt niet uit wat je uitbrengt, het is zijn gewicht in goud waard. Je kan op je oude materiaal even goed cashen. Dan kan je beter je nieuwe serie achter de hand houden.

Ergens hoop ik ook niet dat de nieuwe serie dit jaar al uitkomt. Ik heb al gezien hoe storm de hele markt liep. GTX1600 kaarten die tweedehands mhet dubbele kostten van de nieuwprijs in 2019, dat ging precies na de introductie van de huidige generatie kaarten. Ik zie het al gebeuren dat bij de lancering van de volgende generatie het nog meer storm loopt. Dan kijken we met heimwee terug naar de huidige tijd. De RTX3000 serie wordt dan vrolijk nog 1,5-2x zo duur als ze nu zijn. Nog meer vraag, maar nog steeds een aanbod dat niet kan voldoen. Die hogere vraag is geen eens nuttig voor de winst, want je verkoopt nu al zoveel kaarten als je maar weet te produceren.
De R&D staat los van de productieproblemen. Als Nvidia geen nieuwe generatie uitbrengt, dan gaan ze achterlopen op AMD.

We zien nu vooral dat het aanbod verbreedt. Ze blijven nog steeds kaarten maken met oude productieprocessen, die ze anders niet meer zouden gebruiken. Maar dat betekent niet dat ze geen top-kaarten maken.
Hoezo gaan ze achterlopen op AMD. Zolang AMD geen nieuwe serie uitbrengt loopt Nvidia niet achter. En AMD heeft evenmin een reden om een nieuwe serie uit te brengen.

Uiteraard kunnen ze wel de R&D doen. Dat zullen ze wel moeten, anders lopen ze inderdaad achter. Maar in de huidige markt is er absoluut geen reden om een nieuwe serie uit te brengen. Nvidia zou de huidige generatie kunnen stopzetten en weer GTX1000 kaarten verkopen, en het zou alsnog als zoete broodjes over de toonbank gaan. AMD idem. Ik verbaas me er nog over dat enkel de RTX2060 opnieuw is uitgebracht.
Zolang AMD geen nieuwe serie uitbrengt loopt Nvidia niet achter.
Maar dat doet AMD natuurlijk wel. En anders Intel wel. Zo werkt de vrije markt. Bedrijven zijn bang van elkaar te verliezen en ze kunnen niet afwachten of de ander wel met iets komt, want dan zijn ze te laat.

De foundries zijn trouwens hard bezig met betere productieprocessen, waarvoor ook weer nieuwe GPU's nodig zijn om die te benutten. Het is niet zo dat die productielijnen gebruikt worden voor 2060's, wanneer ze er geen 4090 op maken. Je kunt chips niet zomaar op een ander proces maken dan waarvoor ze ontworpen zijn. Dus dan zal AMD of Intel (of Apple) die productielijnen gaan gebruiken, ten koste van de omzet van Nvidia.

De winstmarge op 3090's (en straks 4090's) is trouwens veel hoger dan op de 2060's.
Nvidia zou de huidige generatie kunnen stopzetten en weer GTX1000 kaarten verkopen, en het zou alsnog als zoete broodjes over de toonbank gaan.
Ja, voor 600 euro. Niet voor 2500-3000 euro. De vraag naar en prijzen van de 6900XT zou dan de pan uitschieten en AMD zou veel meer winst kunnen maken.
De vrije markt is niet een magisch fenomeen dat altijd innovatie achterna jaagt. Zo werkt de vrije markt niet. Het draait enkel om winst, en innovatie gebeurt enkel wanneer het relevant is voor de winst. In een gezonde markt wil je die innovatieve drijfveer vaak genoeg wel zien, maar de huidige markt is niet erg gezond. En ook afwachten is iets dat vaak genoeg gebeurt. Innovatie gebeurt wanneer het nodig is, wanneer de markt verzadigd is met je huidige productlijn, en je wat nieuws nodig hebt om nieuwe vraag te creëren. En zelfs dat gebeurt niet altijd. In de huidige markt hebben AMD en Nvidia beiden geen reden om te innoveren. Intel gaat ook niet serieus concurreren. Hun kaarten worden hooguit mid range en zullen met de huidige vraag alsnog direct worden opgekocht. Dat is een druppel op een gloeiende plaat.

Wellicht dat de nieuwe productieprocessen wel een reden zijn om nieuwe chips te maken, maar dan moeten we nog bezien wat dat wordt. We hebben al gezien dat AMD met een nieuw proces aan de slag ging, maar dan wel voor de RX6500. Waarvoor het gebruikt gaat worden is nog even de vraag.

Winstmarge op high end kaarten is inderdaad heel hoog, maar waarom zou je alleen een RTX3090 verkopen als je ook een RTX3090 én een RTX2060 kan verkopen? Daarom zou ik ook GTX1000 of GTX1600 kaarten laten bijdrukken. Je raakt de kaarten toch wel kwijt. Ja, de winstmarge is wat lager, maar je kan wel meer kaarten schuiven. De vraag is er toch wel.

Ik zie niet in waarom de vraag naar 6900XT kaarten de pan uit zou schieten als Nvidia oudere kaarten op de markt zet. Bedoel je soms dat ze dan minder RTX3080 en RTX3090 kaarten kunnen maken? Maar je zei zelf al dat je niet zomaar een willekeurige kaart op een willekeurig procédé kan zetten. Ze hoeven niet minder van de huidige chips te produceren.

In een normale markt zou je groot gelijk hebben. Dan moet je mee blijven komen, en dan kan je niet zomaar oudere kaarten maken. Misschien kom je er nog net mee weg als. Je een oude high end kaart uitbrengt als mid range model in de nieuwe serie, dat is in het verleden meer dan eens gebeurd. Maar de markt is gewoon niet normaal. Elke chip die je erbij kan produceren, is een die verkocht gaat worden tegen een leuke mark-up. Higher end chips hebben een nog leukere mark-up, maar het is nu vooral belangrijk dat je maar zoveel mogelijk chips kan schuiven. Kwantiteit, niet kwaliteit is nu relevant.
2e hands zijn de kaarten ietsjes aan het zakken. Ik hoop dat dit zo blijft doorgaan. Af en toe kom je een kaart tegen die "maar" 100-125 duurder is dan msrp
Kan die quotes wel weglaten wat mij betreft. 100 euro boven MSRP is niet veel, scheelt je een hoop tijd en frustratie.

Voor de 1000 series moest ik ook al 100 euro boven msrp betalen en dan was het nog tweedehands ook, ik hoorde er toen ook bijna niemand over klagen.

Het kan altijd beter maar tenzij je kieskeurig bent (lees: non-LHR nvidia willen hebben) dan kan je vrij makkelijk voor MSRP+100 een kaart hebben tegenwoordig. Al meerdere keren in 2021 ook overigens maar dat terzijde.
Maar dan heb je het wel kver de GTX1600 serie. Sommige die nu worden verkocht kosten tegenwoordig minder dan 2x de adviesprijs. Dan kom je een tweedehands GTX1660ti tegen die geen eens 500 euro kost.
Wanneer óf de vraag daalt óf het aanbod groter wordt ;)
Jammer. Iedereen zat te wachten op de volgende onbetaalbare kaart :P
Same, wie wil er nu niet minimaal 2x msrp betalen voor een kaart, en dan hopen dat het niet x3 word op de tweede hands markt.....
Het ergste is dat een techgeek zoals ik die al meedraait sinds de eerste Voodoo kaarten het eigenlijk geen hol meer kan schelen wat nVidia nog uit hun duim zuigt. Ze zijn toch amper tot niet verkrijgbaar en wie kan of wil dit nog betalen voor een GPU.
Dat is niet helemaal eerlijk tegenover GPU ontwerpers/bouwers denk ik. Het was altijd zo dat nieuwe kaarten duurder waren bij introductie en langzaam goedkoper werden. Zeker als er alternatieven kwamen (concurrentie dus). Maar ook als er weer een nieuwere (en snellere) GPU beschikbaar kwam.
Maar ze waren wel te koop en de levertijden waren redelijk of zelfs gewoon kort. En als je de top-of-the-line wilde dan betaalde je nog wat meer en kreeg je in verhouding tot de kosten iets minder performance voor terug dan de sprong tussen previous generation en current generation in de midrange.

Maar opeens kwam daar een nVidia 30xx range. Veel beter/sneller en niet eens zoveel duurder dan de vorige generatie. Eigenlijk dus goedkoop te noemen. Maar op hetzelfde moment hebben we een pandemie. Die zorgde voor fabricage problemen in allerlei gebieden. Daarnaast hebben we crypto valuta. En dankzij de pandemie hebben we een grotere vraag naar dit soort hardware omdat we veel meer thuis werkten/waren.

Dus kun je toch moeilijk nVidia de schuld geven van het feit dat we nu moeilijk aan (lees: redelijke prijzen en redelijke levertijden) kunnen komen?
Als je tussen de regels door leest van BitJager, denk ik dat hij voornamelijk meer zijn teleurstelling in alles wil laten blijken en niet zozeer nVidia "de schuld" geeft. Frustratie e.d. moet ergens heen.
ja - dat gevoel had ik ook al - maar je
uit z'n duim zuigt
lijkt wel op echte kritiek.
Even ter verduidelijking. Ik heb bijna 1 jaar een 3090 gehad en was uiteindelijk teleurgesteld in wat de meerwaarde in de praktijk was. Ik heb de kaart toen verkocht voor een meer dan schappelijke prijs. Geen scalper toestanden een gezien de vraagrprijzen redelijk bedrag. We zitten in een tijd waar een 3050ti meer kost in de praktijk dan een mid-range tot sub high-end kaart zou moeten kosten en qua rasterisatie komt het amper verder dan een 1660ti... . Dat is vooral mijn teleurstelling dat de markt op dit moment zwaar verziekt is. Dit volledig op conto van de pandemie te gaan wegschrijven is imho net iets te makkelijk.

[Reactie gewijzigd door BitJager op 23 juli 2024 00:36]

Ja dat is dan wel vreemd. Ik had wel begrepen dat die nieuwe kaarten wel meerwaarde hadden. Dat is dan niet de schuld van de pandemie idd.
Nou ja ik niet , maar zou ik 10 voud aan inkomen hebben zou mij de prijs ook niet boeien en begin ik pas bij 50.000 of 100.000.
Je weet toch wel dat er ook rijken zijn in vele gradaties. Voor sommigen is €3000 niks dat gaat misschien al aan kleding op per maand.
Met kaarten in zulk hoog verbruik, mogen ze wel twee van die 12-pin PCIe aansluitingen gebruiken.
RTX3080TI FE Heeft al Power Spikes(20ms) van 455watt
PCIe 12-pin: Total available power is 375 W (300 W from the 12-pin + 75 W from the PCIe slot)
Hier kun je alvast genieten van de Doos van een RTX3090Ti Tuf van Asus

[Reactie gewijzigd door Hackus op 23 juli 2024 00:36]

Fijn dat ik het weet, hoef ik de rest van de maand niet meer af te wachten!
Ik begrijp best dat dit een zeer lastige gpu is voor Nvidia is om te ontwikkelen en dit nog wel even kan duren, de RTX 3090 heeft al heel veel power nodig, dit zal er denk ik met een TI versie niet veel beter op worden.
Ik neem aan dat Nvidia hetzelfde productieproces zal gebruiken, dan zit je ook nog met het hitte probleem aangezien de 3090 zijn warmte al niet goed kwijt kan.
Powerspikes heb je ook nog bij deze gpu's waarbij je een voeding nodig hebt die van zeer goede huizen moet komen.
Daar komt ook nog eens de prijs bij, zo rond de 2300-2350 euro kun je nu een gewone rtx 3090 kopen als ik even rondkijk, een gpu die sneller is en het neusje van de zalm zal hier best nog een stukje boven moeten komen te zitten.

En tot slot heb je ook nog de doelgroep die zeer beperkt is, wat het onrendabel kan maken om deze gpu überhaupt te produceren ivm de huidige marktomstandigheden (chiptekort, grondstoffen tekort, hoge prijzen, etc.)

Het is natuurlijk allemaal speculatie, maar als Nvidia deze gpu echt klaar had en de fabrikanten de chipjes al op de pcb waren aan het plakken zouden ze natuurlijk wel iets van zich laten horen of waren er foto's ''uitgelekt''.
Een vlaggenschip introduceer je natuurlijk niet in alle stilte.
Mijn Asus tuf 3090 OC word niet warmer dan 58 graden in games.
Dat je het ff weet.....
Zeer waarschijnlijk is de memory junction zo ongeveer het dubbele daarvan...
Dat je t ff weet.
Tja, logisch dat ze 'm niet kunnen presenteren. Met de huidige schaarste kan ook NVidia zelf niet meer aan GPU's komen :P
Er is een tijd geweest dat games te hoge eisen hadden op CPU en later ook GPU. AMD/Intel hebben de CPU bottleneck gefixed, en met de 980 en de 1000 serie hadden we eindelijk performance van formaat, voor redelijke prijzen. Niet lang daarna werden 4k monitoren populair, en 144 Hz, en nu zitten we weer in het begin van de cyclus en is het wachten op de hardware die het allemaal kan draaien. Helaas is prijs en beschikbaarheid nu ook onderdeel van de cyclus geworden.
Niet lang daarna werden 4k monitoren populair, en 144 Hz
En VR.

Op dit item kan niet meer gereageerd worden.