Gerucht: Nvidia GeForce RTX 3080 Ti krijgt evenveel CUDA-cores als RTX 3090

Volgens geruchten krijgt een mogelijke Nvidia GeForce RTX 3080 Ti 10.496 CUDA-cores. Dat zijn er evenveel als de RTX 3090. Daarnaast zou de 3080 Ti over 20GB GDDR6x-geheugen beschikken. Het is niet duidelijk wanneer deze videokaart officieel wordt aangekondigd.

De geruchten komen van Twitter-gebruiker kopite7kimi, die eerder de correcte specificaties van de huidige RTX 3000-videokaarten publiceerde, voordat deze officieel werden aangekondigd. Volgens de Twitteraar krijgt de RTX 3080 Ti een GA102-250-gpu met 10.496 CUDA-cores; dezelfde hoeveelheid als in de RTX 3090. Over kloksnelheden wordt nog niet gerept.

Nvidia zou onderscheid maken tussen de RTX 3090 en RTX 3080 Ti met de geheugenopstelling. De RTX 3080 Ti zou beschikken over 20GB GDDR6x-geheugen, terwijl de RTX 3090 24GB GDDR6x-geheugen heeft. De 3080 Ti zou daarnaast dezelfde geheugensnelheid als de RTX 3080 hebben. Die videokaart haalt een geheugensnelheid van 19Gbit/s en heeft een 320bit-geheugenbus. Het geheugen in de RTX 3090 heeft een 384bit-bus en haalt 19,5Gbit/s.

Nvidia GeForce RTX 3080 Founders Edition
De Nvidia RTX 3080 Founder's Edition

Ook ondersteuning voor NVLink, de opvolger van SLI, zou ontbreken in de RTX 3080 Ti. Momenteel is de RTX 3090 de enige RTX 3000-gpu die NVLink ondersteunt. Verder zou de total graphics power van de RTX 3080 Ti met 320W gelijk zijn aan die van de reguliere RTX 3080.

Het is nog niet duidelijk wanneer Nvidia deze RTX 3080 Ti zou aankondigen. Ook de adviesprijs is nog onbekend. Mogelijk wil Nvidia deze RTX 3080 Ti positioneren tegenover de Radeon RX 6900 XT van AMD, die 999 dollar kost en volgens de fabrikant vergelijkbaar presteert als de duurdere RTX 3090.

Nvidia lijkt verder enkele onaangekondigde RTX 3000-videokaarten te schrappen. Zo zou Nvidia in eerste instantie volgens geruchten met RTX 3080- en RTX 3070-videokaarten met respectievelijk 20GB en 16GB aan videogeheugen komen, maar de release van die sku's werd later naar verluidt geannuleerd. Onlangs ging er ook een gerucht rond over een vermeende RTX 3070 Ti met GA102-gpu, maar Nvidia zou deze inmiddels ook geschrapt hebben, zo meldt kopite7kimi.

Vermeende Nvidia RTX 30-line-up
Model RTX 3090 RTX 3080 Ti* RTX 3080 RTX 3070 Ti*
(mogelijk geschrapt)
RTX 3070 RTX 3060 Ti*
Gpu 8nm, GA102-300 8nm, GA102-250 8nm, GA102-200 8nm, GA102-150 8nm, GA104-300 8nm,
GA104-200
CUDA-cores 10496 10496 8704 7424 5888 4864
Boostsnelheid 1700MHz Nnb 1710MHz Nnb 1730MHz 1665MHz
Vram 24GB GDDR6X 20GB GDDR6X 10GB GDDR6X 10GB GDDR6X 8GB GDDR6 8GB GDDR6
Geheugensnelheid 19,5GBit/s 19Gbit/s 19Gbit/s Nnb 14Gbit/s 14Gbit/s
Geheugenbus 384bit 320bit(?) 320bit 320bit 256bit 256bit
Bandbreedte 936GB/s 760GB/s(?) 760GB/s Nnb 448GB/s 448GB/s
Tgp 350W 320W 320W Nnb 220W 180∼200W(?)
Releasedatum 24 september Nnb 17 september Nnb 29 oktober 2 december
Adviesprijs
(Founder's Edition)
1549 euro Nnb 719 euro Nnb 519 euro Nnb

* Op basis van onbevestigde geruchten

Door Daan van Monsjou

Nieuwsredacteur

04-11-2020 • 10:54

266

Lees meer

Reacties (266)

266
252
179
12
1
29
Wijzig sortering
Nvidia voelt de hete adem van AMD. Men verdubbelt voor de 3080 Ti gewoon het geheugen van 10GB naar 20GB.

Wat mij betreft een hele domme stap om de eerste kaarten met zo weinig geheugen te releasen, helemaal wanneer kort daarna geruchten optreden dat men kaarten gaat uitbrengen met meer geheugen. Dit maakt de kaarten veel minder toekomstbestendig dan men misschien zou willen. En ja geheugen zegt niet alles, maar als ik nu al kijk hoeveel geheugen bepaalde games nodig hebben van de GPU dan is 8Gb echt te weinig en voor de prijzen mag je een RTX 3070 niet meer een mid-range kaart noemen vindt ik.

Ben ook wel een beetje klaar met deze Nvidia geruchten, elke week zijn er meerdere nieuwsberichten hier op Tweakers die echt niets interessants toevoegen. Als Tweakers echt een techsite is met informatieve berichten dan neem eens contact op met Nvidia en doe een kort interview waarom het blijkbaar zo ingewikkeld is om überhaupt een voorraad te hebben van de aangekondigde kaarten en waarom men deze aangekondigd en uitgebracht heeft terwijl men nergens in de wereld kan leveren.
Als Tweakers echt een techsite is met informatieve berichten dan neem eens contact op met Nvidia en doe een kort interview waarom het blijkbaar zo ingewikkeld is om überhaupt een voorraad te hebben van de aangekondigde kaarten en waarom men deze aangekondigd en uitgebracht heeft terwijl men nergens in de wereld kan leveren.
Als Tweakers.net het voor elkaar zou boksen om een interview te hebben met Nvidia over de huidige voorraden e.d. zou ik dat heel erg knap vinden. Zeker m.b.t. de FE situatie. Deze tweet van Scan.co.uk vond ik best bijzonder namelijk. Het lijkt er op dat ook zij echt geen idee hebben hoe die voorraad situatie er bij hangt. Daarnaast is er door Nvidia destijds op hun eigen forum vermeld dat ze de 'coverage' per land in de EU zullen uitbreiden, maar dit is tot op heden enkel de UK, DE en FR geworden (correct me if I'm wrong). Helaas wordt hier ook totaal niets meer over gecommuniceerd.
Dat snap ik, maar Ik neem aan dat de redactie hier van Tweakers niet alleen bedoelt is voor het opkauwen van geruchten die zich ten ronde doen op het internet. De problemen omtrent Nvidia en de leverproblemen is natuurlijk een hot item. Ik begrijp dat men daar graag op in springt door allerlei berichten te posten over Nvidia en hun nieuwe reeks kaarten, maar ik hoef niet elke week drie of vier berichten op de FrontPage te lezen over geruchten. Wacht dan lekker tot Nvidia zelf de aankondiging doet.

Begrijp me niet verkeerd er staat duidelijk gerucht bij, maar Tweakers is toch geen site geworden waarbij we alle tech geruchten ook gaan posten? Ik heb het idee dat men dit puur doet, omdat het zo'n populair discussiepunt is.
Begrijp me niet verkeerd er staat duidelijk gerucht bij, maar Tweakers is toch geen site geworden waarbij we alle tech geruchten ook gaan posten? Ik heb het idee dat men dit puur doet, omdat het zo'n populair discussiepunt is.
Snap je punt, maar hoe vaak ik wel niet ergens een "gerucht" hoor waarvan ik wou dat Tweakers het ook gepost had met wat uitleg en duidelijkheid erbij

Dus persoonlijk vind ik het prima dat ze zulke geruchten posten, mits dat het duidelijk een gerucht is en het liefst ook wat extra nuttige informatie of meningen

[Reactie gewijzigd door Sinester op 25 juli 2024 21:33]

[...]
Misschien begrijp ik je reactie verkeerd, maar de berichten die ik in mijn bericht aanstipte betreffen geen geruchten. Het gaat over een tweet van een FE reseller uit de UK en een forum post van een Nvidia community manager op hun eigen forum.
Wat voor geruchten bedoel je dan precies? Want er zijn toch genoeg sites die zich voornamelijk concentreren op toch nieuws of geruchten.

Ik vindt het ook niet erg om zo nu en dan een gerucht te lezen, maar als men ziet hoeveel berichten over Nvidia er de afgelopen week voorbij komen, geruchten, nieuws en reviews dan vindt ik wel een keer goed geweest. Helemaal gezien men producten heeft gelanceerd die niet eens leverbaar zijn. 8)7
Dan kunnen mij geruchten over nieuwe kaarten eerlijk gezegd gestolen worden. In plaats van het bedrijf die er gewoon een grote rotzooi van heeft gemaakt in de schijnwerpers te zetten, goed of kwaad. Zie ik liever dat men het negeert en wacht op communicatie vanuit Nvidia zelf. Iets waar het toch erg aan schort.
Wat ik graag zou zien over geruchten, is dat ze niet klakkeloos overgenomen worden, maar dat er een klein onderzoekje wordt gedaan en ons verteld wordt hoe en wat en hoe betrouwbaar het ook is, eventueel met een mening van de schrijver erbij

Voorbeeld: de Benchmarks van de RX6800 vs RTX3070 met Raytracing in Tomb Raider
of nog voor de launch van de RX kaarten, de speculaties over stroom verbruik en snelheden
Begrijp me niet verkeerd er staat duidelijk gerucht bij tegenwoordig, maar Tweakers is toch geen site geworden waarbij we alle tech geruchten ook gaan posten?
Dat ben ik helemaal met je eens hoor!

Misschien begrijp ik je reactie verkeerd, maar de berichten die ik in mijn bericht aanstipte betreffen geen geruchten. Het gaat over een tweet van een FE reseller uit de UK en een forum post van een Nvidia community manager op hun eigen forum.
Wacht dan lekker tot Nvidia zelf de aankondiging doet.
Vandaar dat ik jouw suggestie m.b.t. een interview toejuich, want vanuit Nvidia is de communicatie naar mijn mening ronduit belabberd te noemen.
blijkbaar wel want het is wederom het artikel met de meeste reacties dus ook de beste inkomsten voor tweakers gezien het het interesantste ding is van vandaag met kom en schouders.
Nvidia voelt de hete adem van AMD. Men verdubbelt voor de 3080 Ti gewoon het geheugen van 10GB naar 20GB.
De kop van het artikel gaat erover dat ze dat juist niet alleen maar doen, maar dat ze ook 20% meer CUDA cores erin gooien.
Met 20GB VRAM word ie inderdaad heel interessant voor CUDA.
Voor games is 20GB flinke overkill. Ik begrijp daarom niet waarom er geen 3080 variant wordt uitgebracht met 12GB en 384bit geheugenbus. De hogere geheugenbandbreedte zal de performance goed doen, en 12GB lijkt me voor games een realistische hoeveelheid geheugen. Tegen de tijd dat we gaan gamen op 8K zullen er toch wel weer snellere GPUs nodig zijn.
https://www.techpowerup.c...-4k-and-ultra-hd-textures
Nu al 12 GB nodig volgens dit artikel, dus kan alleen maar meer worden. 12GB op de kaart is dan ook nog maar net aan. Nu is Godfall een AMD titel en AMD gebruikt GDDR6 ipv GDDR6x, maar we weten allemaal dat veel mensen nu alleen maar naar hoeveelheid geheugen kijken.
Dit lijkt toch echt wel eerder op inspelen van AMD op het feit dat zij hun kaarten toevallig 12 GB geven, en dat mensen heel erg geobsedeerd zijn door "oh wee, oh jee, ben ik wel future proof"?

Er wordt gretig gebruik gemaakt van het feit dat er op dit moment geen (praktische) manier is om te controleren hoeveel geheugen games nodig hebben voor de framerate inzakt -- mensen blijven wijzen naar de totale hoeveelheid die gepakt wordt als bewijs dat er meer bij moet, terwijl dat alleen maar zegt dat engines alles pakken wat beschikbaar is. Als je op je 3090 alle 24 GB in gebruik hebt laat dat ook niet zien dat er 32 nodig is...

Ik zou willen dat drivers met een begrenzer kwamen voor VRAM zodat we onafhankelijk konden testen hoeveel VRAM op dit moment praktisch nodig is (en in hoeverre dit nog varieert per merk/model, ook belangrijk nu AMD met een hele nieuwe cache komt voor de 6xxx serie), dan hebben we namelijk ook iets om te kunnen extrapoleren naar de toekomst (door oudere spellen erbij te pakken). Nu roept iedereen feitelijk maar wat en blijft het bij "groter nummertje is beter" (maar dan zonder dat ze kunnen onderbouwen hoe groot het nummertje dan precies moet zijn voor je "goed" zit). Het is fijn voor AMD dat ze daar garen bij kunnen spinnen, maar maakt het ook een stuk lastig er om een gewogen aankoop te doen. Ik ga geen kaart kopen op Godfall en "misschien zijn alle games in de toekomst wel Godfall", in ieder geval...

[Reactie gewijzigd door MneoreJ op 25 juli 2024 21:33]

Inderdaad, best doorzichtig of op zijn minst verdacht dat een "AMD" spel nu ineens in het nieuws komt met "12Gb VRAM nodig jongens!"...
De geheugenbandbreedte zal weinig uitmaken. Een 3080 geheugen overclock doet echt zo goed als niets, omdat de kaart niet naar brandbreedte ligt te happen. In die zin zou die bus geen performance winst opleveren en dan resteert alleen nog het totale geheugen en mensen willen nou eenmaal minimaal die 16GB van AMD zien.
Bekijk de DigitalFoundry video maar over WD Legion: met een 3090 en de game op 4K en RTX op max had de game meer dan 11GB memory nodig. Nu is dat niet 20GB, maar wel meer dan 10.

20GB is wellicht iewat veel, maar 16GB had beter geweest. Ik heb nu een 2080 en ga niet upgraden naar een 3080 met 10GB, en mensen die ik spreek met een 2080ti gaan dat ook niet doen vanwege minder memory. Een 3080 met wat meer geheugen is IMHO zeer interessant voor de advanced gamer die bv ook high-res screenshots maakt (zoals ik).

Voor de 1080p gamer wellicht niet, maar face it, voor die gamer is een 1080ti nog genoeg en is de gehele 30x0 serie overbodig
ik speel op 1080p en mijn gtx 1060 6gb is meer dan genoeg alleen in zware online shooters mis ik soms wel wat frames. Maar GTA, csgo, rainbow six etc allemaal fijn te spelen.
Nu moet ik zeggen dat ik het persoonlijk maar een rot steek vind die NVidia hier uithaalt mocht dit blijken te kloppen. Ik bedoel mensen die al die tijd in de veronderstelling zijn gehouden dat er geen RTX-3080 ti zal komen, en zich om die reden wellicht voor veel geld een RTX-3090 hebben aangeschaft en dan krijg je een paar weken later dit, voor hoogst waarschijnlijk heel wat minden centjes. Dus dit komt op mij persoonlijk over dat ze die mensen die zoals hierboven vermeld om die reden een RTX-3090 hebben aangeschaft nu zo'n beetje volledig teniet worden gedaan mocht dit blijken te kloppen, beetje jammer NVidia mocht dit inderdaad blijken te kloppen.

Maar goed, wie ben ik... :/

[Reactie gewijzigd door SSDtje op 25 juli 2024 21:33]

Er is de afgelopen generaties altijd een Ti uitgekomen van de launch modellen, wat geeft je het idee dat dit nu anders zal zijn?
"Er is de afgelopen generaties altijd een Ti uitgekomen van de launch modellen"

En dat klopt natuurlijk, maar hier waren of in elk geval werden een heleboel mensen in de veronderstelling gehouden dat het ditmaal anders zou gaan lopen, mede aangezien er ditmaal niet alleen een XX80 exemplaar gelanceerd werd, maar ook een XX90 model te "krijgen" was, en dat was voor zover mij bekent nog nooit eerder gebeurt.

Maar goed, het kan raar lopen laten we maar zeggen, zo zien we maar weer eens ;)
De 90 is inderdaad iets dat we al een tijd niet meer gezien hebben, maar de algemene trend by hardware bouwers om na een tijdje met een geoptimaliseerde upgrade te komen is toch wel vrij normaal tegenwoordig naar mijn mening.
En als uit neutrale tests blijkt dat de nieuwe Radeons gelijk of beter zijn dan lijkt het mij heel logisch dat Nvidia met een Ti gaat komen, ongeacht wat er vooral geroepen werd
Dit is toch altijd zo bij PC hardware, je weet dat die outdated wordt binnen een paar maanden.

Overigens, het lag volledig binnen de verwachtingen dat Nvidia zou reageren op de nieuwe videokaarten van AMD, en dat AMD met nieuwe videokaarten zou komen eind 2020 staat al zeer lang vast. Wie nu meer dan €1500 gespendeerd heeft aan een RTX 3090 had zich daarover kunnen informeren.

Het was natuurlijk niet zeker dat AMD met concurrentiële kaarten zou komen, en in dat geval zou er voor Nvidia weinig veranderen, maar het ziet er nu naar uit dat AMD wel concurrentieel zal zijn, en dan is het toch logisch dat Nvidia reageert, als het nog videokaarten wilt verkopen.
"het lag volledig binnen de verwachtingen dat Nvidia zou reageren op de nieuwe videokaarten van AMD, en dat AMD met nieuwe videokaarten zou komen eind 2020 staat al zeer lang vast."

En daar heb je een goed punt, en had zelf dan ook al wel zo'n vermoeden dat dit toch zou gaan gebeuren, mede door de berichtgeving die ik hier niet veel later al over tegen begon te komen wat de 3080 betreft, 20GB uitvoeringen waaronder deze: NVIDIA GeForce RTX 3080 20GB to launch in December? welke op 7 oktober al geplaatst werd op videocardz.com. Dus lanceren ze eerst de 3080 & 3090 waarvan al snel bleek dat er wel erg weinig in stock aanwezig bleken te zijn, en dan vervolgens na de lancering van kamp rood met dit aankomen, dat maakt op zijn minst duidelijk dat NVidia de launch van de 3080 & 3090 inderdaad heeft lopen pushen om zo team rood vervolgens dit (mocht het waarheid blijken) nog even voor te kunnen houden, en wellicht maakt dat mensen die er in eerste instantie een te pakken hebben weten te krijgen, die mensen zich nu iets wat opgelicht voelen nu er wellicht toch een ti met plots het dubbele aan video geheugen aan zit te komen en over meer Shader cores beschikken, mocht het prijs verschil niet te groot zijn. Maar goed, bij launches van nieuwe / een volgende generatie aan hardware is dit niet nieuw natuurlijk, grote merken die elkaar de pas af willen snijden ;)

[Reactie gewijzigd door SSDtje op 25 juli 2024 21:33]

Ik denk dat dit voor de kopers van een RTX 3090 helemaal niets uitmaakt. Die waren altijd al van plan het beste wat er te krijgen was te kopen; geld speelt daarin geen rol.
Precies, en deze kopers hebben zich goed in kunnen lezen over de performance die ze konden verwachten. Blijkbaar hadden ze het geld ervoor over.
Onzin, de 3080 kaarten zijn getest en je weet welke performance je krijgt voor dat geld. Wie die kaart heeft gekocht vond het blijkbaar het geld waard. Later piepen dat er een kaart uitkomt die meer geheugen heeft, beter performt, etc. is echt gekerm van de bovenste plank. Er komen altijd weer nieuwe modellen die beter performen, dat is zo oud als de weg naar Rome. Je ziet een product, je onderzoekt hoe dat product performt en op basis daarvan beslis je of je het geld er voor over hebt. Meer is het niet.

[Reactie gewijzigd door -Moondust- op 25 juli 2024 21:33]

Ach die mensen betalen gewoon de prijs omdat ze early adapters zijn... dat weet je van tevoren. Dan moet je maar niet zoveel geld uitgeven aan iets wat zo snel minder waard word als een videokaart..

Voor hetzelfde geld brengt amd een kaart uit die 50% sneller is voor de helft van de prijs.. over een maand.. dan kan je die 3090 aan de straatstenen niet meer kwijt.. en zo gaat het altijd door.

Plus als je de performance echt nodig hebt maakt het je niks uit dat je 200 euro verlies hebt, je hebt dan wel een maand lang een kaart/performance gehad waar je anders op had moeten wachten.. En als je er toch niks mee kan dan is het sowieso nutteloos.. Ik heb bv geen 4k 120hz scherm.. en als ik dat had dan speel ik nog te weinig games om een kaart van 1000 euro te verantwoorden..
Dat weet ik, maar ik had zelf nooit verwacht dat men gewoon het geheugen zou verdubbelen helemaal niet gezien het gddr6x is en niet gddr6 wat ruim voorradig is.

Ten op zichten van de 2080 vs 2080Ti was dit van 8GB naar 11GB.
Dat weet ik, maar ik had zelf nooit verwacht dat men gewoon het geheugen zou verdubbelen helemaal niet gezien het gddr6x is en niet gddr6 wat ruim voorradig is.

Ten op zichten van de 2080 vs 2080Ti was dit van 8GB naar 11GB.
Het aantal chips moet gelijk blijven anders moet je het ontwerp volledig op de schop gooien. Je kunt niet zomaar twee extra chips plaatsen, je moet ze ook met volle bandbreedte kunnen aanspreken. Daardoor krijg je geruchten over x2, dat is immers op korte termijn haalbaar.

[Reactie gewijzigd door sdk1985 op 25 juli 2024 21:33]

Mwa... ‘haalbaar’... of ze hebben tekorten aan GPU’s of aan GDDR6X of aan beide. Hoe dan ook, als er nu al vanille 3080 tekorten zijn dan zal de 3080Ti niet opeens in de winkel liggen denk ik, niet zonder de mainstream
Moneymaker nog schaarser te maken.

Hopelijk kunnen ze TSMC nog strikken voor een batch. Of komt die 3080Ti al bij TSMC vandaan...
Wow wat weet ik beter dan? Dit zijn ook maar geruchten..

Als je graag alle speculaties of geruchten wilt lezen omtrent Nvidia en hun kaarten ga dan lekker op social media. Daar roept iedereen wat en weet iedereen alles beter. Ik zit daar zelf niet op, omdat ik ook niet zit te wachten op dit soort speculatie. Maar ik kijk hier niet op Tweakers om elke dag nieuwe geruchten te lezen die men op social media of andere sites die daar op gericht zijn post.

Daarbij leg ik het toch uit waarom ik het zelf nooit verwacht had en zeg ik niet waarom het niet zo kan zijn. Lezen is ook een vak.

[Reactie gewijzigd door Andyk125 op 25 juli 2024 21:33]

Daar roept iedereen wat en weet iedereen alles beter. Ik zit daar zelf niet op, omdat ik ook niet zit te wachten op dit soort speculatie. Maar ik kijk hier niet op Tweakers om elke dag nieuwe geruchten te lezen die men op social media of andere sites die daar op gericht zijn post
Ik snap wat je bedoelt maar berijp wel dat er naast "riool speculaties" ook "educatief speculaties" zijn. Je kunt niet alles over één kam scheren. En "educatief speculaties" waarbij zelf nagedacht en over gediscussieerd wordt hoort juist bij Tweakers thuis. Door educatief speculatie discussies leren we juiste veel van elkaar. En met nieuwe inzichten kun je weer met anderen delen.
Je noemt het meer, maar dat is naamtechnisch zo. Aangezien het meer een 3090 is, met minder hoge specificaties. Net als de 3060Ti, een 3070 is met minder hoge specificaties.
Een 20GB 3080 versie stond echter al een behoorlijke tijd de planning, bleek uit de gelekte charts. Dus of het nu met AMD te maken heeft. Ze hebben blijkbaar nu eenmaal de luxe om zich dit te veroorloven. Tevens kan je je afvragen of 20GB (en 16GB) geen gigantische overkill is. Beide partijen lijken vooral in te spelen op de ‘angst’ om te weinig werkgeheugen te hebben. Datzelfde hebben we ook op de smartphone markt gezien. En Apple doet het ook al jaren zo.
Zoals in een van mijn bovenstaande posts ook staat hebben ze de rtx 2080 8Gb gegeven en de 2080 TI 11GB. Wat hetzelfde was als bij de 1xxx serie. Ik vindt het zelf wel een hele grote sprong om dan van 10gb voor de 3080 naar 20Gb te gaan voor de 3080 Ti. Helemaal gezien het ook nog gddr6x geheugen is waar men blijkbaar toch moeilijkheden heeft met voorraden.

Of het overkill is of niet is in die price range ook veel minder interessant, mensen zullen niet alleen gaan gamen met zulke kaarten. Hetzelfde geldt voor de RTX3090, deze kaarten koop je niet voor de beste prijs/performance, maar puur om de snelste kaart te hebben.

Maar het zijn geruchten, dus het kan best minder zijn. Ook denk ik dat Nvidia wel wat anders aan hun hooft heeft dan nieuwe kaarten op de markt brengen, gezien ze de bestaande niet eens kunnen leveren.
Mijn idee is dat ze eerst van plan waren de 3080 te verkopen met 20gb geheugen, maar het ontwerp toch aangepast hebben naar de gpu chip van de 3090. Dus last minute de gpu chip gewijzigd op de al geplande 20gb 3080 zoals gesuggereerd werd. Vast ook met de kleinere koeler zoals de 3080, het tdp zou gelijk zijn.
Voor kaarten van deze tijd is 16GB een goede standaard, geen overkill. 8GB vind ik eigenlijk niet meer kunnen voor de 3070.
Als Tweakers echt een techsite is met informatieve berichten dan neem eens contact op met Nvidia en doe een kort interview waarom het blijkbaar zo ingewikkeld is om überhaupt een voorraad te hebben van de aangekondigde kaarten en waarom men deze aangekondigd en uitgebracht heeft terwijl men nergens in de wereld kan leveren.
Je verwacht toch niet serieus dat hier zinnige antwoorden uit zouden komen, als Nvidia überhaupt al in zou gaan op het verzoek van een interview met Tweakers over dit onderwerp? Bedrijven geven bij vragen over dit soort gevoelige onderwerpen altijd de standaard reacties (we are committed to blabla, we love gaming/gamers, kijk eens hoe goed we het doen in titels X, Y en Z, we zijn zo populair en toch hebben we de vraag onderschat, yeah right).
Toch lees ik dat liever dan elk gerucht wat zich ten ronde doet op internet, want dat kun je met net zo veel zout nemen als die reacties die rechtstreeks van Nvidia komen. Daarbij is men journalist, men kan ook mensen benaderen die misschien dicht bij het vuur staan. Dit soort nieuwsberichten kan iedereen schrijven en vindt ik absoluut geen meerwaarde, laat staan dat we ze straks elke dag van de week hier op Tweakers zien verschijnen.
Iemand die 'dicht bij het vuur staat' binnen het bedrijf gaat hier geen uitspraken over doen, die loopt het risico zijn of haar baan te verliezen. Tenzij je daar hoog in de boom zit, dan is het lekken van info bewust gedaan om de reacties te peilen (zie bijvoorbeeld Moore's Law Is Dead die van AMD's Rick Bergman leaks kreeg). Je mag prima de mening hebben dat berichtgeving over geruchten niet in je straatje ligt maar ik blijf erbij dat 'echte' info heel snel saai zal worden, veel verder dan officiële PR ga je niet komen - zeker niet nu de concurrentie zo is opgelaaid.
Waarom moet het iemand binnen het bedrijf zijn dan? Het kan ook iemand zijn die bij een leverancier werkt, of iemand die bij een grote retailer werkt en informatie heeft gekregen vanuit Nvidia of hun AIB's. Als je ziet hoeveel mensen er bij te pas komen, vindt ik het knap dat er nog zo weinig te horen is over de echte oorzaak.

Waarom zou 'echte' info saai zijn dan? Ik neem aan dat je liever ook geen nepnieuws leest? Een gerucht is in principe ook gewoon nepnieuws, want er is niets officieel. Iedereen kan verzinnen wat de specificaties zullen worden voor een 3080 Ti, als deze waarden maar tussen de 3080 zitten en de 3090.
Waarom moet het iemand binnen het bedrijf zijn dan? Het kan ook iemand zijn die bij een leverancier werkt, of iemand die bij een grote retailer werkt en informatie heeft gekregen vanuit Nvidia of hun AIB's. Als je ziet hoeveel mensen er bij te pas komen, vind ik het knap dat er nog zo weinig te horen is over de echte oorzaak.
Je wilde toch geen geruchten meer? Dan moet je bij het bedrijf zelf zijn voor correcte info. Je kunt het uiteraard bij derde partijen proberen om first party informatie los te peuteren, maar de NDAs tegenwoordig zijn niet bepaald mals weet ik uit eigen ervaring, de boetes zijn gigantisch. Zeker als het om info voor extern gebruik (nieuwsberichten) gaat zal men erg terughoudend zijn.
Waarom zou 'echte' info saai zijn dan? Ik neem aan dat je liever ook geen nepnieuws leest? Een gerucht is in principe ook gewoon nepnieuws, want er is niets officieel. Iedereen kan verzinnen wat de specificaties zullen worden voor een 3080 Ti, als deze waarden maar tussen de 3080 zitten en de 3090.
OK dat was dan een aanname van mij, ik verwachtte namelijk dat je onder dergelijke berichten zou reageren dat het saaie kopieën van PR-berichten zijn, want dat krijg je in essentie dan. Een gerucht is trouwens geen nepnieuws want een gerucht kan prima correcte informatie bevatten terwijl nepnieuws opzettelijk misleidende en foutieve informatie bevat.
> Wat mij betreft een hele domme stap om de eerste kaarten met zo weinig geheugen te releasen, helemaal wanneer kort daarna geruchten optreden dat men kaarten gaat uitbrengen met meer geheugen

Op zich niet heel dom: ze hebben nu anderhalve maand aan verkochte kaarten (+ eventuele non-cancelable preorders) met maar de helft aan geheugen, dus hebben ze een flinke hoeveelheid geheugen die ze niet in hoeven te kopen, waardoor ze (potentieel) hogere marges kunnen draaien / minder uitgaves voor hoeven te doen.

Daarnaast is het op zich niet onverstandig om je betere configuraties op hand te houden totdat je weet wat je nodig hebt om een goed/redelijk weerwoord te hebben op de nieuwe apparatuur van de concurrent.
De domme stap is dat men nu al niet kan leveren en de concurrent misschien wel, in vergelijking met de hoeveelheid geheugen van AMD loopt men behoorlijk achter. Dit zal in de prestaties nu misschien niet zo heel veel uit maken, maar toekomstige games zullen ook meer geheugen nodig hebben. Dit maakt de kaarten van Nvidia een stuk minder interessant voor mensen die de kaarten voor de lange termijn kopen.

Anderhalve maand aan verkochte kaarten? Welke kaarten bedoel je exact, want na de release heeft geen webwinkel meer kaarten kunnen leveren. In ieder geval niet de RTX 3080.

Je hebt gelijk wat betreft configuraties, maar je wilt ook niet meteen de mensen die je kaarten direct kopen op de tenen trappen door een half jaar later een kaart uit te brengen die meer bang voor buck bieden.
Europa heeft wetgeving over het al dan niet kunnen intrekken van verkoop op afstand / voorverkoop / backorders, maar dat is voor zo ver ik weet niet overal het geval. Dus voor nVidia is voor die plekken weinig verschil tussen een consument die het product nu koopt als het op voorraad is t.o.v. als het niet op voorraad is, behalve wanneer het product bij de klant terecht komt.

En qua op de tenen trappen, is dat ook niet wat ze deden met de 20xx (Ti) (Super)? Mij komt het juist over als 'des nVidias' om mensen op de tenen te trappen met het uitbrengen van betere prijs/performance kaarten in de lineup enkele maanden na de release van de nieuwe generatie chip-architectuur.
Er staat wel tegenover dat de prijzen redelijk gelijk blijven, zelfs na de release van de nieuwe generatie. Zolang de nieuwe varianten ook duurder worden dan de standaard variant, vind ik het prima. In die zin, dat de nieuwe variant niet de oude vervangt kort na de release (ook qua prijs).

Wel vind ik het redelijk chaotisch, dat er ook Super varianten bijgekomen zijn. Naar mijn idee mag de naamgeving wel aangepast worden. Standaard, Ti en Super, waarvan onduidelijk is welke precies beter zou gaan zijn en waarom.
Je bent op de hoogte dat Vram nog niet veel gebruikt wordt in gamen ?
Dat AMD kaarten uitbrengt met veel Vram, zegt niets over serie van Nvidia.

Over de RTX3080Ti, dat wordt een geknepen 3090.
Je weet ook dat de volgende consoles gebruik maken van de RDNA2 architectuur van AMD? De nieuwe generatie games zullen hier veel meer gebruik van gaan maken. Veel game ontwikkelaars richten zich voornamelijk op de consoles, waarbij men komt met een PC port. Er zijn maar een handjevol ontwikkelaars die puur ontwikkelen op de pc versie, dus je kunt er van uit gaan dat men optimaal gebruik gaat maken van de RDNA2 architectuur in de toekomst.
De vorige generatie consoles zaten ook vol AMD hardware. Dat heeft er niet voor gezorgd dat de ene fabrikant waardeloos was en de andere altijd maar een best-buy oplossing te bieden had. Red Dead Redemption 2 op de pc is een mooi voorbeeld van hoe er geen 1:1 relatie hoeft te zijn tussen console en desktop performance.

AMD heeft met RDNA2 weer een goed stel kaarten weten te ontwerpen en wij als consument zullen daar de vruchten van plukken op veel vlakken, waaronder de allerbelangrijkste namelijk de prijzen, maar Nvidia is erg pro-actief in het benaderen van de grote studios. Dat gecombineerd met hun forse marktaandeel zal ze nou eenmaal veel blijven helpen, ook in een tijd waarin AMD leidend is voor de consoles.

Helaas zijn er ook gewoonweg veel mensen die ongeacht alles een Nvidia kaart zullen kopen. Neem bijvoorbeeld de Discord van Tweakers. Het merendeel zit nog altijd met tunnelvisie te kijken naar een Nvidia kaart, voornamelijk met drogredenen als 'drivers'. Zelf bezit ik een 3080 die ik voor de MSRP prijs heb kunnen bemachtigen op de dag van release. Ik ben dan ook niet minder tevreden met mijn 3080 na al het nieuws en de situatie die zich alweer 6 weken afspeelt, maar als ik geen kaart had kunnen bemachtigen dan zouden mijn ogen nu gericht zijn op AMD. Helaas is dat laatste niet het geval voor iedereen. Sterker nog, alles wijst erop dat een meerderheid Nvidia zal blijven kopen. Dat is overigens een voordeel voor de neutrale consument, want dat betekent dat de verhouding "vraag & aanbod" voor AMD producten beter zal zijn richting de consument en dat resulteert dus in minder prijsproblemen bij de winkels.

[Reactie gewijzigd door Paprika op 25 juli 2024 21:33]

Het klopt dat in de vorige generaties van de consoles veel AMD zit echter het grote verschil is dat de architectuur nu echt bijna 1 op 1 is en AMD nog meer betrokken is bij de ontwikkeling van de integratie van componenten kijk maar naar smart memory acces ik denk dat je onderschat hoe goed de kaarten mogelijk voor AMD geschud gaan worden.


https://www.youtube.com/watch?v=0MxCj4k1bu8 coreteks over AMD
Ik volg de ontwikkeling zelf al op de voet. Daar hoef ik geen YouTube click kanaal voor te bekijken :p.
Ah oke, dat wist ik niet maar vond het een interessante video. Maar ik denk dat AMD wel goed voor elkaar heeft waarom zouden anders Intel beginnen met GPU's te ontwikkelen en Nvidia ARM koopt. Iedereen wilt de integrale integratie van CPU-GPU.
Helaas zijn er ook gewoonweg veel mensen die ongeacht alles een Nvidia kaart zullen kopen. Neem bijvoorbeeld de Discord van Tweakers. Het merendeel zit nog altijd met tunnelvisie te kijken naar een Nvidia kaart, voornamelijk met drogredenen als 'drivers'.
Ik vind drivers een zeer belangrijk onderdeel van de aanschaf keuze. Vroeger was dat anders. Toen had ik onbeperkte tijd en vond ik het zelfs leuk om te troubleshooten. Lekker overclocken, overvolten, modden met de daarbij horende BSOD's en crashes. Tegenwoordig heb ik wat minder tijd en in die tijd wil ik een game op kunnen starten en zonder gezeur kunnen spelen. Dat is iets waar ik momenteel letterlijk het meeste waarde aan hecht. Ik snap heel goed dat dit niet voor iedereen op gaat maar hopelijk kan jij je ook voorstellen dat dit voor andere mensen wel op nummer 1 staat.

Bovenstaande betekent dat je moet leren leven met een aantal vuist regels. De eerste is dat je eigenlijk per definitie niet iets in de eerste 4 weken van een launch koopt. Door niet blind te kopen voorkom je geneuzel met hardware matige revisies (Intel 2xxx moederboard recall actie zelf helaas nog mogen mee maken!) en bugs die pas in het wild beginnen op te vallen. De tweede is dat je de nieuwste drivers minimaal 2 weken niet installeert. Het merk maakt daarbij verder niet uit.

Nvidia is de laatste tijd ook alles behalve feilloos. Zie o.a. de problemen met de stabiliteit van de 3080 kaarten en het verhaal over de aanpassingen aan de power delivery.

In het geval van Navi viel binnen twee weken op dat er rare problemen waren. Uiteindelijk heeft het 6 maanden geduurd voor AMD op reddit gamers opriep om hun problemen aan te dragen zie
https://old.reddit.com/r/...tion_regarding_potential/
https://www.reddit.com/r/...ey_response_for_navi_gpu/

Mijn ervaring van dit 10+ jaar in de gaten houden is dat in de regel Nvidia dit sneller oplost. Ter indicatie, een 5700XT had ik pas 10 maanden na launch kunnen kopen. De RTX 2xxx serie was voor mij 4 weken na launch geschikt. Maar hoe dat nu deze keer gaat verlopen staat echter nog helemaal open.

Op 18 november komen de eerste 6xxx kaarten uit en dan valt ongetwijfeld via reddit te bekijken hoeveel problemen er zijn. Nvidia kun je nu al bekijken, maar zou ik nu sowieso even niet bestellen aangezien er zo veel in de lucht hangt mbt de geheugen configuraties en eventuele ti varianten en eventuele prijs reactie op de launch van de AMD lineup.

[Reactie gewijzigd door sdk1985 op 25 juli 2024 21:33]

Grappig dat je de consoles aankaart, want de Xbox Series X gebruikt 10GB van zijn 16GB voor VRAM. De PS5 geeft developers meer vrijheid in het indelen van het geheugen, maar zal je rond een vergelijkbaar nummer uitkomen. Beiden consoles hebben een 4K resolutie target, en zijn naar mijns inziens een goede indicatie naar wat werkelijk VRAM geheugen verbruik is op GPUs.

Dat je in RivaTuner een xGB aan VRAM allocation ziet zegt niets over wat er daadwerkelijk wordt verbruikt.

Daarnaast zijn de nieuwe generatie consoles een sterke indicatie dat next gen games veel meel aan texture en asset streaming gaan doen. (Sampler Feedback en bijv. Nanite respectievelijk)

Zou Nvidia zichzelf echt zo in de voet schieten door "maar" 10GB in te zetten voor de 3080? Vooralsnog lijkt een 3080 sneller op hoge resoluties dan anderzijds minder snelle kaarten die meer VRAM hebben, klaarblijkelijk ligt hier dus niet een bottleneck.

Heb overigens geen sterke gevoelens voor team groen of team rood, maar probeer vooral misinformatie te doden. Ben zelf vooral blij met de hoge VRAM aantallen zodat met games als Cities Skylines en Planet Coaster makkelijker grotere projecten met meer individuele objecten kan renderen, maar dat is voor 99% van de usecases dus echt totaal niet nodig. VRAM is gewoon een makkelijk marketing punt.

[Reactie gewijzigd door 24hourpartypal op 25 juli 2024 21:33]

Daar heb je helemaal gelijk in, maar we vergelijken hier een console van €499,- met een grafische high-end kaart die alleen al 1,5x zo duur is. En dan kun je er in principe nog steeds niets mee, want op een pc ben je er niet met alleen een grafische kaart Als je het gaat vergelijken dan zal je in de range onder de RTX 3070 uitkomen, dus een RTX 3060 of 3060 ti, prijstechnisch gezien dan, performance gezien is het een ander verhaal omdat geheugen natuurlijk niet alles zegt.

Gezien de 3070 8GB geheugen heeft, ga ik er niet van uit dat Nvidia met een videokaart uitkomt die onder de 3070 gepositioneerd is en meer geheugen heeft dan 8GB.
De high-end kaarten vindt ik wat dat betreft qua geheugen niet interessant, 10GB voor een 3080 is niet spectaculair te noemen gezien we al twee generaties lang 11GB zien in de TI versies.

Ik heb ook geen sterke voorkeur voor een van de beiden en concurrentie zie ik alleen maar graag als consument. Het gene waar ik wel problemen mee heb is dat Tweakers dit alleen posts voor de views, omdat het een populaire topic is. En ja ik help er aan mee met mijn reacties nu, maar zolang men van Nvidia een product lanceert die nergens verkrijgbaar is en waarbij er op kort termijn geen oplossing zichtbaar is dan vindt ik niet dat men dit soort bedrijven met geruchten extra spotlight moet geven op een nieuwssite. Maar goed dat is mijn mening.
Daar heb je helemaal gelijk in, maar we vergelijken hier een console van €499,- met een grafische high-end kaart die alleen al 1,5x zo duur is. En dan kun je er in principe nog steeds niets mee, want op een pc ben je er niet met alleen een grafische kaart Als je het gaat vergelijken dan zal je in de range onder de RTX 3070 uitkomen, dus een RTX 3060 of 3060 ti, prijstechnisch gezien dan, performance gezien is het een ander verhaal omdat geheugen natuurlijk niet alles zegt.

Gezien de 3070 8GB geheugen heeft, ga ik er niet van uit dat Nvidia met een videokaart uitkomt die onder de 3070 gepositioneerd is en meer geheugen heeft dan 8GB.
De high-end kaarten vindt ik wat dat betreft qua geheugen niet interessant, 10GB voor een 3080 is niet spectaculair te noemen gezien we al twee generaties lang 11GB zien in de TI versies.

Ik heb ook geen sterke voorkeur voor een van de beiden en concurrentie zie ik alleen maar graag als consument. Het gene waar ik wel problemen mee heb is dat Tweakers dit alleen posts voor de views, omdat het een populaire topic is. En ja ik help er aan mee met mijn reacties nu, maar zolang men van Nvidia een product lanceert die nergens verkrijgbaar is en waarbij er op kort termijn geen oplossing zichtbaar is dan vindt ik niet dat men dit soort bedrijven met geruchten extra spotlight moet geven op een nieuwssite. Maar goed dat is mijn mening.
Ook hier schrijf je veel, maar zeg je niets.
11GB(GDDR6, 352-bit) van de RTX2080Ti, zegt werkelijk niets over de 10GB(GDDR6X, 320-bit)van RTX3080. RTX3080 is ook geen opvolger van de 2080Ti,maar presteert wel beter.(+- 18fps in RDR2 4K)
Ik zeg genoeg, dat jij er niets van wilt weten is een ander verhaal.

Daarbij zeg ik nergens dat de een beter is dan de ander of dat je gddr6x kunt vergelijken met gddr6. Het enige wat ik aangeef is dat de hoeveel geheugen die men in de nieuwe generatie heeft geplaats niet echt hoger is ter vergelijking met de vorige generaties.

Daarbij komt men met een gerucht dat het verhoogt wordt van 10GB naar 20GB voor een Ti versie. @sdk1985 heeft aangegeven dat dit komt doordat men waarschijnlijk het aantal chips gelijk wil houden, maar dan gaat men er van uit dat het board design hetzelfde is. Bij vorige generaties heeft men dat ook niet gedaan, daar is men ook van 8GB naar 11GB gegaan. Waarom nu wel?
. Bij vorige generaties heeft men dat ook niet gedaan, daar is men ook van 8GB naar 11GB gegaan. Waarom nu wel?
Anders dan de naam wellicht doet vermoeden is de 1080 Ti een andere chip dan de 1080. Tussen de lancering van de 1080 Ti 11GB en de 1080 zat dan ook bijna een volledig jaar.

Op de 1080 Ti heeft Nvidia één van de 12 memory controllers uitgeschakeld (die in de Titan wel is ingeschakeld). Zie https://images.anandtech....GTX1080TiBlockDiagram.png Er blijven er 11 over die blijkbaar chips van 1 GB per stuk aanspreken. Zo kom je op 11GB.

De gewone 1080 heeft 8 memory controllers: https://images.anandtech....0_Block_Diagram_FINAL.png

Wat je in theorie dus kan doen is geheugen modules van 2 GB plaatsen. Dan ga je bij dezelfde kaarten naar 16 en 22 GB. Wil je een kaart met wat meer geheugen en dus wat meer geheugen controllers dan ben je minstens 6 maanden verder.
Ik zeg genoeg, dat jij er niets van wilt weten is een ander verhaal.

Daarbij zeg ik nergens dat de een beter is dan de ander of dat je gddr6x kunt vergelijken met gddr6. Het enige wat ik aangeef is dat de hoeveel geheugen die men in de nieuwe generatie heeft geplaats niet echt hoger is ter vergelijking met de vorige generaties.

Daarbij komt men met een gerucht dat het verhoogt wordt van 10GB naar 20GB voor een Ti versie. @sdk1985 heeft aangegeven dat dit komt doordat men waarschijnlijk het aantal chips gelijk wil houden, maar dan gaat men er van uit dat het board design hetzelfde is. Bij vorige generaties heeft men dat ook niet gedaan, daar is men ook van 8GB naar 11GB gegaan. Waarom nu wel?
Waar was het gerucht dan dat een RTX3080Ti maar 10GB Vram zou krijgen ?
Maar je haalt zelf in je (top) bericht het aantal Vram aan tov AMD.
Nvidia RTX3090(24 GB, GDDR6X, 384-bit) is nu de high-end GPU tegen RTX2080Ti van de 2000 serie.
Misschien komt er zelfs nog een RTX3090Ti, wie zal het zeggen. Eerst maar eens afwachten wat er Überhaupt verkrijgbaar is. en Benckmarks bekijken.(GTX1080Ti was ook king met 11 GB, GDDR5X, 352-bit. weer anders, en minder presterend)
Op dit moment zijn de consoles idd een fantastische deal als het gaat om GPU paardenkracht voor je centen, maar dat doet niets af aan de hoeveelheid RAM die verbruikt wordt op een gegeven resolutie.

Ik probeer alleen op meerdere manieren duidelijk te maken dat VRAM minder belangrijk is dan je denkt. Je VRAM wordt vooral gebruikt om het volgende frame te tekenen en het huidige te laten zien. Real time renderen is vooral een dans tussen wat je inlaadt en wat je uitlaat, maar dan ben je er nog niet, want je moet die assets als nog renderen. Is het heel nuttig om een heel level per frame in te kunnen laden, of is een enkel frame met wat voor geladen zooi om de hoek genoeg?

Zeker ook omdat games gemaakt woorden voor de laagst genoemde deler, je zou namelijk kunnen argumenteren dat minder VRAM er voor zorgt dat developers worden teruggehouden door het lage VRAM en minder assets op 1 moment kunnen laten zien. Echter draaien 90% van alle systemen op een GTX1060 en zal de volgende laagst genoemde deler de series S zijn en niet een RTX 3060.

Ook bieden moderne streaming technieken developers veel meer mogelijkheden dan voorheen, maar ook hier zal je terug vallen op de laagst genoemde deler en daar zal ik met m'n SATA-II SSDtje niet aan meehelpen haha.

Ben het wel met je eens dat de geruchtenmolen te gek voor woorden is op dit moment. Maar daar doen wij allemaal aan mee: vandaar dat ik mijn punt maak, want al dit geneuzel gaat helemaal nergens over. Je reactie gaat precies nergens op mijn punten in en wakkert dit vuur alleen maar erger aan.

[Reactie gewijzigd door 24hourpartypal op 25 juli 2024 21:33]

Ik zeg ook nergens dat Vram EDIT: alleen maar interessant is, dat maakt @Hackus ervan. In mijn oorspronkelijke reactie praat ik helemaal niet over Vram, dit is iets waar Hackus in eens een punt van maakt.

Wat ik duidelijk wilde maken is dat omdat de consoles gebruik maken van de RDNA2 architectuur dat er meer games zullen komen die straks de mogelijkheid bieden om optimaal van die architectuur gebruik te maken.

[Reactie gewijzigd door Andyk125 op 25 juli 2024 21:33]

Ik zeg ook nergens dat Vram interessant is, dat maakt @Hackus ervan. In mijn oorspronkelijke reactie praat ik helemaal niet over Vram, dit is iets waar Hackus in eens een punt van maakt.
"De high-end kaarten vindt ik wat dat betreft qua geheugen niet interessant"

Misschien niet je oorspronkelijke reactie maar je geeft wel duidelijk je mening over VRAM.
Wat ik duidelijk wilde maken is dat omdat de consoles gebruik maken van de RDNA2 architectuur dat er meer games zullen komen die straks de mogelijkheid bieden om optimaal van die architectuur gebruik te maken.
Hoe, precies?

[Reactie gewijzigd door 24hourpartypal op 25 juli 2024 21:33]

[...]
"De high-end kaarten vindt ik wat dat betreft qua geheugen niet interessant"
Misschien niet je oorspronkelijke reactie maar je geeft wel duidelijk je mening over VRAM.
[...]
Hoe, precies?
Sorry dat was misschien te snel getypt, ik wilde zeggen dat VRAM niet alleen maar interessant is voor een GPU. Want dat betekend uiteindelijk niet dat een kaart per se sneller of langzamer is. terwijl Hackus doet alsof dit het enige is wat ik blijkbaar interessant vond.

Dit was mijn oorspronkelijke reactie:
Wat mij betreft een hele domme stap om de eerste kaarten met zo weinig geheugen te releasen, helemaal wanneer kort daarna geruchten optreden dat men kaarten gaat uitbrengen met meer geheugen. Dit maakt de kaarten veel minder toekomstbestendig dan men misschien zou willen. En ja geheugen zegt niet alles, maar als ik nu al kijk hoeveel geheugen bepaalde games nodig hebben van de GPU dan is 8Gb echt te weinig en voor de prijzen mag je een RTX 3070 niet meer een mid-range kaart noemen vindt ik.

Wat ik meer bedoel over RDNA2 is dat de consoles de laatste jaren er voor gezorgd hebben dat er niet heel veel vernieuwing was op game gebied. Wat misschien ook wel een van de redenen is dat ray tracing in zo'n weinig games te vinden is. Dit was gewoon niet interessant helemaal niet voor de consoles, want die konden dat nooit soepel weergeven. Veel ontwikkelaars richten zich op de consoles en maken een pc port of later een pc versie, er zijn maar een handjevol ontwikkelaars die zich in eerste instantie puur op pc gaming richten.
Er zijn nog weinig games die ray tracing ondersteunen, maar het is wel de toekomst. Ray tracing gebruikt veel meer Vram, vooral in combinatie met hogere resoluties. Dit is dus niet te vergelijken met de huidige games, zoals bepaalde mensen doen. Wil je een toekomst bestendige grafische kaart dan is 8Gb en misschien 10Gb niet erg veel.
Veel meer VRAM is misleidend, zo'n ~20% volgens Nvidia's RTX optimalisatie guide.
For DXR, Consider budget reported by QueryVideoMemory API as a soft hint. The actual segment size is ~20% larger.
Als je het dan hebt over pak 'm beet 6GB VRAM op 4k (wat veel is, VRAM verbruik is niet hetzelfde als allocation), dan heb je volgens Nvidia 7.2GB nodig voor Ray tracing. Niet een verdubbeling van je VRAM, oid. Ik ga er ook van uit dat het een worst case is, aangezien de bedoeling hier is om games vloeiend te laten draaien.

Control, het perfecte voorbeeld van een game die veel ray tracing features gebruikt, lijkt niet een VRAM bottleneck te hebben op een 3080. Het performance verschil met een 3090 is in lijn met de verwachting op basis van de CUDA cores en hun clockspeed. Nou speelt het zich in een steriel kantoor af, dus misschien niet een ideaal voorbeeld voor veel VRAM verbruik, maar Metro Exodus of Watch Dogs Legion, elk met wat meer grote open omgevingen lijken hier ook geen last van te hebben.

Opnieuw, zou Nvidia, predikant van real time ray tracing, bewust hun raytracing performance laten schieten om een paar euro's te besparen? Zeker als ze duidelijk bang zijn/waren voor AMD en wat zij met RDNA2 op tafel leggen. Want begrijp me niet verkeerd, als de benchmarks kloppen (ze gebruiken Rage OC bij henzelf, maar de Nvidia kaarten lijken geen vergelijkbare OC te hebben dus het is nog maar de vraag) ben je gek als je deze generatie een Nvdia kaart koopt, tenzij je voor 4k hoge framerates gaat dmv DLSS oid.

Ook geef je aan dat de consoles zo lang game ontwikkeling hebben tegen gehouden, en dat dit een indicatie is dat nu de consoles sneller zijn en bijv. ray tracing ondersteunen, er meer VRAM verbruikt gaat worden, maar spreekt dat jezelf niet juist tegen? Met dit argument belanden we weer bij de hoeveel VRAM die de Xbox Series X verbruikt namelijk. (10GB)

Het enige voorbeeld wat ik kan vinden waar VRAM op 4K een probleem is, is FS2020. Dit is echter wel een specifiek geval (zoals de grote projecten in Planet Coaster/Zoo en Cities Skylines) waar je op elk gegeven moment dus bizar veel assets moet inladen, en lijkt nog geen gebruik te maken van DirectStorage of Sampler Feedback om hier op een efficiënte manier mee om te gaan. Alleen als je 1 van deze vier games serieus speelt dan zou ik VRAM in overweging nemen. Misschien, weet niet of de tycoon games hun engines überhaupt met 16-24GB om kunnen gaan. FS2020 kan dit in ieder geval wel.

Ik zie niet in hoe een game van volgend jaar of de jaren daar op per se meer VRAM zou moeten verbruiken dan games dit jaar. Dit blijft redelijk stabiel tenzij we meer assets gaan renderen, maar vandaag de dag gaat het grootse rendering budget naar de belichting en niet naar de 3d modellen. En opnieuw heb je DirectStorage, Nanite en Sampler Feedback als voorbeelden hoe we dit met next gen games gaan doen, en niet met een grote bak aan VRAM.

Overigens is het ongelooflijk veel makkelijker dan ooit tevoren om games van de Xbox naar Windows te porten, zeker met alle toevoegingen aan DirectX 12U. Ik zeg dit om aan te geven dat mogelijke architectuur optimalisaties door de consoles nog een andere marketing wassen neus is. Je maakt het spel voor de API, die samen met de GPU driver je spel op de hardware laat draaien. Het ligt vooral aan AMD of Nvidia om er voor te zorgen dat dit optimaal gebeurt.

[Reactie gewijzigd door 24hourpartypal op 25 juli 2024 21:33]

Interessant dat je control erbij haalt, dat was juist een van de games die Ray tracing ondersteuning heeft en veel Vram gebruikt bij 4k en helemaal bij 8k, wat niet zo heel vreemd is en dat 8k überhaupt al interessant is. Maar ook met 4k was dit ook boven de 8GB.

https://www.tweaktown.com...uses-18gb-vram/index.html

Uiteindelijk zullen de eerste games die binnen een jaar uitkomen niet zo veel anders zijn dan de huidige. Maar nu er nieuwe consoles uitkomen zijn er wel meer mogelijkheden. De Xbox series X heeft dan wel een GPU met 10Gb aan geheugen, de complete console kost dan ook maar €499,-. Dat is wel even wat anders dan alleen een grafische kaart die 1,5-2x zo duur is.
Opnieuw, zou Nvidia, predikant van real time ray tracing, bewust hun raytracing performance laten schieten om een paar euro's te besparen? Zeker als ze duidelijk bang zijn/waren voor AMD en wat zij met RDNA2 op tafel leggen. Want begrijp me niet verkeerd, als de benchmarks kloppen (ze gebruiken Rage OC bij henzelf, maar de Nvidia kaarten lijken geen vergelijkbare OC te hebben dus het is nog maar de vraag) ben je gek als je deze generatie een Nvdia kaart koopt, tenzij je voor 4k hoge framerates gaat dmv DLSS oid.
Nvidia zei ook bij de vorige generatie (RTX 2xxx) dat het de grootste vernieuwing was op gebied van gaming. Ja het was best indrukwekkend om voor het eerst real time ray tracing te zien, maar zelfs met die high end kaarten was het nog maar net mogelijk om alles goed te laten draaien. En dan praten we over de high-end kaarten van grofweg €800,- en meer. Nou niet echt iets voor de massa.

Ik ben absoluut niet tegen Nvidia, maar toch ben ik wel van mening dat men weinig geheugen heeft gebruikt. Daarbij waren er meteen veel geruchten dat er kaarten zouden komen met meer geheugen. Uiteindelijk is het allemaal koffie dik kijken, maar ontwikkelingen op gebied van games staat niet stil. Niet alleen de ray tracing, hogere resolutie textures, maar ook AI en andere zaken zullen er voor zorgen dat de vraag naar geheugen alleen maar groter wordt. Men ontwikkeld een game om een grote afzetmarkt te hebben en niet alleen maar een die geschikt is voor mensen met dure grafische kaarten. Als de duurdere kaarten "maar" 8gb of 10gb aan geheugen hebben dan zullen de mid-range kaarten nog minder hebben.
Als men dan een grafische kaart moet kopen vanaf €600,- en men bied daar 8Gb geheugen voor zoals de RTX 3070, waar ik in mijn originele post ook over sprak dan vindt ik dit inderdaad matig. Helemaal gezien de meeste mensen deze kaart al te prijzig vinden. De RTX 3080 zal de komende jaren vast wel genoeg geheugen hebben, maar dan praat men over een kaart van grofweg €800,-

De reden om eventueel wel voor Nvidia te gaan als gamen je hoofd bezigheid is, zou wat mij betreft DLSS zijn, dit maakt resoluties een heel stuk minder interessant en dit zal ook ook een grote impact kunnen hebben op het geheugen gebruik. Misschien dat Nvidia daar wel meer toekomst in ziet en gekozen heeft voor wat minder geheugen.
Moet ik nou nog een keer uitleggen dat VRAM allocation en verbruik niet hetzelfde zijn? Tweaktown (niet meer de site die het ooit was) maakt ook niet duidelijk hoe zij aan hun data zijn gekomen en maken in hun artikel geen verschil tussen de twee. Ik ga er dan ook vanuit dat ze RivaTuner hebben gebruikt en niet een speciale debug functie die werkelijk het VRAM verbruik laat zien.

De 3080 is sneller in Control dan een RTX Titan, ondanks het vermeende gebrek aan VRAM. Dit zou niet het geval zijn als er een VRAM bottleneck is.

Daarnaast is die 18GB allocatie op 8K, wat een verschil van 25 miljoen pixels is tegenover 4K. Op 4K eist Control 8.1GB op volgens Tweaktown.

Games zouden idd complexer kunnen worden op het gebied van AI, gelukkig voor Nvidia leeft deze data in CPU RAM, omdat de GPU te druk bezig is met het calculeren van de render. Denk dat dit oude Nvidia marketing praat is van toen GPGPU het nieuwe buzzword in de industrie was.

De prijs van de Xbox heeft niets met de resolutie target van de hardware te maken. Men gaat simpelweg niet een 3060 of Navi22 (small RDNA2? Lol) GPU kopen om native 4K te renderen.

RTX 2000 series haalt trouwens prima frame rates op alles behalve 4K (hogere resolutie = proportioneel meer rays om te casten)

Ik ben verder wel klaar met deze discussie, het lijkt wel of je oogkleppen op hebt. Ik vertel het verhaal van alle kanten, geef voorbeelden waar VRAM wel belangrijk is, maar meneer denkt het allemaal beter te weten. Ik probeer duidelijk te maken dat de VRAM discussie enkel marketing praat is als het gaat om gaming.

Als de jaren ons 1 ding hebben geleerd, is dat de realiteit veel complexer is dan een simpele specsheet. In het geval van geheugen is meer misschien beter, maar maakt dit daadwerkelijk een verschil in games?

Uiteraard genoeg andere redenen om een GPU te kopen, voor bijv. OpenCL doeleinden. Helaas is hier CUDA nog heer en meester en is ROCm nog niet klaar voor primetime. Het werd wel eens tijd dat Nvidia hun gpu compute monopolie verloor, zeker omdat AMDs unified shaders aan doubles doen waar Nvidia dit enkel voor hun vroegere Tesla serie bewaard (Nu de x100 en x4 GPUs, ofwel de GPU serie zonder naam)

Sprekend over alle kanten, DLSS is misschien een plek waar het VRAM een bottleneck kan vormen. Hoe vet zou het zijn als je de 16K ground truth in je VRAM hebt zitten en zonder trainen kan upscalen?

Beetje zoals Google die bij de Assistant op de Pixel 4 het spraak verwerking model zo klein heeft weten te krijgen dat ze die gewoon lokaal kunnen draaien. Als de 3000 Ti kaarten met meer geheugen wel het vermeende DLSS3.0 ondersteunen dan sta ik als eerste met mijn fakkel en hooivork in Jensen Huang z'n keuken.

Evt zie ik hier een weg voor AMD met DirectML, maar heb echt geen idee hoe groot real time game upscale modellen zijn, en of 16GB daar genoeg voor is.

[Reactie gewijzigd door 24hourpartypal op 25 juli 2024 21:33]

EDIT: Dit moest 1 post zijn maar maakte er per ongeluk 2 van, kan me post niet verwijderen?

[Reactie gewijzigd door 24hourpartypal op 25 juli 2024 21:33]

rFactor 2 houdt ook van geheugen bijvoorbeeld. Als je daar het aantal VRAM gebruikt, dat het maximum is van de kaart, krijg je last van framedrops. Meer VRAM helpt erg goed in die zin.
@Luxicon Ik vond dit wel interessant, dus heb een poging gedaan om uit te zoeken hoe dit zit.

Ook omdat in principe VRAM geen swap heeft en bij een overbelasting van je VRAM zal de game crashen. Vond een paar threads op steam van mensen met low end graphics of iGPU die niet eens één of sommige tracks kunnen laden, dus de realiteit weerspiegelt dit gegeven.

Mensen met degelijke tot deftige systemen echter lijken vooral op problemen te stuiten bij de Nürburgring en soms Le Mans, en niet bij een kleinere track als Brands Hatch (ben een autosport/enduro fan (geen simracer, nog!) dus gelukkig is dit geen Chinees voor mij :+) zeker icm met veel auto's en dan vooral bij de eerste 2 laps.

Waar deze 2 gegeven op lijken te duiden is dat er een LoD/streaming issue is of dat ze daar überhaupt niet aan doen. Niet alleen na het stuiten op de vele threads over vermeende luiheid over een verscheiden aantal problemen die ik jou als fan niet hoef uit te leggen, maar ook omdat ze hun engine niet primair voor rFactor 2 bouwen en bij professionele simulatie toepassingen kan evt. stevige LoD niet wenselijk zijn. Geen idee eigenlijk, maar daarnaast hebben ze een klein development team, en dan moet je maar net de tijd hebben om zo iets ingewikkelds te implementeren.

Wat er dus gebeurd als je een super gedetailleerde laserscan van de Nordschleife inlaadt, met ook nog eens een stuk of 40 gedetailleerde auto's, dan zal je constant tussen RAM en VRAM moeten wisselen om elk frame te renderen.

Ik zag dat de map van de Nordschleife 3.2GB is, dus als je die volledig inlaadt zal je snel in de problemen komen. Nou hebben meer sims fps problemen met veel auto's bij de start, wat je vaak kan fixen door het aantal zichtbare auto's te verminderen, maar dat is bij rf2 niet het geval. Als je met een GTX970 niet eens op de Nordschleife lekker met 8 auto's kan rijden (volgens één van de gebruikers op het officiële s397 forum) dan kan dat echt wel sneller.

Sorry voor deze essay als je daar niet op zat te wachten! Probeer mezelf game development te leren en deze comments werken vrij educatief.

[Reactie gewijzigd door 24hourpartypal op 25 juli 2024 21:33]

Geen probleem, bedankt, juist leerzaam! Heeft Rivatuner eigenlijk een speciale debug functie, om het werkelijk aantal gebruikte VRAM in te kunnen zien?
Je weet ook dat de volgende consoles gebruik maken van de RDNA2 architectuur van AMD? De nieuwe generatie games zullen hier veel meer gebruik van gaan maken. Veel game ontwikkelaars richten zich voornamelijk op de consoles, waarbij men komt met een PC port. Er zijn maar een handjevol ontwikkelaars die puur ontwikkelen op de pc versie, dus je kunt er van uit gaan dat men optimaal gebruik gaat maken van de RDNA2 architectuur in de toekomst.
Wat heeft AMD architectuur met veel Vram te maken bij Nvidia ?
Dat zegt niets over de prestaties of dat Nvidia waardeloos is. Het mag ook wel eens dat AMD een zgn inhaalslag maakt qua GPU’s. tot nu was de 5700XT topklasse bij hen.
Er wordt tegenwoordig genoeg VRAM gevreten door games hoor, zeker in hogere resoluties, waar deze kaarten voor bedoeld zijn

En met zulke prijzen wil je ook niet dat je kaart over bijvoorbeeld een jaar al niet meer voldoen qua geheugen
Hoe weet jij hoe veel VRAM er daadwerkelijk word gebruikt?

[Reactie gewijzigd door 24hourpartypal op 25 juli 2024 21:33]

Of een kaart toekomstbestendig is zal Nvidia aan de reet roesten. De eerder die kaart niet meer voldoet de eerder je weer een nieuwe kaart haalt. Nvidia hield deze optie gewoon achter de hand voor het geval AMD hen in de benchmarks voorbij zou schieten. Nu heeft AMD toegehapt, en kan Nvidia alsnog aan de specs rommelen om die kaarten de concurrent af te laten troeven.
Het was voor de release van de nVidia en AMD kaarten al bekend dat nVidia, maar ook AMD, bezig was om te kijken welke specificaties hun kaarten moesten krijgen om zich tegenover AMD te positioneren. Dus dit gegoochel met specificaties is niet geheel onverwachts. Leuk is misschien anders voor sommige, ik kan mij er als niet-gamer niet druk om maken. :)

De geheugenconfiguraties van de nVidia kaarten is inderdaad een punt van discussie, daar heb ik(als niet gamer) ook mijn twijfels over. Maar waar ik de vorige keer ben opgewezen toen ik dat ook aankaartte aan de tweakersauteur bij de RTX 3070 FE review is dat games veel geheugen kunnen alloceren, maar dat het daadwerkelijke gebruik lager kan zijn.
De RTX 3070 zal in sommige gevallen voor 4K geschikt zijn, daar kan je inderdaadf vraagtekens plaatsen met 8GB, maar in andere gevallen zal de kaart gewoon voor 1440p geschikt zijn en daar zal 8GB zeker nog wel genoeg zijn.
Bij de RTX 3080 met 10GB zal het geheugen misschien eerder een probleem kunnen zijn, gezien die kaart zeker wel voor 4K gaming geschikt is en dus veel meer geheugen kan gebruiken door de hogere resolutie.

Al met al, we weten het pas zeker als er kaarten met dubbel zoveel geheugen uitkomen om te kunnen vergelijken. En het hangt ook af hoe spellen zich ontwikkelen de komende 3-4? jaar om te kunnen stellen of het geheugen nou wel of niet genoeg was. :)
Ben ook wel een beetje klaar met deze Nvidia geruchten, elke week zijn er meerdere nieuwsberichten hier op Tweakers die echt niets interessants toevoegen.
Ik denk dat Tweakers naast .Geek en .Nieuws etc. ook gewoon een .Gerucht categorie aan moet maken. dan kun je direct zien of het artikel voor jou interessant is is.

Verder houd ik nog heel even de hand op de knip met de huidige ontwikkelingen in de markt. Nvidea maakt wat sprongen na de aankondiging. De Consument is uiteindelijk de winnaar van deze ontwikkelingen in de markt
Wat overwegingen:

- Veel 'reviewers" beschouwen dit als een "paper launch" van NVDIA
- Veel "reviewers" hadden ook moeite om bepaalde kaarten van NVDIA te bemachtigen voor testen.
- Nauwelijks voorraad.
- Ook wordt er een "nieuwe" kaart aangekondigd, dit gaat minstens weer een paar weken duren (dit HEEFT men niet "on the fly")
Is dat zo? Ik weet dat een handjevol games maar dan 8 GB Vram ALLOCEERT bij 4K max settings, maar ik ben niet bekend met games die dat ook daadwerkelijk gebruiken.
Kun je me in de juiste richting wijzen?
Nee dat is niet de domste stap, wat je ziet het, de kaarten zijn onwijs gewild. De domste stap is het gebruik van Samsung 8nm ipv TSMC 7nm.
Nog een paperlaunch van nVidia. De miners staan al in de rij, de gamers met lege handen.
Wat moeten de miners met 10GB extra? Mining is een rekentaak.
Daar is dat ding nou net erg goed in, die 10GB is niet relevant.
Eigenlijk ben ik wel een beetje klaar met die 10GB is te weinig geruchten. Geen enkele game op 4k ultra trekt op dit moment 8GB vram vol als je enkel gamed. Daarnaast is 10Gb op een 3080 niet slechts "2 GB meer" dan op een 2080.

Kijk daarnaast ook even naar NVcache en Tensor Memory Compression. "De aanwezige tensor-cores worden gebruikt om data te comprimeren en decomprimeren, wat het gebruik van videogeheugen tot wel 40% kan doen afnemen."

Het is niet even simpelweg naar het aantal GB kijken en daar conclusies uithalen. 10Gb is ruim voldoende de komende jaren.
Als Tweakers echt een techsite is met informatieve berichten dan neem eens contact op met Nvidia en doe een kort interview waarom het blijkbaar zo ingewikkeld is om überhaupt een voorraad te hebben van de aangekondigde kaarten en waarom men deze aangekondigd en uitgebracht heeft terwijl men nergens in de wereld kan leveren.
Dit is een aanname van mij, maar van wat ik zo gelezen heb is dat men AMD gewoon perse voor wilde zijn. Die voorraad perikelen nemen ze dan maar voor lief. Prioriteit is alleen dat de aankondiging van de RDNA 2 kaarten ondergesneeuwd raken. Dat blijkt nu ook wel weer meet de constant aanhoudende geruchten over de 3000 serie.

*edit* Dit weet men bij tweakers waarschijnlijk ook wel en wanneer je die vraag dan gaat stellen zullen ze bij Nvidia dat toch niet toe gaan geven, of je krijgt gewoon geen interview.

[Reactie gewijzigd door Dunky555 op 25 juli 2024 21:33]

Inderdaad. Ik zie tegenwoordig soms meer dan 8GB geheugen op mijn 1080TI bij het gamen op 1440p in AAA titles. Ik wou graag de RTX3080 kopen, maar 10GB vind ik niet future proof. Zeker niet als ik naar 4K zou willen overstappen.
En ja geheugen zegt niet alles, maar als ik nu al kijk hoeveel geheugen bepaalde games nodig hebben van de GPU dan is 8Gb echt te weinig en voor de prijzen mag je een RTX 3070 niet meer een mid-range kaart noemen vindt ik.
Hoe meer geheugen je hebt des te meer het gebruikt wordt is tegenwoordig het motto. Nvidia komt in hun reviewers guide met het voorbeeld van The Division 2 die zowel de 8GB van de 2080 als de 11 GB van de 2080 Ti vol gooit maar met beide kaarten normaal functioneert. Voor de volledigheid; bij een tekort aan VRAM krijg je swapping en dus frame drops/stuttering.

Of 8 GB voldoende blijft de komende 2-3 jaar is koffie dik kijken. Er is nu een game die beweerd dat 12 GB nodig is. Of dat waar is weten we 12 november.
Volgens mij is het eerder dat ze de 3090 van 24GB naar 20GB gooien.

De 3090 verkopen komen wellicht zoveel onder druk te staan door concurrentie van 3080, 3080ti en RX 6900 XT dat de 3090 voor de huidige prijs voor de meeste mensen geen bestaansrecht meer heeft. Paar GB van de 3090 af en hij kan mooi net boven de prijs van RX 6900 XT gezet worden.
Ja? 4gb kost +- 400 euro? Die kaart kan natuurlijk al lang net boven de 6900 XT geplaatst worden, de 999 euro voor de 6900 XT is natuurlijk al van de pot gerukt en bestaat alleen maar omdat Nvidia van die idiote prijzen is gaan vragen. Gewoon helemaal stoppen met het kijken naar dit soort producten, want ze slaan nergens op.
4GB en wat kloksnelheid kost de consument inderdaad 400 euro. Daar mag je invidia voor bedanken.
Je kan ook gewoon feedback geven op het forum in plaats van zeiken in de comments.
Die domme stap heeft anders nog steeds veel mensen doen overhalen om een kaart te kopen. Wat een dom bedrijf. /s
Dus ik mag mijn mening niet geven op de Frontpage omdat dit niet met jou mening overeen komt? Gelukkig dat jou opmerking een echte waardevolle bedrage heeft.

Waar lees je trouwens dat ik het een dom bedrijf vindt? Ik zei dat ik het een domme stap vond van ze dat ze de kaarten uitgebracht hebben met zo weinig geheugen. Dat je het er niet mee eens bent is prima, maar lezen is blijkbaar erg ingewikkeld.

Waar zijn die kaarten dan te koop, want tot nu toe zijn er niet zo veel kaarten van verkocht.

[Reactie gewijzigd door Andyk125 op 25 juli 2024 21:33]

U mag zeker een mening geven. Wordt er alleen flauw van dat Tweakers word aangevallen terwijl een comment sectie nou niet echt de beste manier is om Tweakers te helpen verbeteren. Maak dan een topic dat ze een beetje onderzoek moeten doen van hoe en wat. Uw laatste alinea was niet nodig, maar ik deel uw mening van de rest. Want Nvidia maakt er een potje van zo en net als Intel gaat ook Nvidia dit voelen.
En in welke prijsrange dan. Hij zal waarschijnlijk +/- 5% qua prestaties liggen van de 3090. Veel meer zit er niet in. Wat zouden ze ervoor moeten vragen? 1000 - 1200 Euro? Leuk als je een 3090 hebt gekocht.
De 3090 is een gaming kaart. Het heeft niet de semi-pro drivers die de Titans hebben dus net als de andere gaming kaarten aardig beperkte inzetbaarheid op professioneel gebied.
De FE van de 3080 was 729 euro. De FE van de 6900XT is 999 dollar dus ga maar uit van 1000+ (import, belasting, etc.) euro. Dat scheelt al gauw 300 euro. Dat is niet dezelfde prijsrange

[Reactie gewijzigd door Jorissie87 op 25 juli 2024 21:33]

Ik was bij lange na niet de eerste die gereageerd heeft en kijk naar mijn andere post. Als mensen op mij reageren dan reageer ik ook vaak terug, omdat dat gewoon netjes is. Probleem is alleen dat wanneer je boven in de reacties staat, dat iedereen in een keer op je gaat reageren. Misschien moet ik me post aanpassen dat ik verder onderaan eindig.

Geruchten kun je overal lezen en dat wij van mening verschillen is toch prima. Maar daarom mag ik dat hier wel posten. Beetje jammer dat je dan meteen zo neerbuigend reageert of ik een of andere aandacht zoeker ben.
Is absoluut niet neerbuigend bedoeld, eerder dat ik het gewoon grappig vond dat iemand die zegt niet aan geruchten te willen die dan kennelijk wel leest en commentaar levert - ik vind een boel commentaar vaak tamelijk bot t.o.v. andere mensen. ik hoopte dat de smiley dat ook duidelijk maakte.
Antwoorden doe ik ook meestal, tenzij mensen echt grof worden, dus OK dat verklaart je aantal reacties.
Misschien dat het door de vele reacties kwam, maar bij mij kwam het wel zo over. Ik schrijf geen reacties, omdat ze misschien populair zijn of niet. Ik had ook nooit verwacht dat mijn reactie bovenaan zou komen te staan.

Maar na een week lang bijna elke dag wat van Nvidia te zien moest ik dat even kwijt, een bedrijf die er zo'n zooitje van maakt hoeft van mij niet elke keer op de frontpage te staan. Laat staan dat men dan ook nog coverage krijgt met "geruchten" die op social media geplaatst worden en dan hier worden geplaatst.

25-10-2020: https://tweakers.net/nieu...wordt-gepositioneerd.html
27-10-2020: https://tweakers.net/revi...estaties-voor-minder.html
27-10-2020: https://tweakers.net/nieu...i-verschijnen-online.html
1-11-2020: https://tweakers.net/nieu...t-op-17-november-uit.html
2-11-2020 https://tweakers.net/nieu...i-uit-tot-2-december.html

Daarbij zie ik van geen enkele ander bedrijf zoveel geruchten hier op Tweakers.
uit productie, best snel
Beste klant,

We hebben ASIN: B08HNXXXX - Titel: ASUS ROG Strix NVIDIA GeForce RTX 3090 OC Edition Gaming Grafische kaart (PCIe 4.0, 24 GB GDDR6X, HDMI 2.1, DisplayPort 1.4a, axiale ventilatoren, 2.9-slot, Super Alloy Power II, GPU Tweak II) geannuleerd uit je bestelling 406-8245225-XXXXXXX

Helaas kunnen we dit item niet langer te koop aanbieden. Onze leverancier heeft ons laten weten dat dit item uit productie is genomen en niet meer beschikbaar is. Het kan zijn dat het nog steeds beschikbaar is bij externe verkopers op Amazon. Marketplace, maar ik ben bang dat we geen voorraad van deze verkopers kunnen kopen.

Onze excuses voor het ongemak en we hopen je snel weer te zien.

Vriendelijke groeten,

Klantenservice
Amazon
Volgens mij heb je het voor 16** euro besteld toch? Om geen verlies te maken, annuleren ze order op een 'nette' manier.
Count your blessings, you dodged a bullet.
Voor de prijs van die 3090 kan je nu gewoon een 6900XT bestellen + een Ryzen 6000 serie + nieuw moederbord zodat je AMD Smart Access Memory kan gebruiken.
... of als je liever NVIDIA hebt, de 3080Ti. In tegenstelling tot de vorige ronde waar Ti eerder voor "total idiot" leek te staan, lijken het dit keer de "super" kaarten te worden met stuk voor stuk betere prijs/prestaties dan de hoger normale kaarten om tegen het AMD geweld aan te treden.
Nee, standaard mailtje van Amazon zodra ze geen zicht hebben op voorraad.

Dezelfde hadden ze een maand eerder gestuurd voor de 3080 Strix non-OC, en die is gewoon in productie. Anderen in de forums hebben het voor MSI of EVGA kaarten gehad. Zegt helemaal niets, buiten dat Amazon ze voorlopig niet kan leveren.
Correct me if I'm wrong:

De RTX3090 wordt gemaakt op de GA102-300.
De RTX3080 wordt gemaakt op de GA102-200 (Dus afgekeurde RTX3090 chips)
De RTX3070ti wordt gemaakt op de GA102-150 (Dus afgekeurde RTX3090 en 3080 chips)

De RTX3080 is nauwelijks leverbaar.
De RTX3080TI wordt dus ook gemaakt op afgekeurde RTX3090 chips, maar die nog wel beter zijn dan de RTX3080 chips. Kan me niet voorstellen dat de 3080TI dan fatsoenlijk leverbaar wordt, behalve dat 't alleen maar voor minder voorraad voor de 3080 zal zorgen.
Dat klopt, als de leveringen nu beperkt worden door slechte yields van de GA102 die. En dat lijkt mij een heel onwaarschijnlijk scenario, het is gewoon niet logisch.
Klinkt mij anders heel logisch in de oren, zeker als je de andere geruchten over de 8 nm van Samsung er ook bij pakt

Waarom is dit volgens jouw dan niet logisch?
Primair omdat het gewoon lang geen afdoende verklaring is. Stel je voor dat de yields een desastreuse 50% zijn. Dan zouden ze bij 100% yield, en als de leveringsproblemen compleet hierdoor komen, er twee keer zoveel uitleveren. Met twee keer zoveel 3080s zouden er nog steeds grotere leveringsproblemen zijn, de tekorten zijn veel groter dan een factor 2.

Vervolgens zouden dan geruchten over een 3080Ti nergens op slaan zoals je zelf al schreef. Het is het één of het ander, er kan niet op redelijke termijn een 3080Ti komen, als ze de 3080 al nauwelijks kunnen produceren door yields.

En als laatste, want nu als de yields maar 10% ofzo zijn? Ja dan zouden de leveringsproblemen wel door slechte yield zijn gekomen. Maar als de yield zo desastreus was geweest, dan waren ze begonnen met de 3070 en de 3070Ti, met beloftes voor de 3080 later (als ze betere yield hebben).

Wat betreft die geruchten over 8nm: We hebben zowel geruchten dat yields enorm slecht zijn, en dat Nvidia dat gebruikt om zijn partners te naaien, als geruchten dat yields enorm goed zijn, en dat Nvidia dat gebruikt om partners te naaien. Je zou bijna gaan denken dat die geruchten er vooral zijn om clicks en aandacht te krijgen ;). AMD gaat ook met een 6800 komen met behoorlijk wat uitgeschakelde CUs, moeten we ook concluderen nu dat de 7nm TSMC yields slecht zijn?
"Yield" is niet een enkel getal als je chips gaat binnen. De GA102 heeft dus een -300 yield, maar ook een -200 yield en een -150 yield. Ik snap je eerste punt evengoed - als je een GA102-250 bin introduceert, dan krijg je daarin chips die eerst in de GA102-200 bin vielen.

Wat ik niet helemaal snap is je punt over de 3070. De GA104 heeft ongeveer dezelfde yields als de GA102; het is hetzelfde proces. De oppervlakte is kleiner, dus er is wat minder variatie tussen chips, maar het kan niet zo zijn dat de GA104 zoveel beter is dat je alleen die op de markt brengt.
Mijn punt was niet om alleen een GA104 op de markt te brengen, de 3070Ti zou (aldus de geruchtenmolen) een GA102 chip zijn, met meet cores uitgeschakeld. Als je zo'n desastreuse yield zou hebben voor een 3080, kan je beter een 3070Ti als eerst introduceren die je wel voor minder verkoopt, maar wel veel betere yield heeft. Of op zijn minst tegelijk met de 3080 die direct introduceren, zodat je die gigantische aantallen GA102 chips nog kan verkopen ipv alleen op de plank kan neerleggen in de hoop dat je er in de toekomst nog wat mee kan doen.

Gezien dat dit allemaal niet is gebeurd, neem ik dus aan dat het wel mee zal vallen met die yields, en dat die zeker niet verantwoordelijk zijn voor slechte beschikbaarheid. (Ik vermoed dat dat primair komt door de geheimhouding, waarbij er geen voorraden zijn opgebouwd voor release, en de AIBs pas heel laat informatie kregen, en dus ook weinig tijd hadden om productie op te starten).
Uiteindelijk zijn de namen maar namen. Ze hadden de bin-grenzen ook wat naar beneden kunnen aanpassen, zodat het gat tussen de 3080 en de 3090 wat groter werd, maar er meer chips in de 3080 bin vielen. Dan konden ze alsnog bij betere yield er een 3080Ti tussenschuiven.

Het nadeel van die techniek is dat de 3080 benchmarks dan natuurlijk lager uitpakken; het voordeel is dat de prijs wat lager kan zijn.
Puur paniekvoetbal van Nvidia. Eerst de 3000 serie introduceren met feitelijk 2xxx Ti prestaties voor minder geld, wetende dat AMD er aan komt met Big Navi. Hoewel AMD zoverre niet on-par is met prestaties in het high-end segment, maar met de 2000-serie prijzen, prijzen ze zich uit de markt tov AMD. Dus volgt er een correctie met de 3000 serie. Klein probleem: ze kunnen nog niet leveren.

Vervolgens laat AMD ongeverifieerde benchmarks zien van Big Navi, waarbij ze feitelijk dezelfde prestaties leveren als de 3000 serie van Nvidia, maar met tot de helft van het geld en minder stroomverbruik. Paniek! Want Nvidia heeft met zijn contacten in de industrie echt wel een idee of en hoeveel AMD overdrijft. En dus is er nu 1 maand na de introductie van de 3000 serie en terwijl ze de leveringsproblemen nog niet eens opgelost hebben, al sprake van een Ti serie die normaal gesproken tussen een half en een heel jaar later komt waarbij feitelijk de prijzen serieus verlaagd worden. Dus een 3090 wordt een 3080Ti voor het geld van een 3080, enz.waarbij dus de prijzen en prestaties vergelijkbaar gaan worden als die van AMD (als de benchmarks van AMD kloppen).

Dit zijn dezelfde paniekerige kattensprongen die Intel op een gegeven moment heeft gemaakt na Zen 2. Voor AMD (en voor ons) hoop ik dat Nvidia nog even dezelfde fouten maakt als Intel maakte zodat ze helemaal bij kunnen komen en er echte concurrentie ontstaat op zowel prijs als prestaties als features.
Knap staaltje paniekvoetbal van Nvidia :X
Absoluut.

Kijk hier naar het vergelijk met AMD; (1440P Nvidea is helemaal nergens, 4K is stuivertje wisselen)
https://www.amd.com/en/gaming/graphics-gaming-benchmarks

NB: Ja ze (de cijfers) zijn van AMD zelf maar verwacht niet dat ze liegen omdat dat achteraf nogal duidelijk zou worden.
Toevallig enig idee hoe dit op gaat voor 1440P Ultrawide? Zit ik hiermee eigenlijk tussen 1440p en 4K in?
1440 UW zit +/- er tussen in, 4K is zo'n 3mil pixels meer, 1440p non-UW is zo'n 1,5mil pixels minder.
Ultrawide is meestal 1/3e zwaarder dan 1440p. Als je benchmarks vergelijkt kun je het beste zelf een balk tussen 1440p en 2160p schetsen. Dan zit je altijd goed.
Op één of andere manier is de helft van de consumenten alweer vergeten dat de benchmark cijfers van Nvidia ook flink van het WC-eend gehalte waren. Geldt volgens mij voor ieder bedrijf, je wilt jouw product onderscheiden van dat van de concurrent.
Elke zen launch waren de AMD benchmarks gewoon in lijn met de reviews.
en met de 5700xt was dat ook niet anders.

AMD is niet Nvidia, en AMD nu is niet het AMD van 5 jaar geleden, en AMD's GPU afdeling is niet die van 3 jaar geleden.
Dit is wel allemaal met SAM aan. Dus met een X570/B550 mobo en een Ryzen 5000 series CPU.

Als je dat niet hebt scoren de Radeon kaarten lager.
Alleen in forza 4 maakt het veel verschil tot nu toe.
@procyon Ik neem de AMD benchmarks met een korreltje zout (Wij van WC eend, adviseren WC eend).
Zelf wacht ik op de benchmarks af van derden zoals HW Info en Tweakers
Zonder raytracing....
Volgens "Hardware unboxed" heeft de nieuwe game "Watch dogs legion" op 1440P zonder RT al bijna 8GB videogeheugen nodig. Ze merken hierbij op dat RT activeren uiteraard meer geheugen vergt.

Ze vroegen zich hardop af hoe dat straks gaat met de 2021 titels op bijvoorbeeld de 3070 als je hoopt op 4K gaming en RT. Volgens hun is er dan grote kans op micro stuttering.

Dus idd zijn deze benchmarks zonder RT. Maar ze hebben wel allemaal voldoende VRAM :)
VRAM allocatie =/= VRAM gebruik.

Helaas is gebruik niet echt te meten. Tenzij je zo handig bent dat je bijv steeds een RAM stack uitschakeld en kijkt hoe je dat terugziet in frametimes/percentielen.
Jij hebt het over allocatie, ik heb het over noodzaak, "nodig hebben".
Als de noodzakelijke hoeveelheid niet kan worden geallokeerd in het vRAM wordt het elders geallokeerd.

Dit kost performance.

Ander voorbeeldje dan; Godfall heeft al 12GB nodig op hoogste settings, wanneer je dit kan allokeren in het vRAM is dat beter dan een allokatie deels in het systeemgeheugen. Je hebt dan betere performance.

Kijk eL_Jay; Dit noemen ze een bron:
https://videocardz.com/ne...textures-at-4k-resolution
Onzin de 8gig video geheugen word op dit moment in nog geen een game volledig gebruikt.
Dit is voor de komende jaren nog meer dan genoeg, vooral voor 1440p
Letterlijk in de link hierboven:
Godfall needs 12GB memory for 4K gameplay with UltraHD textures
It may also mean that the NVIDIA GeForce RTX 3080 graphics card, which only has 10GB of VRAM, will not be enough.

[Reactie gewijzigd door procyon op 25 juli 2024 21:33]

Jij bent hier vast nieuw? AMD heeft sinds 2011 tot aan de release van Ryzen altijd glashard gelogen pre-release. Voor GPU's zou het nu de eerste keer in lange tijd zijn dat de pre-release cijfers kloppen. Ik hoop het van ganzer harte. Maar de pre-release info van AMD is vaker WEL een leugen dan niet.
'Vast nieuw', dat is nogal uit de hoogte.
Maar laat ik de bal terugspelen; Als jij zo'n veteraan bent dan weet je ook dat zomaar iets beweren zonder bronvermelding een beetje Trumpiaans is.

Dus als het inderdaad zo is dat AMD structureel liegt in hun presentaties dan vraag ik je een bron aan te halen voor deze claim. En dan het liefst van een gerenomeerde bron, zoals Tweakers,
JayzTwoCents, Linus techtips, Gamers nexus, Hardware unboxed of AdoredTV.
Zoek maar eens naar pre release info vanuit AMD over bulldozer, radeon 7 en excavator daar was het het meest duidelijk.

offtopic:
LTT en T.net een legit bron, really? Steve van GamersNexus is een van de weinige echte tech onderzoeksjournalisten. LTT is een mix van tell sell, entertainment en dumbed-down-content, Jay-z is een mix van entertainment en standaard inhoud. Steve van GN heeft met bijv zijn onderzoek naar voltages bij moederborden echt topwerk geleverd. Zelfs TPU doet geen onderzoeksjournalistiek en levert louter standaardinhoud, ik kan oprecht geen kanaal noemen wat vergelijkbaar is met GN

[Reactie gewijzigd door eL_Jay op 25 juli 2024 21:33]

Serieus?? "Zoek maar eens......"?? Weer geen bron vermelden omdanks mijn verzoek dit wel te doen?

En dan offtopic gaan en gaan zemelen over wat jij een valide bron vind?
Ik kan je zeggen, jij bent in ieder geval geen valide bron. Ik zie slechts je meningen en geen feiten.

[Reactie gewijzigd door procyon op 25 juli 2024 21:33]

Offtopic: Heeft team groen misschien aandelen in Nivea?

Qua benchmarks zou ik het altijd alsnog afwachten. Ook omdat je te maken hebt met:
- Verschillende fabrikanten naast stock AMD
- Drivers. (ook vanuit het groene team
- Hardware die invloed op hebben.

En buiten benchmarks spelen ook andere aspecten.
Inderdaad, naast ingame performance zijn er nog genoeg redenen om voor een gpu te kiezen. Voornaamste reden waarom ik alsnog van groen > rood weer terug ga naar groen zijn encoders.

Man wat een slappe zak is dat met de 5700xt. Voor de rest prima kaartje sinds de drivers rigoreus zijn aangepakt vanaf launch > heden.

[Reactie gewijzigd door dindr op 25 juli 2024 21:33]

Ik wacht ook eerst benches af voor AV1 encoding. Elke generatie kan de kroon anders uitgedeeld zijn en voor encoding kan je de goedkoopste pakken zelfs iGPU. Mocht nV weer eens king zijn dan cheapest 3050 ofzo en Bignavi voor gamen.
Zeker, goede punt. Ik kijk dan ook met gerichte ogen naar de benchmarks zodra deze uitkomen. Eerder dat de 3080(ti) readily available is moet dit al redelijk bekend zijn.

Aan de andere kant, een 3050? En AMD voor gamen betekend wel een dual PC setup. Iets wat niet voor iedereen weggelegd is.
Zolang ze goede kaarten uitbrengen vind ik het prima, en anders koop ik er wel een van AMD
Men moet bijna wel. Men heeft bij Nvidia heus wel gezien hoe AMD Intel aan het inpakken is. Nu zijn er best wat verschillen tussen Nvidia en Intel qua bedrijfsvoering, maar ik denk dat Nvidia zeer op zijn hoede is voor de toekomst, wat AMD betreft. Ik denk dat oa de sterk gestegen performance van de 3000 serie er getuige van is. Of het genoeg is om beter te zijn dan RDNA2?
Laten we hopen van niet, concurrentie is goed voor ons consumenten.
Ondertussen bij Nivia, terwijl AMD met zijn 6series komt.

Nvidia kondigt 3060 Super, 3070 Super, 3080 Super, 3090 Super aan.
Oh we moeten er meer! Laten we toch die 20GB versies erbij gooien. Oh nog meer, laten we 22GB versies maken, OC+ Super Ti versie!

Maar belangrijker, laten we de fabrikanten vragen dat ze van elke kaart minimaal 3 modellen uitbrengen, de Quiet, OC, en Rockstable versie, dan hebben we straks een 3xxx lineup van 48 kaarten en staan we in elk nieuws bericht, niemand die meer iets leest over AMD.

Het is echt paniek daar bij Nvidia zeg :/
Helemaal mee eens.

Aan de andere kant, dit is nog nooit gebeurt met NVIDIA en dat maakt het indirect weer interessant. Zijn er fouten gemaakt? gaan er koppen rollen? Worden ze gedwongen toch weer terug te gaan naar TSMC? etc.

Ik ben voorlopig niet in de markt voor een nieuwe videokaart, maar toch is het "leuk" deze ronde om het te volgen, vooral omdat er ergens blijkbaar iets flink is misgegaan.
hopper gaat op 5nm bij TSMC volgens geruchten
Als Nvidia 6 verschillende manieren bedenkt om te concureren tegen AMD en al die opties serieus testen met resultaten of berichten die daar over naar buiten komen lijkt het al snel paniek.

Vooral aangezien het allemaal geruchten zijn zal ik niet te snel van paniek uitgaan maar vooral kijken naar wat daadwerkelijk op de markt komt (en vooral wanneer het eindelijk fatsoenlijk beschikbaar is).
Zoveel is zeker. De marketing afdeling draait daar overuren. Oh wacht, straks kunnen ze ARM niet meer overnemen door slechte verkopen van hun 3000 series kaarten. :)

[Reactie gewijzigd door Fredi op 25 juli 2024 21:33]

De supers zijn nog niet eens aangekondigd? En hoezo zijn Ti versies raar als de er al jaren zijn?
Verder vragen ze dat de fabrikanten niet, maar komen ze zelf met deze modellen.

Maargoed, laten we het AMD fan paniek noemen.

[Reactie gewijzigd door Nolimit89 op 25 juli 2024 21:33]

Ti versies zijn "raar" omdat het elkaar nu wel erg snel opvolgt.
Ik vind zijn post gegrond en ik vind het niets met "AMD fan paniek" te maken hebben.
En ik wordt ook een beetje moe van alle Nvidia geruchten hierzo.

[Reactie gewijzigd door HugoBoss1985 op 25 juli 2024 21:33]

We weten nog helemaal niet wanneer ze gelaunched worden omdat ze notabene nog niet eens aangekondigd zijn haha.
Ik doe niet mee aan dit soort vage conclusies die men trekt hoor.
Zijn verhaal over de supers kan je met een korreltje zout nemen... kom op, een beetje tussen de regels lezen!
Het lijkt me duidelijk dat hij expres aan het overdrijven is ("Quiet, OC, en Rockstable").

Je trekt zelf ook conclusies in je post ;)

[Reactie gewijzigd door HugoBoss1985 op 25 juli 2024 21:33]

"En hoezo zijn Ti versies raar als de er al jaren zijn"
Dat hij in zijn post zet (zegt/meent/stelt/etc) dat Ti versies raar zijn.

Ik wordt er persoonlijk niet zo moe van... ik wordt wel moe van alle geruchten over Nvidia kaarten.
Verder vind ik het juist heerlijk dat er goede concurrentie (twee kampen) is in videokaarten land.

[Reactie gewijzigd door HugoBoss1985 op 25 juli 2024 21:33]

Je gevoel van humor ligt niet echt ver van huidige voorraad van deze kaarten is het niet? Rond het 0 punt.
Man man man, wat kun jij van een mug een olifant maken. Het enige wat SinergyX doet is de draak steken met de vloedgolf aan geruchten en daarmee de versies van de 3000 serie die rondgaan.

Lach er toch een keer mee en lees gewoon verder joh. :)

[Reactie gewijzigd door Dunky555 op 25 juli 2024 21:33]

Schijnbaar is het benoemen van een aantal onwaarheden helemaal prima, zodra de ondertoon maar 'lollig' is. Want als ik er inhoudelijk op in ga maak ik van een mug een olifant.
Het ging mij om de conclusie die hij trekt uit zijn opsomming van inderdaad een vloedgolf aan geruchten.

Maargoed, schijnbaar heb je een bepaald soort humor nodig, want de grap ontging me volledig.

[Reactie gewijzigd door Nolimit89 op 25 juli 2024 21:33]

Je hebt het woord "fan" totaal uit je reactie verwijderd :S

"Maargoed, laten we het SinergyX paniek noemen."

[Reactie gewijzigd door HugoBoss1985 op 25 juli 2024 21:33]

Nouja, je kan het ook aangepast laten... men kan hier verderop toch lezen wat het origineel was :+

Ik ga het vieren met een snoepje en een hoedje.

Druktemaker?
Heb jij je eigen manier van reageren op anderen wel gelezen? (je bent bijna elke post aan het aanvallen op de man @SinergyX )
De pot verwijt de ketel dat die zwart ziet.

Voor nu mag jij het laatste woord, nog een fijne dag.

[Reactie gewijzigd door HugoBoss1985 op 25 juli 2024 21:33]

Mogen ze eerst wel eens wat dingen leveren... kreeg gister een melding dat m'n 3090 order die ik begin october geplaatst had gecancelled is... het is letterlijk onmogelijk om die dingen te krijgen.
Mag je eigenlijk best blij mee zijn aangezien de 3090 minstens 500 Euro te duur is (RX 6900XT) :P
Of je moet wel een hele grote fan zijn van Raytracing en daar 500 Euro extra voor over hebben.

Naar mijn mening heeft AMD met de RX 6900XT de Rtx 3090 in 1 klap gekilled.
Het enige waar de Rtx 3090 beter in is.......is raytracing.
En AI en 3D rendering. De 24GB memory is niet voor gaming maar voor de proconsument... maar daar staat tegen over dat de driver voor 3090 de optimisations van quadros missen
De optimizaties van quadro kaarten blijkt een fabeltje te zijn als ik kijk naar benchmarks van Gamers Nexus. Ze hebben een breed scala aan programmas getest en ik meen me te herinneren dat in 80% van de gebenchte programmas de performance van GTX/RTX kaarten gelijk was aan die van Quadro. Ik zou iedereen aanraden om na te gaan of je voor je workload echt quadro nodig hebt want tussen pro/echt niche is er veel verschil en kan je evt veel goedkoper uit de voeten komen.
Ik gebruik m'n kaarten niet om te gamen maar voor gpu rendering en simulatie en heb daarvoor cuda nodig. AMD is (helaas) dus geen optie voor me.
+1
Dat is inderdaad ook een rede om voor de 3090 te gaan.
Alleen klote dat je er zoveel extra voor moet betalen.

Want ik denk dat je het wel met me eens bent dat de 3090 belachelijk veel kost als je de kaart bv met een 3080 vergelijkt die ook cuda cores heeft. Wel wat minder, maar prijsverschil is echt veel te groot.

Maar ja, als je hem gebruikt voor bv werk dan kan het wel veel tijdwinst opleveren.
Ik denk dat het voor iedereen anders is of het dat wel waard is of niet.
Moet AMD natuurlijk wél kunnen leveren, de tijd gaat dat leren...
Dat is ook wat overdreven, er zijn al redelijk wat tweakers met RTX kaarten. Niet veel, dat is waar, maar "letterlijk onmogelijk" is niet waar.
Verkrijgbaar zomer 2021.
Uh-huh, en waarschijnlijk een gelimiteerde oplage van 100 kaarten bij launch! Maar goed, tegen de zomer van 2012 kunnen we misschien wel een normale RTX 3080 kopen ergens. Dat scheelt dan wel weer :-P
Toen had je moeten bestellen als je er nu 1 had willen ontvangen :)
Valt me nog mee dat er nog niemand over de 2012 is begonnen ;)
... tegen de zomer van 2012 ...
Heel scherp, kats verkeerd getypt haha! 8)7
It takes one to know one. 😁😉
Ach, in Tukkerlaand löpt wie gern veur't volk uut.
Ik heb me vorige week ingeschreven op EVGA voor een 3080 en kreeg gister bericht dat hij bezorgd kon worden. Dat er tekorten zijn lijkt me duidelijk, maar misschien wat overdreven.
Als ik nu bij Alternate kijk naar de 3080 kaarten staat er dat je een voorbestelling kunt doen, met levering in 2021.
Vervelend. Azerty had er wel enkele op 10 dagen meen ik.
Haha, sorry. Niet te serieus hé :P Ik had er even /s achter moeten zetten, neem het met een flinke korrel zout! ;)
Nou mooi mazzel dan. Ik sta sinds launchday 10 minuten na release nog steeds op plek 117 voor een Gaming trio 3080 en er zijn grofweg 30 - 40 kaarten verstuurd in bijna 2 maanden tijd en de que voor de gaming trio loopt bij Alternate uit tot over de 300. Ik heb er een hard hoofd in dat het voor februari is opgelost als het zo door gaat.
Dat is een sneer denk ik naar het gegeven dat de 3000 reeks alleen nog op papier gereleased is. Die kaarten zijn tot ver in 2021 niet in de winkels terug te vinden. Tegen de tijd dat je die kaart eindelijk in handen hebt, is de presentatie van de Ti versies al voorbij.
Ik denk zomaar een aanname als we kijken naar de 2000/3000 releases. Duurde aardig lang voordat je als jantje modaal aan de beurt kwam |:(
Laat eerst alles eens fatsoenlijk beschikbaar zijn, dit zijn geruchten over videokaarten waarvan de eerdere versies nog niet eens normaal te verkrijgen zijn laat staan dat de Ti versies te bemachtigen zijn. Raar om steeds maar weer nieuwe geruchten de lucht in te gooien doet ook niet veel goeds voor NVIDIA, je hoort denk ik weinig mensen die speciaal hierop gaan wachten nu. Daarnaast kan het ook zijn dat de early adaptors zich een beetje belazerd voelen dit zou wel erg snel zijn na de introductie om met nieuwere versies te komen.
Ja... maar de nieuwste kaart van NVIDIA te kopen zonder af te wachten wat het andere kamp presenteert is natuurlijk wel een risico nemen. De 3090 was altijd al veel te duur voor die paar % extra performance, na de aankondigingen van de 6900XT en nu de 3080Ti is dat wel pijnlijk duidelijk geworden en het wordt nog zuurder als NVIDIA nog eens besluit een 3090Ti uit brengen voor dezelfde prijs als de 3090 maar met betere performance, zodat zowel de absolute performance als de prijs/performance beter is...
Zo kan je aan de gang blijven.
Maar dit volgt elkaar inderdaad wel heel snel op, dus volledig mee eens.
2080ti eigenaren voelden zich na de release van de 3000 series ook behoorlijk belazerd, volgens mij.

[Reactie gewijzigd door HugoBoss1985 op 25 juli 2024 21:33]

Met alle respect, maar als je een 2080ti koopt en je belazerd voelt als er een 3080 op de markt komt is dat toch echt je eigen domme schuld.
Daar ben ik het helemaal mee eens!
Maar dat veranderd niets aan het feit dan men zich belazerd voelt. ;)

[Reactie gewijzigd door HugoBoss1985 op 25 juli 2024 21:33]

Ik heb op de verkeerde reactie gereageerd, mea culpa! O+

[Reactie gewijzigd door CH4OS op 25 juli 2024 21:33]

Volgens mij kan Nvidia net zo goed de architectuurnummers voor hun kaarten gaan gebruiken in plaats van de huidige benaming. Ik bedoel, wat is er minder duidelijk aan 'GeForce GA102-250' in plaats van 'GeForce 3080 ti'? Zeker omdat ik verwacht dat we over een jaar ook nog de 3080 Super krijgen die dan weer tussen de 3080 en 3080 ti wordt gepositioneerd.
Wat is dan niet precies duidelijk volgens jou?
Volgens de Twitteraar krijgt de RTX 3080 Ti een GA102-250-gpu met 10.496 CUDA-cores; dezelfde hoeveelheid als in de RTX 3090.
Die GA102-250 is gewoon de technische benaming voor de gpu. GA = Geforce Ampere. Daarvoor hadden we Turing met GT benaming(Geforce Turing), GP(Geforce Pascal, dat gaat al een hele tijd terug.
https://en.wikipedia.org/...graphics_processing_units
GA102-250 is toch minder duidelijk dan 3080 RTX? Of ben ik nou gek.
*intel enters the room*
Ik moest toch even lachen met deze opmerking :Y)

Op dit item kan niet meer gereageerd worden.