Gerucht: RTX 3090 Super krijgt 21Gbit/s-geheugen en tgp van 450W

Nvidia komt volgens geruchten nog dit jaar met een RTX 3090 Super. De videokaart zou sneller Gddr6x-geheugen krijgen, meer stroom verbruiken en over iets meer CUDA-cores beschikken dan het reguliere model.

Twitter-gebruiker Kopite7kimi noemt de details van een GA102-350A1-gpu. Die zou volgens de leaker misschien gebruikt worden voor een GeForce RTX 3090 Super, met 10.752 CUDA-cores, 21GBit/s-geheugen en een total graphics power van 450 watt. De Super-uitvoering zou geen NVLink hebben voor het koppelen van twee kaarten. Kopite7kimi staat bekend als een betrouwbare bron. Vorig jaar publiceerde hij de specificaties van de RTX 30-serie voordat die officieel bekend waren.

Het aantal van 10.752 CUDA-cores is marginaal hoger dan bij de RTX 3090, die er 10.496 heeft. Het verschil van 256 cores zal vermoedelijk niet veel uitmaken voor de prestaties, al zijn de kloksnelheden nog niet bekend. Het hogere verbruik kan duiden op hogere kloksnelheden, al is er ook meer stroom nodig voor het snellere geheugen.

Dat er RTX 30-kaarten komen met 21Gbit/s-geheugen werd vorig jaar al opgemerkt door Micron. De geheugenfabrikant noemde toen een RTX 3090 met een geheugensnelheid tussen 19 en 21GBit/s. De eerste versie van de RTX 3090 die Nvidia uitbracht, heeft Gddr6x met een snelheid van 19,5Gbit/s. Als er inderdaad een RTX 3090 Super komt met 21GBit/s-geheugen, dan neemt de geheugenbandbreedte toe tot 1008GB/s. Bij de RTX 3090 is dat 936GB/s.

Een andere Twitter-gebruiker, Greymon55, noemde eerder ook al de RTX 3090 Super met hetzelfde aantal cores, maar sprak over een verbruik van 400W. Het is nog niet duidelijk hoe betrouwbaar de informatie van deze gebruiker is.

Officieel heeft Nvidia nog niets bekendgemaakt over een GeForce RTX 3090 Super. Volgens geruchten komt die kaart nog ergens dit jaar uit. Het huidige topmodel van de RTX-serie verscheen in september vorig jaar. Het is de enige kaart van de RTX 30-lijn waar nog geen Ti- of Super-variant van bestaat.

Videokaart RTX 3090 Super* RTX 3090 RTX 3080 Ti
Gpu GA102-350A1 GA102-300 GA102-225
CUDA-cores 10.752 10.496 10.240
Boostsnelheid Nnb 1700MHz 1665MHz
Vram 24GB Gddr6x 24GB Gddr6x 12GB Gddr6x
Geheugensnelheid 21Gbit/s 19,5GBit/s 19Gbit/s
Geheugenbus 384bit 384bit 384bit
Bandbreedte 1008GB/s 936GB/s 912GB/s
Tgp 450W 350W 350W
Releasedatum Nnb 24 september 2020 2 juni 2021
Adviesprijs
(Founders Edition)
Nnb 1549 euro 1199 euro

* Specificaties volgens geruchten.

Nvidia GeForce RTX 3090 Founders Edition
Nvidia GeForce RTX 3090 Founders Edition

Door Julian Huijbregts

Nieuwsredacteur

26-08-2021 • 11:54

211

Reacties (211)

211
203
81
11
0
95
Wijzig sortering
Mooi zin in.....

Leverbaar voor een normaal bedrag in 2024 😜

[Reactie gewijzigd door EdvanAl op 23 juli 2024 16:13]

Wat een absurde prijzen.
Een Ferrari is ook (te) duur, daarom rijdt 99,9999% van de bevolking in een goedkopere auto.

Merken als nVidia en bijvoorbeeld Apple doen aan prijsdifferentiatie. Een mainstream aanbod dat (enigszins :) ) concurrerend is, en een High-End aanbod met een heel slechte prijs-/prestatie verhouding. Net als bij bijvoorbeeld auto's. Er klagen niet veel mensen dat BMW de M5 te duur heeft gemaakt. Iedereen begrijpt dat als je die auto niet kunt betalen je naar een ander model moet kijken.

De fout die nog flink wat consumenten maken is dat ze er vanuit gaan dat ze het duurste model nodig hebben om in hun behoefte te voorzien.
Nou kom maar op met een link naar een nieuwe generatie betaalbare videokaart (300euro) die ik morgen kan kopen.
En jij kan elke nieuwe auto ook kopen? Sommige budgetten(?) zijn er nou eenmaal niet voor het nieuwste model, of een ongebruikt exemplaar. Het kan zijn dat de prijs-prestatie die je tegenwoordig krijgt voor een 3 jaar oud model (nieuwkoop) beter is, dan 10 jaar geleden voor het nieuwste model. Dat betekent simpelweg dat de markt steeds hoger is gegaan, omdat rijkere mensen met vrije tijd ook meedoen, in plaats van 15-25 jaar-oude gamers.
Dat is nou juist het grote probleem, de prijs-performance is met de nieuwe generatie gpu's nauwlijks omhoog gegaan, waardoor er nauwlijks van progressie te spreken is in dat aspect. Daarom dat een 1080ti van 5 jaar oud ( die nieuw 700 euro koste) vandaag nog gewoon concurreert met kaarten die nieuw 600 euro kosten ( 6600xt). Dat is best schandalig te noemen, dat een kaart die 5 jaar geleden 700 euro koste nog kan concurreren met een kaart die vandaag de dag 600 euro kost, ik zeg niet dat die sneller is, maar ze ontlopen elkaar bitter weinig. Schande is het, wat een progressie.
MSRP van een 6600XT is 380eur je moet niet vergelijken met winkel of scalper prijzen omdat ze niet vol beschikbaar zijn....

voor 700eur heb je MSRP een 6800XT of 3080 best wel een serieuze upgrade van je 1080ti
Je kan wel naar MRSP kijken, maar dan moeten ze wel voor die prijs in de winkel liggen. Als je het niet heel erg vindt ga ik niet uit van theoretische prijzen als ik iets met niet-theoretische financiële middelen moet kopen.
Daarbij, TSMC en Samsung hebben de prijzen van hun chips als ruim verhoogd terwijl de OEMs al aan het klagen waren dat de MRSP's niet haalbaar waren. Dus vergeet die "adviesprijzen" maar heel snel.
Ik weet niet waarom, maar je kon gisteren en eergisteren op LDLC met gemak een FE kopen tegen MSRP prijs, maar aangezien ik geen nood had aan een nvidia TI kaart (waarvan mijn part MSRP/perf te hoog ligt en ik dus deze niet wil) heb ik deze laten gaan ik heb gisteren nog een 6800 gekocht aan MSRP...

kwestie van focus leggen op effectief iets te kunnen kopen.
Haha voor 700 eurp heb je de 3080 :+
Als we toch in de auto vergelijking blijven ja je hebt genoeg goedkope opties voor een nieuwe auto: bijvoorbeeld een Fiat Panda of Peugeot 108
Als we het dan toch over auto's gaan hebben die niet van hun plek te branden zijn. Ook videokaarten, zoals de HP Radeon HD 8350 of de MSI GeForce GT 710 1GD3H LP.

[Reactie gewijzigd door Archcry op 23 juli 2024 16:13]

Die zijn niet nieuw.
De Peugeot 108 ook niet, laatste "nieuwe" model komt uit 2014 (bron). Zo ook de Fiat Panda, daarvan komt het laatste nieuwe model uit 2012 (bron). Betekent niet dat je ze niet "nieuw" kan kopen van de dealer (of in het geval van de genoemde videokaarten van de webwinkel).
Doe dan maar een Hyundai I10 uit 2020.
Oké, als je persé die vergelijking wil maken dan kies ik voor de Gigabyte GV-N710D5-1GL. Maar je kan er natuurlijk zelf ook eentje kiezen uit dit lijstje. Let wel op; hoe verder je naar onderen gaat hoe duurder ze worden.
Inmiddels gebruikt zo'n videokaart al bijna meer energie dan een auto :?

700 Watt in een game-sessie van 8 uurtjes (kom je al gauw op :) ) is 5,6 kWh. Eén liter benzine bevat voor 8,9 kWh aan energie, dus zo'n sessie kost circa 2/3 liter benzine alleen aan de videokaart. Kom je met een i10 ook zo'n 15 km ver mee..
Misschien moet je de discussie lezen waar ik op reageerde voordat je dit soort reacties plaatst.
En jij kan elke nieuwe auto ook kopen?
Misschien niet elke, maar zeker een nieuwe auto (net als een nieuwe videokaart) moet toch wel kunnen.

Zelf teer ik nog rustig en vrolijk op mijn GTX 1080. Ik kan een nieuwe kopen (mits beschikbaar), maar de huidige prijzen zijn belachelijk. De ontwikkelingen gaan nu zo traag dat elke twee jaar een upgrade doen niet echt meer nodig is. In plaats daarvan heb ik een reservering geplaatst op een Steam Deck. Als ik niet in hogere kwaliteit ga spelen, dan speel ik wel wat meer onderweg. :P

[Reactie gewijzigd door The Zep Man op 23 juli 2024 16:13]

Dat segment is inmiddels ingehaald door iGPU's - NVidia kan gewoon niet tegen een Ryzen 7 5700G of i7-11700K op.
Kunnen ze heus wel, willen ze kennelijk niet.
en waar vind ik die igpu in mijn ryzen 3600. 3700,3800,3900 etc
Niet in de 3000 series, maar wel in de 4000 en 5000 series. Intel zit op 40-65% van de AMD iGPU. reviews: AMD Ryzen 5 5600G en Ryzen 7 5700G Review - Eindelijk moderne Ryzens...

Ik kon niet echt een goede review vinden tussen de vega iGPU en de langzaamste RTX, dus dan maar deze vergelijking: https://gpu.userbenchmark...0-iGPU/m1559532vsm1415260
daar heb ik weinig aan als ik een cpu zonder Igpu heb, er is dus wel degelijk een markt voor low end GPU kaarten,
Ah, nu volg ik je. En normaal zou je gewoon uit de vorige generatie(s) iets kopen, maar die zijn ook allemaal boven de €500. Dus gewoon iets dat op een RTX 3030 niveau zou liggen, AMD, Intel of Nvidia - iets voor €100-€200 heb je gewoon niet meer.
Enkel zijn de duurste kaarten dik 2x duurder geworden in een paar jaar tijd en is een nieuwe BMW M5 uit 2021 lang niet 2x duurder dan een nieuwe BMW M5 in 2017.
Omdat een BMW M5 uit 2021 niet twee keer zo snel is als een M5 uit 2017? Of je nu kijkt naar 0-100 of topsnelheid, het scheelt maar een paar procent.
Natuurlijk is een bmw uit 2021 niet 2x sneller........ Dat maakt zijn waarde ook helemaal niet...
" Let them eat cake! "
Maar als dus een Opel Golf qua prijs (zonder inflatie correctie) opeens gelijk komt met een Ferrari Mondena en de lonen zijn ook niet bijzonder veel gestegen, dan spreek je toch van absurde prijzen.
Vooral dit psychologische aspect speelt mee: https://en.wikipedia.org/wiki/Handicap_principle

Zahavian signaling. Al zijn er niet veel dames die van een videokaart opkijken, eerder van extravagante auto's, huizen en horloges vermoed ik; die zijn nog veel minder nuttig.
Probleem is alleen dat game makers er vanuit gaan dat de meerderheid een Ferrari of minimaal een BMW M5 heeft tenzij je (veel) concessies wilt doen aan resolutie, frame rate etc.
Afgezien dat er super deluxe modellen zijn qua producten is dat weer iets anders dan de prijsstijgingen die er plaats vinden. Vele normale producten zijn in de afgelopen jaren veel gestegen in prijs of zelfs verdubbeld of meer.

Dan zou je misschien denken dat de producten duurzamer gemaakt zijn oid alleen dat is veelal niet het geval. Slimme marketing naast een hoge vraag zorgt voor idiote prijzen.
Het gaat dan ook om kaarten die een normale consument eigenlijk niet zal kopen. De kaarten in dit artikel zijn vooral kaarten voor de echt enthousiastelingen. De doorsnee consument zal vooral voor de 3060 of 3070 gaan.
De "normale kaarten" kan je die dan wel voor 200-300 euro krijgen? 500-600 euro was nog niet lang geleden de prijs voor de enthousiasteling.
Manufacturer's suggested retail price (MSRP) van een RTX 3060 ligt inderdaad in lijn met jouw verwachting ($320). Voor de RTX 3070 betaal je wel wat meer ($499). Dit is natuurlijk wel MSRP en niet het bedrag waarvoor ze momenteel over de toonbank gaan. De huidige prijs heeft alles te maken met hoge vraag en laag aanbod waardoor de prijs logischerwijs hoger wordt.

Ik vergelijk in dit geval met MSRP omdat de prijzen genoemd in dit artikel en daarmee de prijzen waarvan jij zegt dat ze "absurd" zijn ook MSRP zijn.

[Reactie gewijzigd door Archcry op 23 juli 2024 16:13]

Helemaal voorbijgaand aan het feit dat de prijs voor high end vroeger rond de 500-600 euro lag en nu dus 3x zo hoog.
Misschien omdat er nu ook wel meer kaarten en sigmenten zijn? ;)

De GTX 780 kostte $500, ik denk dat die in hetzelfde sigment als de 3080 ($700 MSRP) valt. Dus ja, het is wel duurder geworden maar niet 3x zo hoog.

[Reactie gewijzigd door Archcry op 23 juli 2024 16:13]

verschil is dat die ook voor 500 te krijgen was en die 3080 voor 1500+, oftewel absurde prijzen.

[Reactie gewijzigd door Mirved op 23 juli 2024 16:13]

Die prijs van €1500+ ligt niet aan Nvidia, dat ligt aan de markt. Namelijk dat de tussen producent er meer aan kan/wil verdienen, de groothandel en de winkel. Inflatie alleen al is 11-12% sinds 2013.

En de introductie prijs was niet $500, die was €650, bron: reviews: Titaantje: Nvidia's GTX 780

€650+11%= €721,50

MSRP bij introductie van de RTX 3080 was €719, bron: reviews: Nvidia GeForce RTX 3080 - Maakt Nvidia de hoge verwachtingen waar?

Het grote verschil tussen toen en nu was minder vraag en groter aanbod, waardoor de straatprijzen toen juist lager ipv. hoger werden. Ze hadden toen ook geen crypto gekte, een corona crisis, etc. Zelfs als AMD/Nvidia meer zouden willen maken (wat ze niet willen, wat ze ook niet hebben gedaan bij de vorige crypto gekte) was er sinds de introductie gewoon geen capaciteit beschikbaar in chipmaker land.

De prijzen zijn zo hoog omdat menig medetweaker niet 1x een 3080 heeft aangeschaft, maar een veelvoud daarvan om crypto te minen ipv. te gamen. En je kan wel doen alsof je het ze kwalijk neemt, maar jij zegt ook niet je baan op omdat deze ervoor zorgt dat iemand anders geen baan heeft...

En ook toen waren er veel duurdere kaarten in mei 2012 was een GTX 690 ook gewoon €1000 en speciale edities daarvan waren nog veel duurder (inflatie sindsdien is 15%+).
In de vorige generatie was de 2080Ti was toch ook zo`n 1300-1400 euro afhankelijk van welk model je wou op retail? Ik weet nog dat ik zat te wachten op de 20xx series omdat ik de 10xx series had overgeslagen want mijn hard overclocked 970 deed het eigenlijk heel goed nog. En ik daarna enorm geschrokken was hoeveel duurder de RTX series opeens was t.o.z van de 10xx series.

Toen de 3080 uitkwam was dat flagship performance voor een veel beter prijsje (ik heb toevallig mijn MSI 10G voor 819 bemachtigd eind september vorig jaar) - uiteraard zijn de prijzen sindsdien door de pandemie hoger en hoger gegaan en ziijn we nu weer kwa MRSP iig terug bj af wat we bij de vorige generatie zaten. Echter is het maar de vraag of je tegenwoordig nog een kaart tegen MRSP kan krijgen.

[Reactie gewijzigd door lithiumangel op 23 juli 2024 16:13]

Ik zit ook nog met een GTX970, de 10xx overgeslagen ivm. de toen ook hogere prijzen en slechtere beschikbaarheid ivm. crypto gekte en de GTX970 werkte nog prima. Toen ik zag wat de prijs was van een 20xx en de luttele performance verbetering ten opzichte van de 10xx serie heb ik die ook overgeslagen. De MSRP prijs en performance van de 3080 vond ik perfect, heb deze alleen niet voor die prijs kunnen aanschaffen.
Ja oké maar dat is een ander verhaal en dat is ook niet waarop ik reageerde. Jij gaf aan de prijzen in het artikel absurd te vinden en dat zijn de manufacturer's suggested retail prices. Het is dan ook logisch om appels met appels te vergelijken en naar de MSRP's te kijken. Nu ga je eigenlijk appels met peren vergelijken door de daadwerkelijke prijs absurd te vinden.

Ik ben het met je eens, de daadwerkelijke prijzen zijn absurd en er zijn allerlei redenen waarom deze prijzen absurd zijn. Verandert echter niets aan het feit dat de MSRP's niet drie keer over de kop zijn gegaan in de afgelopen jaren.

[Reactie gewijzigd door Archcry op 23 juli 2024 16:13]

De 680 koste mij 450 euro nieuw voor een custom kaart en was destijds de dikste single-chip kaart. De 3080 is nieuw voor niet minder dan 1200 te vinden en is nu niet meer de dikste kaart, want er zit nu een 3080Ti tussen. (als we even doen alsof de 3090 de opvolger dan de 690 is)

[Reactie gewijzigd door damaus op 23 juli 2024 16:13]

Die 3080 koste ook nieuw 800, dat is wat ze nou de hele tijd proberen te zeggen. Als je appel waar ze over zeuren msrp is, moet je dat ook met de andere appel doen. Ik ken genoeg mensen die een 3080 of 3070 voor vraagprijs hebben gehaald. Dat erna de prijzen zijn gestegen zegt niks over de msrp van het nieuwe model, want zelf zeg je ook op het 680 model je 450 gekost heeft. En erna vergelijk je een prijs van een product wat totaal niet te vergelijken door de zelfgenoemde prijstijging. Dat is wat zoveel proberen aan te geven. Nogmaals dat betekend niet dat de prijzen van nu niet hoog zijn.
Ja maar we zijn de manufacturer's retail price aan het vergelijken in deze discussie niet de daadwerkelijke prijs van de GPU. Als we de daadwerkelijke prijs aan het vergelijken zouden zijn dan was dit wat mij betreft ook helemaal geen discussie geweest. De huidige daadwerkelijke prijzen zijn inderdaad ook absurd.
Prima:
MSRP voor 680 was $499
MSRP voor 3080Ti is $1199

Beide de dikste kaart onder de 90 reeks
Laten we dan ook even appels met appels vergelijken en het volgende doen:

MSRP voor 680 was $499
MSRP voor 3080 is $700

Als je de 3080Ti ergens mee wil vergelijken dan stel ik de volgende vergelijking voor:
MSRP voor 780Ti was $699
MSRP voor 3080Ti is $1199

(maargoed, als je de benchmarks bekijkt dan komt een 3080Ti eigenlijk veel meer in de buurt bij een 3090 dan een 3080 dus of die vergelijking helemaal eerlijk is weet ik niet)

Zoals ik al eerder aangaf; ja prijzen zijn omhoog gegaan maar niet drie keer over de kop zoals gesuggereerd werd.
ik deed ook appels met appels, de 680 was de dikste niet-90 kaart, de 3080ti is de dikste niet-90 kaart.
Dat ze vanaf de 700 reeks een extra TI erbij bedachten was al het begin van het einde.
Dat de Ti versie erbij gekomen is betekent nog niet dat je daarvoor moet kiezen. Ti was een uitbreiding van het assortiment en geen directe compatitor met de non-Ti versie van de vorige generatie. Kijk bijvoorbeeld naar de benchmarkt van de GTX 780 t.o.v. de GTX 680. Daar is duidelijk te zien dat de GTX 780 wel degelijk de opvolger van de GTX 680 was en niet een of ander bij verzinsel wat niet de moeite waard was. De GTX 780Ti daarnaast is gewoon een verbeterde GTX 780 en niet de opvolger van de GTX 680. Het is daarom ook niet logisch om de GTX 680 en de GTX 780 Ti (of de 3080 Ti) prijstechnisch met elkaar te vergelijken.
Dat de Ti versie erbij gekomen is betekent nog niet dat je daarvoor moet kiezen.
Dit vind ik een slecht argument, maar dat even terzijde.

Je hebt in dit geval gelijk, ik was de historie even kwijt. De 780ti was inderdaad later uitgebracht als goedkopere en snellere upgrade boven zelfs de Titan.

Het probleem zit hem erin dat ze sindsdien de Ti hebben misbruikt als excuus om de 80 minder speciaal te maken en de Ti als "goedkopere oplossing" van de titan / 90 te maken. Daarom zijn wat mij betreft de Ti's van nu de 80's van toen.

Verder staat mijn argument dat de 680 te vergelijken is met de 3080ti nog steeds. De 690 was toen de topkaart en de 3090 de topkaart van nu, 1 stap eronder staan dus de 680 en 3080ti.
Nou oké, de 680 vs 3080(Ti) even daargelaten dan; daar kunnen we van mening over verschillen.

laten we dan kijken naar de 690 (ik wist niet eens dat dit gekke ding bestond) vs 3090:
MSRP GTX 690 - $999
MSRP RTX 3090 - $1500

Ik zie hier nog steeds niet dat MSRP drie keer over de kop is gegaan sinds de 600 series zoals gesuggereerd werd.

[Reactie gewijzigd door Archcry op 23 juli 2024 16:13]

Daar heb je gelijk, maar het super-high-end heeft sowieso vrij weinig prijsverschil gezien, ook bij processoren, sterker nog, je kan kan nu een i9-10980xe kopen voor minder dan een core 2 extreme QX9770, 1050 vs 1200 respectievelijk. Ook is de 3090 goedkoper dan de Titan Z was, als we toch even losjes vergelijken. Oftewel het hoeft allemaal niet duurder te worden, dat hebben ze wel bewezen, maar toch betaal je nu 1500 euro voor de kaart die je een aantal jaar geleden voor 450 kon halen, naamgeving daargelaten.
Alleen zijn dat allemaal niet echt opvolgers van elkaar. Zelfs de 3080Ti past niet echt in het rijtje 780Ti/980Ti/1080Ti. Met Turing is er in principe een extra segment bij gekomen. Een segment boven de ‘oude’ Ti kaarten, en in principe zit de 90 series daar nóg eens boven. Als je kijkt naar het aantal shading units dan is er met Turing een enorme sprong gemaakt.

Ter vergelijking het streaming multiprocessor/shading units per generatie XX80 Ti:

780 Ti: 22,5 SM’s, 2880 (FP32)
980 Ti: 22 SM’s, 2816 (FP32)
1080 Ti: 28 SM’s, 3584 (FP32)
2080 Ti: 68 SM’s, 4352 (FP32) + 4352 (INT32)
3080 Ti: 80 SM’s, 5120 (FP32) + 5120 (FP32/INT32)

Zoals je ziet is er ineens véél meer op de chip geprikt sinds Turing. En dan laat ik de Ray Tracing en Tensor cores nog buiten beschouwing. De RTX serie heeft een nieuw segment aangeboord, een segment boven high end, en dat zie je terug in de prijs.
Dan vraagje je toch af waar de 1080 Ti zijn kracht vandaan haalt want die performance-wijs echt een beest!
Moet het nu echt uitgelegd worden dat men het hier NIET over adviesprijzen heeft, maar ovet winkelprijzen? Want dat lijkt me best voor de hand liggen...
OP van dit draadje heeft het over de prijzen in het artikel. De prijzen in het artikel zijn manufacturer's suggesties retail prices (ofwel adviesprijzen). Dus ja, leg mij maar eens uit waarom we het dan ineens over winkelprijzen moeten hebben? Zoals ik al meerdere keren aangaf vind ik de winkelprijzen ook absurd maar dat is niet waar deze discussie over gaat.

[Reactie gewijzigd door Archcry op 23 juli 2024 16:13]

Tja als we het over winkelprijzen hebben dan hoeft er helemaal geen discussie te zijn, die is gewoon (heel) hoog door de tekorten/corona, simpel en duidelijke oorzaak. Leuk is anders maar er eindloos over mekkeren veranderd gelukkig ook niks :)

Je hoeft ook niet de nieuwste van de nieuwste kaart te hebben, ikzelf wel en dat de prijs hoger is is jammer maar iets waar je wel of niet voor kiest. Als iemand de oude kaarten zoveel beter vindt moet ie die lekker kopen, eigenlijk ook simpel :)

Feit is dat ook de oude kaarten duurder zijn geworden (ik kon mijn 2080ti voor meer verkopen dan ik er nieuw voor betaald heb), dus dat heeft niks te maken met fabrikanten die ons naaien maar puur met de markt die op dit moment gewoon enorme tekorten heeft. En dat zie je op veel meer markten terug, mijn auto die ik 4 jaar geleden kocht en nu 70k km erbij heeft is nog hetzelfde waard als dat ik hem 2dehands kocht.

[Reactie gewijzigd door watercoolertje op 23 juli 2024 16:13]

Alles was vroeger goedkoper, maar als het goed is verdiende je ook minder.
jij bent op 10 jaar tijd 3x zoveel gaan verdienen?
Maar het is toch een illusie dat de prijs van een product bepaald wordt door:
- kostprijs onderdelen
- transportkosten
- kosten overhead

en de prijs van een product bepaald wordt op basis van de meeste verdiensten. Sommige parfums verkopen minder goed als ze goedkoper worden, terwijl de kostprijsvoor een liter van de grondstoffen ongeveer een tientje is.

De gevraagde prijs is de gevraagde prijs. Retailers gooien daar nog wat bovenop als ze alle videokaarten toch wel verkocht krijgen. De enige manier om daar wat aan te doen is concurrentie, en daar hebben we er 1 van, die bovendien hetzelfde "probleem" ervaart :)
Correctie, 5 jaar.
Gpus zijn in na je correctie qua prijs niet 3x zo duur geworden. De titan level gpus welke toen het duurst waren begonnen vanaf 999euro. De 3090 welke nu het hoogste in de consumenten class zitten heeft een rrp van 1500. Dat is niet 3x zo duur. Mijn salaris is overigens in die tijd wel verdubbeld maar dat is niet alleen vanwege inflatie.
Nee Nee Neee { De huidige prijs heeft alles te maken} met scalping JA.
Vroeger kocht je ook een top kaart van 500 euro.
En heel vroeger in pieken tijd was dat ook 1000/1200 gulden.

Wat er nu gebeurd is/zijn misbruik maken van situatie!!!!! zoals rede corona en crypto.
Scalping werkt alleen doordat er een hogere vraag is dan aanbod. Als dit niet het geval zou zijn dan zou scalping ook niet werken. Dus geef het beestje een naam maar uiteindelijk komt het gewoon neer op vraag en aanbod. Door schaarste kunnen mensen scalpen.

Verder ben ik het eens met je redenatie maar laten we MSRP en daadwerkelijke prijs alsjeblieft gewoon eventjes uit elkaar houden. Mijn argumentatie is dat MSRP in lijn ligt met wat het vroeger was. Welliswaar iets duurder nu dan toen maar in lijn. De daadwerkelijke prijs is inderdaad absurd maar daar gaat deze discussie niet over. OP heeft het over de genoemde (MSRP) prijzen in het artikel.

[Reactie gewijzigd door Archcry op 23 juli 2024 16:13]

Dit is de oorzaak >https://www.tomshardware....genesis-mining-gpu-battle
485.000 videokaarten in 1 farm en hoeveel miningbedrijven zijn er zo wereldwijd ?
Nvidia en AMD zijn hier beiden schuldig aan leugens naar de gamers toe !
Op iedere site voor een bestelling kreeg of krijg je de melding slechts 1 kaart per persoon , als je dit ziet staat dit gelijk aan de consument iets dik voorliegen !
En toch ook 3080 om niet te snel te moeten wisselen of wat hogere frame rate op 2k…

Vergeet 4K al maar voor een FPS.

[Reactie gewijzigd door poing op 23 juli 2024 16:13]

Voor de doorsnee consument niet hoor, kijk maar naar de Steam hardware survey. De top 10 populairste kaarten zijn allemaal xx60 of xx70.
Zoals de 1080ti in 2016 ook vooral voor de echt enthousiastelingen was, enkel koste die 700 euro, dat is het grote verschil. Wellicht zorgt het feit dat 42% van al het geld in omloop vandaag is ''geprint'' in de afgelopen 12 maanden, dat de prijzen flink aan het stijgen zijn, je ziet het ook al in de voedselprijzen, rijst, suiker, mais, alles is flink duurder geworden.
Dat prijzen stijgen klopt inderdaad wel en ik denk dat hetgeen wat ik in een andere reactie hier deels de reden hiervoor is. De vraag is alleen of de resulterende prijs echt "absurd" is. Als het gros van de mensen bereid zijn het ervoor te betalen dan kan je betwisten of het een absurd bedrag is. Uiteindelijk is het natuurlijk allemaal subjecties en is er geen "goed" antwoord op deze vraag.

Daarnaast kan je ook kijken naar de (MSRP) prijs van de RTX 3060 ($320) tegenover de GTX 1060 ($300) of de RTX 3070 ($499) tegenover de GTX 1070 ($380) en dan zie je een veel kleiner prijsverschil. Zoals ergens anders in de reacties ook al gezegd werd. Des te hoger in het sigment je gaat des te minder return on investment je krijgt voor je geld.

[Reactie gewijzigd door Archcry op 23 juli 2024 16:13]

Zeker mee eens, het blijft een vraag een aanbod ding, maar ik vind het niet vreemd dat mensen het duur vinden, omdat je in de tijd van de 1080ti voor 3x minder het beste van het beste had. Of het gros het ervoor willen betalen weet ik ook niet, lijkt een beetje op de huizen prijzen, de ''normale'' mensen kunnen vaak geen huis meer kopen, net zoals de ''normale'' mensen nu geen high end gpu meer kopen, high end gamen is enkel nog weggelegd voor rijke mensen, waar het voorheen met een modaal inkomen prima ging.
Denk niet dat veel mensen een maand salaris aan een gpu uitgeven, kan er naast zitten natuurlijk.
Ik denk dat er relatief weinig mensen überhaupt een high end card kopen. Als je naar deze reactie kijkt dan zie je dat het gros van de mensen een xx60 of xx70 kaart gebruikt voor gamig. Dus ja, high end kaarten zijn duur maar ze worden toch niet door de gemiddelde jan modaal gekocht. Het blijft een luxe product en daar betaal je (een steeds hogere) luxe prijs voor.
Alleen betaal je nu ook voor die mid end xx60 xx70 kaarten 500-800 euro, die zijn net zo veel in prijs omhoog gegaan als de high end, dus voor die mensen die willen upgraden is het, of 2-3x meer betalen voor je nieuwe mid end gpu, of degraderen naar een low end gpu ( die er niet zijn). Het is een pijnlijke situatie.
Dan hou je je huidige kaart toch, je MOET geen andere kaart kopen (tenzij je nog geen pcie kaart hebt 8)7) , zeker niet als je het dus duidelijk niet wilt. En ja iedereen wilt voor een duppie op de eerste rij zitten maar zo werkt het uiteraard en gelukkig niet, want je kan niet met zn alle op de eerste rij zitten, daar is helemaal geen ruimte voor.

[Reactie gewijzigd door watercoolertje op 23 juli 2024 16:13]

Dat is precies wat ik zei, dat ook al moet hij die kaart niet kopen, hij nog wel wat mag vinden van de prijs, daar is niets mis mee, maar volgens mensen hier mag je niets van een prijs van een artikel vinden als je het niet wilt kopen voor die prijs, wat absurd is.
Ja oké maar dan heb je het niet meer over MSRP natuurlijk. OP van dit draadje geeft aan de (MSRP) prijzen in dit artikel absurd duur te vinden en wat ik in mijn vorige reacties duidelijk probeer te maken is dat MSRP's van kaarten inderdaad gestegen zijn t.o.v. een aantal jaar geleden maar dat het niet om een absurde stijging gaat. Dat de winkelprijzen van de kaarten nu drie keer over de kop gaan is een ander verhaal en daar ben ik het wel eens met de conclusie dat het om absurde prijzen gaat.

[Reactie gewijzigd door Archcry op 23 juli 2024 16:13]

Over MSRP heb ik het inderdaad niet, aangezien nagenoeg niemand die kaarten kan kopen voor MSRP.
Nee precies, zoals ik ook al aangaf in mijn andere reactie betwijfel ik of er überhaupt founders edition kaarten van Nvidia in omloop zijn voor MSRP prijzen en dat kaarten van board partners eigenlijk niet voor MSRP (winstgevend) gemaakt kunnen worden. Daaroverheen heb je natuurlijk ook nog de scalpers en webwinkels die ook hun omzet draaien.

Maar wat ik vooral wil doen is hoofd en bijzaken in deze discussie gescheiden houden en daarom heb ik het eigenlijk consequent over MSRP en niet over winkelprijs omdat dat het originele punt was.
Ja ik begrijp je punt, de MSRP van de 3070 is met 519 euro gewoon netjes te noemen, dat valt niet te ontkennen.
3070 zou ik nog begrijpen maar lager is gewoon RUK
Het gaat dan ook om kaarten die een normale consument eigenlijk niet zal kopen. De kaarten in dit artikel zijn vooral kaarten voor de echt enthousiastelingen. De doorsnee consument zal vooral voor de 3060 of 3070 gaan.
Nou de meeste mensen kopen geen GeForce RTX 30** grafische kaarten, de meest gebruikte grafische kaarten waar mensen spellen mee spelen zijn de:

1. GeForce GTX 1060 8.90%
2. GeForce GTX 1050 Ti 6.22%
3. GeForce GTX 1650 5.44%
4. GeForce RTX 2060 5.35%
5. GeForce GTX 1050 3.62%
6. GeForce GTX 1660 Ti 2.90%
7.GeForce GTX 1070 2.72%
8.GeForce GTX 1660 SUPER 2.47%
9.GeForce RTX 2070 SUPER 2.11%
10.GeForce GTX 1660 2.06%

De GeForce RTX 3070 komt pas op de 14de plaats.

https://store.steampowered.com/hwsurvey
Ja, ik heb die bron inderdaad ook al in meerdere van mijn reacties aangehaald. Je hebt natuurlijk helemaal gelijk maar wat ik probeer te zeggen is dat wanneer een consument een nieuwe kaart koopt dit waarschijnlijk een 3060 of een 3070 zal zijn. Wat je nu in de steam survey ziet is mensen die x jaar geleden een nieuwe kaart in dit sigment gekocht hebben en daarna niet meer geüpgraded hebben.
Ja, ik heb die bron inderdaad ook al in meerdere van mijn reacties aangehaald. Je hebt natuurlijk helemaal gelijk maar wat ik probeer te zeggen is dat wanneer een consument een nieuwe kaart koopt dit waarschijnlijk een 3060 of een 3070 zal zijn. Wat je nu in de steam survey ziet is mensen die x jaar geleden een nieuwe kaart in dit sigment gekocht hebben en daarna niet meer geüpgraded hebben.
Klopt, en toch denk ik echt niet dat mensen gaan voor een 3060 of een 3070, aangezien de goedkoopste GeForce RTX 3060 €700 is, wat mijn GeForce GTX 1080 koste ruim 5 jaar terug, en de GeForce RTX 3070 bijna €900 is, gaan de meeste mensen toch voor de GeForce GTX 1650, die je al heb vanaf €240 wat ook nog steeds €70 boven de normale prijs is, en daarna gaan de meeste lijkt mij voor de Radeon RX 6600 XT, die je al vanaf €500 heb, wat een enorme €200 goedkoper is dan de GeForce RTX 3060, wat nog steeds veel geld is voor een low to midrange grafische kaart.

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 16:13]

Ja oké ik snap je punt maar wat ik in dit draadje steeds probeer is hoofd en bijzaken gescheiden te houden. De OP van dit draadje heeft het erover dat hij de prijzen in het artikel absurd vindt, de prijzen in dit artikel zijn manufacturer's suggested retail prices (MSRP). Dus de hele discussie in dit draadje gaat over de MSRP's. Mijn argument is dat deze prijzen voor 30 series kaarten in lijn liggen met voorgaande jaren. Ik heb al meerdere keren toegegeven dat de daadwerkelijke winkelprijs van deze kaarten inderdaad absurd zijn maar daar gaat deze discussie niet over.

Daarnaast ben ik het natuurlijk helemaal eens met wat je zegt alleen is dit simpelweg gewoon een ander verhaal waar we wat mij betreft geen discussie over hoeven te voeren.

[Reactie gewijzigd door Archcry op 23 juli 2024 16:13]

Aha ok, ja klopt de MSRP is het zelfde als verleden jaar, of in ieder geval zo goed als gelijk aan wanneer de GeForce RTX 2000 series uit kwamen.

Alleen wou ik en ik denk zo goed als iedereen, dat eindelijk de Grafische kaarten weer richting de MSRP prijzen waren, als mijn GeForce GTX 1080 stuk gaat, die ook al weer 5+ jaar oud is, ga ik denk toch voor een GeForce GTX 1650 of heel misschien de Radeon RX 6600 XT, ga echt geen €700+ uitgeven voor een low to mid-range grafische kaart.

De Radeon RX 6600 XT is toch op 1440P een stuk sneller dan de GeForce GTX 1080.

https://www.youtube.com/watch?v=1CT_oWm_OmI

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 16:13]

Sorry hoor maar 90% van de mensen gaat geen videokaart kopen voor 700 euro, nu niet, vroeger niet nooit niet. 700 euro, daar heb ik mijn hele gamepc met 1650 voor gekocht in begin 2020 (graphics boeien me niet zo) en dat ding speelt alles zelfs cyberpunk is er speelbaar op. Nu is zelfs een simpel kaartje half zo duur als mijn hele pc die gekocht was om af en toe te gamen zonder dat ik er veel op vooruit ga. Voor mensen uit de voodoo tijd is dit ronduit belachelijk. Als je toen 1400 gulden uitgaf had je ook iets dat sneller was dan 99% van alle andere systemen. Nu mag je blij zijn redelijk in te stappen bij dergelijke bedragen.
En dit zijn helaas nog de aanbevolen verkoopprijzen. In de praktijk wordt het nog een stuk duurder momenteel :'(
Helemaal mee eens. De reacties op je comment slaan natuurlijk compleet de plank mis. De doorsnee consument koopt nu een 3060 of 3070 omdat hij of zij geen keus heeft. Voorheen kochten ze gewoon een high end kaart voor een lagere prijs dan zo'n 3060 of 3070. Als een fles frisdrank ineens 30 euro per stuk kost neem je ook geen genoegen met "het is een luxe product je kunt ook gewoon water uit de kraan drinken" of "een doorsnee klant koopt geen frisdrank".

De CEO's van de videokaart fabrikanten hebben alleen nog maar zicht voor het korte termijn. Want over een X aantal jaar zit er toch weer een andere CEO. Dat hiermee hun customerbase verhuisd naar alternatieven en op termijn deze markt in stort, omdat de crypto industrie moet uitwijken naar minder belastende methodieken zoals proof of space interreseerd ze geen reet.

Meerdere industrieen waaronder de pc hardware industrie, de pc gaming industrie en de pc software industrie, samen goed voor meer dan 600 miljard dollar wereldwijd per jaar wordt hiermee verstoord, en dat is voor niemand bevalve de aandeelhouders van die GPU fabrikanten positief.

Het is mij dan ook een raadsel waarom de grootmachten dit uberhaupt nog niet reguleren.
Wat zou je voorstellen dat de grootmachten, zoals jij zegt, daar aan doen?
De chipfabs staan nu allemaal op volle kracht te draaien. Er kunnen nieuwe fabrieken worden bijgebouwd, maar dat duurt een paar jaar voordat die aan de praat zijn, en de grondstofketens kunnen in handen van de overheid komen, maar Amerikanen zijn ernstig tegen regulering door de overheid, dus dat gaat niet gebeuren.
Cryptominen op videokaarten verbieden. Videokaarten ongeschikt maken voor minen. De verkoop van videokaarten aan banden leggen.

[Reactie gewijzigd door Seth_Chaos op 23 juli 2024 16:13]

Dan krijg je net zoiets als personenauto's snlheidsbegrenzen op 140 km/uur. Heb je nog een beetje marge voor de veiligheid, en dat is het. Goed voor het milieu, maar daar gaan ook een hoop mensen niet blij van worden.
Dan verschuift het grapje naar cpu's. Onder het randomX algo kan momenteel enkel een cpu efficient minen.
Dat gaat hem nooit worden, misschien in China.
Cryptonminen "ongeschikt maken" heeft NVidia al geprobeerd. Maar ik begrijp dat de work-around er al is. Verbieden kan niet; NVIdia is geen overheid.
De doorsnee consument koopt nu een 3060 of 3070 omdat hij of zij geen keus heeft. Voorheen kochten ze gewoon een high end kaart
De doorsnee consument kocht nooit een high end videokaart, een doorsnee consument kocht namelijk nooit een videokaart los. Zelfs van die consumenten die dat wel deden was het gemiddelde nooit een xx80+, zelfs geen xx70. Het gros van de PC gamers kocht zelfs geen xx80+, want een GTX 780 was bij introductie ook gewoon €650, een prijs die de meeste PC gamers er ook niet voor over hadden zeker ivm. een GTX 770. Men was toen ook al niet happy om 50% meer neer te leggen voor misschien 10% meer performance.

En wat betreft die €30 voor een fles frisdrank, dat betalen al een heleboel mensen al heel erg lang op terrasjes en clubs, alleen verdeeld over meerdere glaasjes met een stevige dosis ijsblokjes (water)...
Omdat de GPU prijs niet echt iets is waar grootmachten wakker van liggen.
daar krijg je dan ook een knap staaltje techniek voor terug. Daarnaast, een videokaart is een luxe product. Je hoeft het niet te kopen.
daar krijg je dan ook een knap staaltje techniek voor terug.
In de winter heb je ook geen verwarming meer nodig en als het wat warmer wordt kun je besparen op kleding 😬


Mooi dat het allemaal kan en links en rechts zal er gebruik van worden gemaakt,
maar gelukkig dat er ook naar alternatieven wordt gekeken als FidelityFX en bij Nvidia DLSS op bepaalde duurdere kaarten.
Knap staatlje techniek voor terug? Het valt juist vies tegen wat je ervoor terugkrijgt voor de prijs, weetje wat een knap staaltje techniek was voor de prijs? de GTX 1080ti, AMD HD7950, dat waren knappe staaltjes techniek voor de prijs, dit is enkel een knap staaltje techniek, voor de prijs kan je wel weglaten.
Whahaha, mooi staaltje techniek? Een videokaart die 450W verbruikt? Nooit zou ik dat in mijn pc hangen. Max 300W mag het voor mij zijn en daar zitten de 3080 en 3090 ook al boven dus ik begrijp niet dat die kaarten zo goed verkopen. Op mijn appartement is het tijdens de zomer al veel te warm laat staan met zo'n kaart die >300W verbruikt. Totale afgang voor Nvidia met het verbruik van hun videokaarten.
Lekker relevante opmerking, d'r wordt niet eens een prijs van deze nieuwe kaart genoemd.

Laten we vooral oude koeien uit de sloot gaan halen en compleet voorbij gaan aan het feit dat dit het nieuwste top model is en de chips-crisis nog lang niet voorbij is.
Wat een absurde prijzen.
Niet alleen dat, maar voor wie is dit bedoeld, de goedkoopste GeForce RTX 3090 is €2139, dus zal de goedkoopste GeForce RTX 3090 Super €2500+ zeker weten woorden, en dat de GeForce RTX 3080 Ti ongeveer net zo snel is als de GeForce RTX 3090, en bij die kost de goedkoopste €1552, wat ook absurde prijzen zijn, en is de not voor de GeForce RTX 3090 helemaal verdwenen, of je moet dingen doen die 24GB VRAM nodig heeft.
Veel geld inderdaad. Nu prijzen van smartphones zijn ook ver verdubbeld in de laatste jaren.
Echter met zo'n een videokaart is het niet enkel een zaak van meer geld vragen. Ze worden ook veel complexer. De videokaarten van nu krijgen veel mee van professionele videokaarten. En die kaarten kosten vroeger 4 a 8000€.

Zelfs nu kost bvb de NVIDIA Quadro RTX 8000 bijna 7000€.

Voor de meeste gebruikers en gamers is dit eigenlijk niet eens nodig wand hoeveel games hebben hier nood aan. En binnen paar jaar heb je alweer beter.
Anoniem: 421923 @Mirved26 augustus 2021 16:01
en dat zijn de MSRP, in de winkel/scalpers komt er zo 500 euro bovenop.
Moet je deze eens bekijken van genesis mining 485.000 GPU'S !!! https://www.tomshardware....genesis-mining-gpu-battle
485.000 Gpu's in een miningfarm = Belgie heeft 11.000.000 Belgen dit is 22.6% van de ganse bevolking !
11.000.000 mensen delen door 485.000 gpu's komt op 22.6 procent die een gpu's niet kan kopen !
Ik weet nu de verhouding ouderen of niet gamers niet in ons land, maar 22.6% van een bevolking is zeer hoog ! Hier spreken we dan ook maar enkel over 1 miningfarm niet te vergeten. Dus die nieuwe RTX en AMD 6000 reeksen zitten allemaal in farms. Schandalig dat Nvidia of AMD dan vermeld slechts 1 kaart per persoon ! Ga er dan ook maar van uit dat de meeste tweedehandskaarten ex miningkaarten zijn. Maar ik vind het schandalig van Nvidia en AMD dat ze de gamers onder ons zo in de kou laten staan en kaarten bedoelt voor gaming verkopen aan farms. Hier moesten ze toch speciaal miningkaarten voor gemaakt hebben naar mijn mening. Maar wie ben ik ?
Is een 850 watt voeding nog steeds genoeg?

Heb de Corsair RM850x (2018). Als processor heb ik de Ryzen 3900x.
Die zal 't ongetwijfeld uithouden, maar heel riant is het ook weer niet met een grafische kaart van 450W en een processor die wellicht een hoger praktijkverbruik heeft dan zijn 105W TDP spec.

Een aantal adviezen:
- Hoeveel ampere de voeding op de 12v lijn kan leveren is belangrijk, ook al is 850W totaal vermogen genoeg, zegt dat nog niks over het vermogen van de voeding op specifiek de 12v lijn.
- Ouderdom is ook een ding; oudere exemplaren leveren minder vermogen dan een nieuw exemplaar. Men rekent geloof ik meestal met een degradatie van 25% over de levensduur van een voeding.
- Het is doorgaans fijn om bij typisch gebruik (gaming) rond de 50% of mss 70% van de maximale capaciteit van de voeding te zitten. Vanwege stabiliteit maar ook omdat de voedingen daar vaak het zuinigst zijn.

[Reactie gewijzigd door A Lurker op 23 juli 2024 16:13]

ik vindt het grappig om het argument "zuinig" te gebruiken voor de "max-load" scenario. En dan nog maar 50% aanraden...

Dan zit je bij "idle" mogelijks met een heel slechte efficiëntie. En ik moet zeggen dat mijn PC veel vakker idle dan 'max-load' werkt :D

Stel je hebt een max-load van 600W, dan heb je volgens je redenering een voeding tussen 850 en 1200W nodig (50-70% range). In idle verbruik je mss 80W ofzo (mijn PC gaat daar zelf goed onder, richting 40W), kom je uit op 9% (850W) of 6.7% (1200W).

Gebruik je eerder de regel van 80% efficiënt op max-load, kom je uit op een voeding van 750W. Dan zit je al boven de 10% voor idle. En uiteraard voor betrouwbaarheid eerder een goed merk. En uiteraard het zijn de loads op de 12V dat tellen, geef ik je gelijk op :)

Ter info: de 80+ standaard waarborg efficiëntie tot 20%, niet langer (behalve de Titanium versie, die gaat tot 10%). Mijn aanrader is dus ook om de betere 80+ standaarden te nemen.

Je kan dus gerust anders optimalizeren met hetzelfde budget :)

Nota: ik snap gerust dat er wat marge genomen wordt, en ik snap wel waar deze vuistregel vandaag komt.
Ik snap je punt, maar daarom zeg ik ook typisch gebruik, dat is niet hetzelfde als max-load.
Als je onder een typisch gaming-scenario 600 watt verbruikt zou ik zeker voor 850w gaan. Denk ook niet dat er veel mensen zijn die 600w halen, tenzij je het hebt over een recente snelle intel CPU met hoog praktijkverbruik icm een deftige 3090. Maar dat terzijde.

Ben het met je eens dat 50% wat aan de extreme kant is, dan kom je inderdaad nogal op een hoge waarde uit. En dat zit dan inderdaad je idle zuinigheid behoorlijk in de weg.
Ik draai een 3090(iChill X4, dus slechts 2x 8pins en wat zuiniger) met 3900x(dynamische 0,1v undervolt) op een Seasonic 650w voeding. Zou goed moeten komen dus. Tenzij je er nog veel andere energieverslinders in je systeem hebt natuurlijk.
Tenzij je er nog veel andere energieverslinders in je systeem hebt natuurlijk.
Die vallen bij Corsair niet onder het genoemde wattage. Enkel je CPU en GPU draaien op de rails waarvan corsair het wattage aangeeft. (Misschien beetje vreemd uitgelegd, weet even niet hoe ik het beter kan verwoorden.)
Als je verder geen andere gekke dingen er aan hebt hangen zou dat gewoon voldoende moeten zijn, een 3090 kan met 700/750W prima toe. Of het wenselijk is om veel tegen de limiet aan te zitten is een andere discussie ;)
Verder nog 1 nvme schijf. 2 normale ssd schijven. 3 hdd's. Heb als behuizing de Cooler Master Cosmos C700P zit ook wel lichten en een fan controller op, maar dat gebruikt toch niet veel? Heb ook nog 2 externe hdd's maar die gebruiken de voeding toch niet?
Zou je dit echt overwegen met een MSRP van gegokt €1999 en dan een werkelijke prijs van €3000
Ik ging er niet 1 kopen hoor. Heb nu nog een 2080super. Gaat nog wel goed met de huidige games. Ging me meer om, als een 850w voeding nog goed genoeg is.
Vraag is denk ik wat de korte stroompieken worden. We weten dat een 3090 met een mod om de stroombeperkingen te ontwijken vrolijk 450W kan gebruiken, maar dan is de kloksnelheid ook een stuk stabieler en zijn de korte pieken relatief veel kleiner (omdat hij niet constant terug moet schakelen). Dus als het hogere budget van de 3090 Super vooral betekent dat hij dichter bij zijn limiet komt, dan verwacht ik dat een 850W power supply gewoon voldoende is.

Daar komt nog wel bij dat Intel CPUs van de afgelopen jaren een stuk meer stroom slurpen, dus met een AMD CPU heb je toch al minder nodig, en het blijkt dat de moederborden van sommige fabrikanten (b.v. MSI) de stroompieken van de CPU een stuk beter afvlakken dan andere (b.v. ASUS).
Is een 850 watt voeding nog steeds genoeg?
Ik betwijfel het jou combo wordt al gezien als minimaal een 850W voeding samen met een 3090. Die 3090 Super zal nog meer kunnen trekken. Een 5950x+3090 wordt al een 1300W voeding voor aangeraden.

Bron: https://seasonic.com/wattage-calculator

Natuurlijk niet de meest onpartijdige partij, maar aangezien je daar er 12 jaar garantie op krijgt wil je ook je voeding niet op gaan blazen door niet de adviezen te volgen...

En niet elke 850W voeding is gelijk...
ik zit gemakshalve gewoon op 1000W. Hoef ik er niet over na te denken of ik kielekiele zit qua stroom :)
Een RTX 3090 die 1549 euro kost??
Laat me niet lachen, de goedkoopste in Pricewatch op dit moment is 2049 euro...
En dan hebben we het er niet eens over of je uberhaupt er 1 kunt vinden.
En zelfs €1549,- is belachelijk veel geld voor z'n kaart! Hou hem lekker en maak er iemand anders gek mee. Een PS5 of Xbox X kost €500,- hahahahahaha... Dit gaat straks compleet de verkeerde kant op, mark my words: mensen stappen allemaal over naar een game console omdat dit prijs verhouding zoveel goedkoper en efficiënter is. Ik heb het uiteraard niet over volgend jaar, maar als deze verhoudingen niet veranderen zal over 7 jaar dit een duidelijke trend worden. Wellicht gaan de meeste mensen dan over naar een mini-pc voor werk en administratie en een console puur voor gaming.
Behalve dat een hoop mensen niet op een console willen gamen, en dat je ook geen 3090 nodig hebt om elke console te snel af te zijn. Om nog maar te zwijgen over het feit dat een console ook een GPU nodig heeft..

[Reactie gewijzigd door BHStar op 23 juli 2024 16:13]

Toch gaan de Game PC verkoop cijfers volgens mij al jaren nog steeds omhoog.
Niet gek, de wereld wordt al jaren overspoeld met nieuw geld, zou super bizar zijn als de verkoop cijfers omlaag zouden zijn gegaan. Inflatie sijpelt nu ook in de consumentengoederen en voedsel, eindstation van inflatie. Wereldprijzen van suiker, rijst, koffie, mais, alles gaat door het dak nu.
(slecht) Adviesprijzen ;)
Dan nog, vroeger waren de winkel prijzen misschien 100/150 euro meer, en dat was al heel veel.
Dit is gewoon 500 euro bovenop de adviesprijs...
Dat is nou eenmaal hoe de economie werkt op het moment dat er een hoge vraag en een laag aanbod is. Niets nieuws hoor. De huidige prijzen van kaarten (en andere producten waarin chips verwerkt zitten) heeft alles te maken met het huidige chip tekort. Geen chips = laag aanbod en in combinatie met een hoge vraag betekent dat een hoge prijs.

[Reactie gewijzigd door Archcry op 23 juli 2024 16:13]

maar het is wel een beetje dubbel op, vind ik op dit moment.
hoge vraag + laag aanbod= jep.
maar ook: vroeger kocht ik vaak de (semi)top kaarten en vaak nog redelijk snel achter elkaar.
maar al een heel aantal jaar, vind ik de (semi)top kaarten wel erg duur geworden.
aardig verklaarbaar doordat het echt wel grote chip's zijn geworden of eigenlijk halve computers.
maar advies prijzen van 1500€, oei dan denk ik toch terug aan de tnt of voodoo kaarten van vroeger die waren eigenlijk goedkoper als de processor en dat is nu niet meer zo (beetje relatief natuurlijk zijn zat erg dure processors te vinden).

[Reactie gewijzigd door migjes op 23 juli 2024 16:13]

Daar heb je wel gelijk in en ik denk dat deze video van LTT dit goed uitlegt. Kort samengevat komt het er op neer dat Nvidia en AMD nog prima cijfers draaien maar dat hun board partners meer geld moeten betalen voor het produceren van een grafische kaart en deze kosten doorbelasten aan de consument. Doordat de server markt wereldwijd snel groeit is er naast een tekort aan silicon ook een tekort aan DRAM. De prijs van DRAM is dus omhoog gegaan.

Naast DRAM zien board partners ook een stijging in de kosten van raw materials zoals:
- Koper (100% stijging of verdubbeling in prijs)
- Alluminium (45% stijging in prijs)
- Plastic (47% stijging in prijs)
- Staal & nikkel (30% stijging in prijs)
- Neodymium (88% stijging in prijs)

Dus inderdaad, het heeft niet alleen met vraag en aanbod van de kaarten te maken maar ook met vraag en aanbod van de materialen waarmee deze kaarten gemaakt worden.

Op deze manier kan Nvidia wel zeggen dat de Manufacturer's suggested retail price (MSRP) x is maar ik hoorde Linus in een WAN show ook (terecht) vragen hoe veel founder edition cards er überhaupt in omloop zijn. Hij heeft dit aan zijn audience gevraagd en de conclusie was eigenlijk dat niemand van zijn kijkers in bezit was van een 30 series founders edition card. M.a.w. Nvidia lijkt deze kaarten vrijwel niet te produceren. Waarschijnlijk om de simpele reden dat ze het niet kunnen voor de door hen gesuggereerde MSRP. En dat is nou precies het misleidende aan MSRP t.o.v. de "echte" prijs.

[Reactie gewijzigd door Archcry op 23 juli 2024 16:13]

Naast DRAM zien board partners ook een stijging in de kosten van raw materials zoals:
- Koper (100% stijging of verdubbeling in prijs)
- Alluminium (45% stijging in prijs)
- Plastic (47% stijging in prijs)
- Staal & nikkel (30% stijging in prijs)
- Neodymium (88% stijging in prijs)
Percentages zijn leuk, maar zit er uiteindelijk uberhaupt $10 aan die materialen die je opnoemt op een kaart? Deze kaart gaat straks over de toonbank voor €3000.
In de winkel wel ja maar daar hebben we het nu niet over. De hoge prijzen t.o.v. MSRP hebben alles te maken met de schaarste. Daar hoeven we denk ik geen discussie over te voeren. Hetgeen wat ik hierboven aankaart is mijn beredenatie waarom MSRP duurder is dan eerder.

[Reactie gewijzigd door Archcry op 23 juli 2024 16:13]

Dit heeft helemaal niks te maken met economie!
Dit is oplichting
Er moet een Wet komen dat zo iets niet kan en mag gebeuren.
Hoe kan je zoiets nog verantwoorden?
Je kan niet omdat er meer vraag is de prijs 3 x omhoog gooien.

Gaan we dat ook doen met auto's doen?
Of met boodschappen?
Enz enz....
Ik stel voor dat je even de definitie van de woorden die je gebruikt opzoekt. De definitie van "oplichten" bijv.
Bedrog waarbij men iemand geld of goed afhandig weet te maken
Vervolgens zoeken we ook "Bedrog" even op:
Het op arglistige wijze opwekken van onjuiste voorstellingen bij een ande
M.a.w. je kan pas spreken van oplichting wanneer je "geld of goed" afhandig maakt van iemand door "het op arglistige wijze opwekken van onjuiste voorstellingen". De persoon of personen die een grafische kaart voor een absurde prijs koopt van een scalper wordt niet opgelicht. Hij is precies op de hoogte van wat hij krijgt en wat hij ervoor moet betalen dus kan je niet spreken van oplichting. Dat de gek het geld ervoor geeft is een ander verhaal.
Zo voelt het wel aan he.
ik begrijp wat je bedoelt...maar ik lucht effe mijn ontevredenheid.
Waarschijnlijk is dit een mooie manier voor Nvidia om te cashen op de huidige hoge prijzen. Als de RRP maar hoog genoeg is, kan Nvidia lekker wat extra vragen aan de board partners.
Adviesprijs =/= daadwerkelijke winkelprijzen.
Je kunt ze via de Duitse Nvidia partner bestellen voor die prijs, mits je in ieder geval de drops volgt. Op de Tweakers Discord zitten er genoeg die ze zo bestellen. De 3090 ligt bij zo'n drop er nog best lang. De minst gewilde variant bij een FE drop.

[Reactie gewijzigd door Paprika op 23 juli 2024 16:13]

Dat is nog best een goede deal, heb meer dan 3k betaald..
Het is niet omdat jij 3.000 EUR betaald hebt dat dit dan ook maar een 'goede' deal is. Ik heb daar een ander woord voor :)
Het zou kunnen dat hij het echt nodig had voor werk, en dat ie het er uiteindelijk wel terug verdiend, maar dat is maar een 1 van de mogelijke scenarios.
Nee hoor, gewoon voor gamen. Wat meer toekomstvast dacht ik zo.
Niets is toekomstvast. Over 5 jaar is hij 'obsolete'.
Dat dacht ik ook met m’n 980 Ti en een paar jaar later had je ineens kaarten met ray tracing cores. Zonde.
Het is niet alsof je 980ti dan nu ineens waardeloos is. Zeker als je 1080p gamed komt die kaart nog prima mee.
Wou gewoon een snelle kaart op dat moment hebben. 3080 was op dat moment ook 2500 ongeveer, dus scheelde niet veel.
Je bent in ieder geval een behoorlijk snelle kaart, dat is zeker :)
Ik heb 1549 euro voor mijn 3090 founder's edition betaald bij nbb. Maar dan moet je wel de mazzel hebben hem te kunnen kopen.
Ik wou net zeggen, die prijs moest ik betalen voor een 3080 Ti. Ik wou dat ik hem voor 1199 had kunnen krijgen. Die prijzen zijn waanbeelden.
met zulke stroomverbruiken is het maar een kwestie van tijd tot de topkaarten geleverd worden met hun eigen voeding.
dit ging over bundels waarbij winkels van hun overbodige stock probeerden af te geraken door een zeer gewild item (grafische kaart) enkel aan te bieden met een minderwaardig product dat anders enkel stof lag te verzamelen. Men zou dit echter perfect kunnen doen met producten die wel kwalitatief zijn.
De knipoog was ook niet voor niets. Alleen kies ik toch liever zelf mijn voeding. En voor velen is dat wellicht ook verstandiger. Los van de vraag modulair of niet zit je ook nog met de rest van het systeem. Een 3900x vraagt toch iets meer van je voeding dan een 3600x. En om nou altijd een 850w gold mee te leveren...

En verder vind ik het in het kader van wel/niet meeleveren van adapters bij telefoons een redelijke overtreffende trap qua stimuleren van e-waste. :D

[Reactie gewijzigd door MN-Power op 23 juli 2024 16:13]

of men zou op termijn zelfs kunnen gaan werken met een dubbele voeding voor systemen met zulke videokaarten. Met een TDP van 450W mag je al bijna gaan rekenen op een 650W aan extra piekvermogen (zeker met een lichte overclock zoals veel modellen vaak hebben)
Ik heb vandaag voor dit topic mijn verbruik gecheckt. CPU-Z stresstest + Kombustor (dus CPU+GPU voor de volle 100% belast) geeft 530w verschil t.o.v. de PC uit. De voeding levert dus nog minder dan dat. Er zitten een 3090 en 3900 in de kast, dus die 650w aan extra piekvermogen is wellicht wat veel. ;)

Mijn Seasonic voeding is ook maar 650w trouwens, dus dat zouden vele BSOD's of erger worden.

[Reactie gewijzigd door MN-Power op 23 juli 2024 16:13]

deze kaart heeft standaard al een TDP van 450W. Dit zegt natuurlijk niet noodzakelijk iets over het echte verbruik maar als voor het maximale gemiddelde verbruik is het geen slecht richtgetal. Aangezien je daar mogelijks af en toe bovengaat zou een apparte voeding hiervoor een model van 550W moeten zijn, en indien de fabrikant er al een overclock op toepast nog een model hoger, en dus 650W.
Volgens mij mag dat volgens de specs niet eens. Per 8pin mag maximaal 150 watt lopen en de slot doet 75w. Dus 525w is de uiterste max. Of het moeten 4x 8 pins worden natuurlijk.

Voor die van mij geldt 2x8pins + slot = 375w maximaal.

[Reactie gewijzigd door MN-Power op 23 juli 2024 16:13]

Hadden ze niet de naam GTX 480 anniversary edition kunnen kiezen met dat stroomgebruik.
Hoewel, die oude kaart is zuinig vergeleken met de 3090 (Super).
3090 super duur

1.5Gbit/s meer voor maar 100 Watt.
Dit is toch een kaart waar helemaal niemand op zit te wachten? Zeker gezien het feit dat Nvidia de 3090 steeds meer ziet als Content Creation kaart en niet als de top gaming kaart (dat is namelijk de 3080Ti volgens de berichtgeving van Nvidia).
Gaat iemand die videobewerking of AI/Machine Learning doet profijt hebben van de kleine upgrade (ten koste van de grote gevolgen voor het stroomverbruik?)? Lijkt me echt een rare zet van Nvidia.

[Reactie gewijzigd door zzzzz op 23 juli 2024 16:13]

Vooral miners hebben baat bij het snellere geheugen.

Voor de rest kun je net zo goed een gewone 3090 kopen en voor die 500 euro die je dan over houdt een aantal spellen die je er graag op wil spelen kopen, met een flinke bak DLC om het mooi te maken.
Als je met dat soort zaken bezighoud, dan maakt die paar honderd euro ook niet veel meer uit. Met een normale afschrijvingstermijn van 3 jaar.
Die GPU's draaien niet 24/7 100%
Vraag me eerlijk gezegd wel af hoeveel je gaat opschieten hiermee. Ik heb zelf een aantal 3090s en de efficientie holt echt snel achteruit met een overclock. Wellicht iets betere binning dit dan, maar de prijs zal ook nog wel hoger liggen.
Een 3090 schiet (in ieder geval voor gaming) al niet heel veel op tov een 3080. Prijs/Performance is een 3080 volgens mij de sweetspot (al weet ik niet hoe dat met de hedendaagse prijzen zit).
Ja voor gamen zijn die 3090s beetje overkill, of je moet echt heel gek willen doen met 8k resoluties ofzo. Ik heb er zelf 3 voor renderen op m'n GPU's (ben 3D artiest) heb er eigenlijk nog helemaal niet op gegamed sinds ik ze heb :')
Met zulk verbruik begin ik me af te vragen of ik nog wel kan gamen met zo'n kaart op de studeerkamer. 450 Watt voor de videokaart, 100 Watt extra voor de CPU en nog wat verliezen in de PSU. Of valt dat wel mee? hoeveel warmt een beetje kamer op als je zeg 2 uur lang 600-700 Watt aan warmte opwekt?
Ik heb een kleine elektrische kachel staan van 1000 watt met 2 standen. 500 watt op stand 1. Daarmee kan je in de winter een grote badkamer aangenaam warm houden. Op een kleine studentenkamer zal er in de winter geen verwarming nodig zijn. In de zomer wordt het stikken van de hitte.
Zelf een 5950x met een 360 All-In-One erop, Gigabyte RTX 3090 Vision OC... Dit allemaal op mijn zolder... Als ik een paar uurtjes stevig aan het gamen ben en de AOI en de kast voeren de 60-70 graden lucht netjes af naar buiten de kast is het hier zo een graad of 23-26...

In de winter zet ik gewoon de computer aan om het warm te krijgen hier op zolder.. In de zomer is het een ander verhaal.. Temps van de PC veranderen niet echt, maar de tempratuur op zolder stijgt dan naar zo'n 32-36 graden :-)
als je een goeie voeding hebt levert ie niet zoveel warmte op.
Daarnaast wil het niet zeggen dat de PSU die warmte ook echt altijd geeft. PSU kan het leveren, wil niet zeggen dat ie het ook altijd doet en dus volle pond warmte levert.

Op dit item kan niet meer gereageerd worden.