'Markt voor losstaande gpu’s is in een jaar tijd 42 procent gekrompen'

AMD, Intel en Nvidia hebben volgens Jon Peddie Research afgelopen kwartaal ongeveer 14 miljoen losstaande videokaarten voor laptops en desktops verscheept. Het bureau meent dat de markt voor dergelijk videokaarten voor computers in een jaar tijd met 42 procent is gekrompen.

Uit het onderzoeksrapport van Jon Peddie Research, dat ingekeken is door Tom's Hardware, blijkt dat er in het derde kwartaal van 2022 ongeveer 6,9 miljoen losse videokaarten voor desktops zijn verscheept. Wat betreft losse videokaarten voor laptops zou dat aantal ongeveer even hoog liggen.

Jon Peddie Research bekeek ook het marktaandeel van verschillende fabrikanten en stelt vast dat Nvidia in het afgelopen kwartaal een marktaandeel van 86 procent heeft wat betreft videokaarten voor desktops. Dat zou het hoogste marktaandeel ooit zijn voor het Amerikaanse bedrijf. AMD zou 10 procent marktaandeel hebben in dit segment en dat is volgens de cijfers van het onderzoeksbureau dan weer het laagste percentage in decennia. Intel, dat dit jaar zijn eerste Arc-videokaarten heeft geïntroduceerd, heeft volgens Jon Peddie Research afgelopen kwartaal vier procent marktaandeel behaald.

Het is niet de eerste keer dan Jon Peddie Research een neergaande trend opmerkt in de wereldwijde markt voor gpu's. Eind november stelde het analistenbureau dat het totale aantal gpu-leveringen, inclusief geïntegreerde videokaarten en andere soorten videokaarten, in het derde kwartaal van 2022 met 25,1 procent gedaald zou zijn ten opzichte van dezelfde periode vorig jaar. Dat zou toen de grootste daling zijn geweest sinds de recessie van 2009. In dit onderzoek lijkt het enkel te gaan over losse gpu's voor desktops en laptops.

In november raakte ook al bekend dat Nvidia opnieuw omzetverlies had geleden door de afnemende vraag naar videokaarten. Het Amerikaanse bedrijf noteerde een daling van 17 procent, ofwel 5,93 miljard dollar, ten opzichte van het tweede kwartaal in 2021. Volgens Nvidia was die omzetdaling onder meer te wijten aan een dalende vraag in de marktsegmenten voor gaming en professionals. De toen nog nakende introductie van de RTX 40-videokaarten en de Amerikaanse exportbeperkingen van geavanceerde chips speelden ook een rol. Intel en AMD hebben afgelopen zomer ook gemeld dat er minder omzet gedraaid zou worden. Beide bedrijven verwezen toen naar een dalende vraag naar pc-hardware. Tweakers schreef een achtergrondverhaal over de dalende vraag naar pc-hardware.

Aantal verscheepte desktop-gpu's
Aantal verscheepte desktop-gpu's volgens Jon Peddie Research

Door Jay Stout

Redacteur

29-12-2022 • 13:25

140

Lees meer

Reacties (140)

140
140
57
4
0
63
Wijzig sortering
Natuurlijk niet zo raar. Mining is totaal niet interessant meer door dat ETH naar POS is overgegaan en de Crypto prijzen flink gedaald zijn. Dus er zijn veel kaarten te koop aangeboden op de 2e hands markt. Daarnaast is de corona lockdown op veel plaatsen ook weg dus mensen doen weer andere dingen. En als laatste de slechte economie en de oorlog in oost europa helpen niet mee bij de verkopen. Dat alles bij elkaar maakt het dat de vraag vanuit consumenten aanzienlijk lager ligt.
Alles wat je opnoemt, maar nog als toevoeging:
De huidige vraagprijzen voor GPU's waar veel consumenten gewoon klaar mee zijn.

Geen wonder dat de vraag daalt als je voor het geld waar ik nog geen 10 jaar geleden een hele PC voor kon bouwen, nu alleen een GPU kan kopen. Tuurlijk speelt inflatie altijd een rol, maar dit gaat veel verder dan dat.
De huidige vraagprijzen voor GPU's waar veel consumenten gewoon klaar mee zijn.
Precies dit. Ik doe het nog met een GTX 1060 en wil met liefde upgraden maar een current-gen GPU kost gewoon vier keer meer dan ik ervoor over heb en zelfs een RTX 3060 uit de vorige generatie is nog bijna twee keer duurder dan ik 'm waard vind. Sorry hoor, Nvidia, maar nu crypto ingekakt is zullen de prijzen toch echt omlaag moeten voordat ik het kopen van een nieuwe kaart overweeg...
Precies dit. Maar om 1 of andere reden gaan we het altijd goed praten dat de consument genaaid wordt, vooral hier op tweakers hebben we daar een handje van.

Technologie veranderd maar de Tier classes blijven iedere sprong hetzelfde met ook hetzelfde prijs niveau.
Maar de afgelopen jaren hebben ze dat losgelaten met Corona als mooi excuus.
Niemand praat het goed. Het is dat we geen keus hebben. De prijzen zijn sinds afgelopen 3 jaar fors gestegen.

Vroeger waren mn videokaarten ook hooguit 450 euro en had ik de een na beste kaart. Vandaag haal je daar een low range kaart voor.
Aan de andere kant, het moment dat je een 3060 (Ti) haalt, krijg je alsnog behoorlijke performance daarvoor. Een goede 20% sneller dan een flagship kaart als de 1080Ti die nog door velen wordt verheerlijkt.

Het hele ding is, dat je op 1440p helemaal geen 4080 of 4090 nodig hebt. Je kunt dan met een 3080 of hoger ook vaak prima wat raytracing spelen, of 140+ fps op je scherm krijgen in gerasteriseerde graphics.
Dat kon de 2080Ti daarvoor ook al.

Waar de 3080Ti / 3090 etc eigenlijk de eerste werkelijk 4K waardige hardware was, liep je daar toch snel tegen limieten op. Dergelijke hardware had je al niet nodig voor "normale" resoluties, het verschil tussen 150 en 220 fps is uiteindelijke gewoon niet iets waar je als gebruiker wat aan hebt.

De 4000 en 7000 serie kaarten zijn echt maar voor 2 dingen goed: Hoge resoluties of RT/PT games. Voor als je een 4K 120hz scherm hebt of als je b.v. 3440x1440 Raytracing wilt maxen. Of het dat waard is laat even in het midden.

De 7900 kaarten van AMD missen daarmee een beetje hun markt; de 6950 was eigenlijk al snel genoeg in alles behalve RT, en de 7900 is veel sneller, maar blijft hangen op RTX3080 niveau.

Maar goed, hoeveel slechter is zo'n 3060 nu werkelijk? 1080p RTX gaat goed, 1440p anderszins ook. Je hebt eigenlijk een 2080 super voor die prijs nu. Als je die afzet met de ook ooit €450 kostende 1660Ti, of een GTX 260, GTX670 etc, dan krijg naar mijn mening een veel langer houdbaar product met kwa utiliteit van wat je kan spelen in games "meer" waar voor je geld.

De bovenkant van de markt is met name wat nu extreem veel meer ruimte heeft. Ik kan ook niet echt blij worden van de prijs van de RTX4090, maar het feit dat de optie bestaat kan ik wel waarderen. Natuurlijk had ik em liever rond €1500 gezien dan de huidige 1900-2300.

Dat je voor €500 niet meer aan de max zit is niet erg, dat is enkel sentiment. Als je minder performance krijgt voor hetzelfde geld, ookal is het relatief dan is dat veel erger. De 4080 is op dat vlak vs de 3080ti / 3090 kaarten een tegenvallertje...
Niemand praat het goed.
Nee? In een andere topic las ik toch echt dat weer iemand TFLOPs/prijs verhouding als argument gaf dat de prijsstijgingen verantwoord zijn.

Innovatie en concurrentie hoort het leven juist goedkoper te maken; niet evenredig duur te houden. Dat is tenminste de belofte van kapitalisme. Tuurlijk wordt het ontwikkelen van ICs duurder, maar de echt grote last zijn de aandeelhouders en de execs die meer dan meer willen verdienen. Niet alleen bij Nvidia en AMD; TSMC heeft ook veelte weinig concurrentie.

[Reactie gewijzigd door Z100 op 22 juli 2024 15:54]

Precies dit. Maar om 1 of andere reden gaan we het altijd goed praten dat de consument genaaid wordt, vooral hier op tweakers hebben we daar een handje van.
Inderdaad, dan komt er een lang betweterig, eloquent geschreven bijdrage die eigenlijk niets anders is dan 'mierenneu...'.
De prijzen zijn gewoon belachelijk geworden.
ah…dus om van mierenneuken te mogen spreken, moet het eloquent zijn? Scheelt dan dat je nooit voor mierenneu**r uitgemaakt zult worden.

Als je wat tegen een goed uitgeschreven mening hebt, schijf er dan zelf een even goed uitgeschreven betoog tegenin…Of moet het perse plat, boers en banaal zijn om waar te mogen zijn?

Doet verder niets af aan het feit dat de huidige prijzen voor top-end videokaarten de financiele rek van veel mensen zal overstijgen. Of Nvidea en AMD zichzelf daarmee een lol doen? Misschien wel niet. Misschien kopen mensen dan eerder een console of een 2e hands kaart. Of misschien hebben ze gezien dat er genoeg mensen zijn die scalpers ruim boven de 1000 euro willen betalen en willen ze nu zelf dat geld.

Belachelijk? Sterk woord. Verstandig op de lange termijn? time will tell.

Ik ben wel toe aan een nieuwe kaart. m’n 1070ti kan niet helemaal meer meekomen, maar voor meer dan 1000 euro kijk ik het nog wel even aan.
Je wordt niet genaaid. Je naait jezelf als je het koopt. Ik vind ook niet dat Ferrari of Porsche mij genaaid heeft in het verleden.
Heb jij dan een Ferrari gehad in het verleden? Om dezelfde analogie voort te zetten? :o :P.
Ja op schaal wel. Was teleurgesteld :P
Anologie gaat alleen op als alle andere auto fabrikanten richting dezelfde prijsklasse toe migreren, met de gedachte dat de consument toch geen andere keuze heeft.
Lekker wat oudere games spelen, goedkoper en geen nood aan hun nieuwste overpriced hardware. Zo leren ze het wel. Stemmen met je geld
Dat is inderdaad wat iedereen zou moeten doen.
Alleen dan kan er iets veranderen. We hebben nu het tegenovergestelde gedaan. Als we een paar jaar niets of alleen het goedkoopste halen, dan gaan ze eerst mensen ontslaan en besparen (want dat is namelijk dan het probleem 8)7 ) en daarna dalen de prijzen pas waardoor de omzet weer toeneemt.
Net zoals vele anderen heb ik nog een evga 1070TI thicc boi, die toen tijdens de vorige mining craze is gekocht in een aanbieding bij Alternate voor €519 . Dat was toen al “duur” voor die kaart.

Vroeger was het dat je voor de performance van een xx80ti kaart een nieuwe generatie xx70ti/80 kon kopen met de prijs die een xx70/80 had die generatie ervoor.

Nu zijn de prijzen xx70ti kaart met performance van een vorige xx80ti hetzelfde, maar nu zijn de prijzen hetzelfde als die xx80ti en de hogere modellen zijn er bovenop gestapeld
De huidige vraagprijzen voor GPU's waar veel consumenten gewoon klaar mee zijn.
De huizen prijzen zijn in ongeveer diezelfde periode verdubbelt, zijn consumenten dan ook opeens spontaan 'klaar' met huizen kopen? Nee natuurlijk niet, maar direct nu een huis kopen is vaak niet de meest economische oplossing (huizen prijzen zijn nu juist aan het dalen). Men kan echter gewoon blijven huren...

Hetzelfde bij GPUs, het is niet alleen het prijskaartje bij aanschaf van de premium GPU, het is ook de rest van de premium PC die alles behalve goedkoop is (CPU+mobo+geheugen). Daarnaast ook het verbruik van de hele PC is tegenwoordig extreem geworden en in verschillende delen van de wereld is de stroomprijs ook extreem gestegen (zoals Nederland, maar daar zijn we niet uniek in).

Zonder (gaming) PC kunnen velen echter niet, maar er zijn tegenwoordig ook zat alternatieven, zuinige mini PCs, laptops of zelfs een Stead Deck. De meeste daarvan hebben allemaal integrated graphics en kunnen super zuinig zijn. En voor alles waar de integrated graphics niet voldoende voor is kan je cloud gaming krijgen, vaak voor een prikkie. Voor de prijs van een highend PC + het jaarlijks verbruik daarvan kan ik een heel leuke mini PC game kopen (of Steam Deck) met jaren en jaren cloud gaming. Kan je daarmee alles spelen? Nee. Maar dat is aan de developers/publishers...

Wat probeer ik daarmee te zeggen? Zelfs 5 jaar geleden had men niet veel alternatieven, behalve wellicht consoles of hele dure virtual cloud PCs. Wat het niet echt tot een alternatief maakte, maar in de laatste paar jaar is er heel veel veranderd en hebben mensen best veel (betaalbare) alternatieven tot dure GPUs.

Ik kan een Elden Ring spelen op een super zuinige Steam Deck, het is niet super resolutie/settings, maar het kan. Als een uitgever echter een spel uitgeeft wat niet (fatsoenlijk) gespeeld kan worden op een Steam Deck of via een cloud dienst zoals GeForce Now, dan verwacht ik eerlijk gezegd minder sales en zolang consumenten meer keuze hebben, verwacht ik dat dit alleen maar een groter probleem gaat worden voor uitgevers... Wat ik eigenlijk geen groot issue vind. Wellicht dat developers meer tijd gaan besteden aan gameplay en schaalbare graphics (iets wat goed kan draaien op de Steam Deck, maar ook alles kan benutten van een 4090)...
De huizen prijzen zijn in ongeveer diezelfde periode verdubbelt, zijn consumenten dan ook opeens spontaan 'klaar' met huizen kopen? Nee natuurlijk niet, maar direct nu een huis kopen is vaak niet de meest economische oplossing (huizen prijzen zijn nu juist aan het dalen). Men kan echter gewoon blijven huren...
Hoewel ik mij grotendeels kan vinden in je reactie wil ik toch een nuance plaatsen:
Huis - Basisbehoefte/primaire levensbehoefte
PC - Secundaire levensbehoefte
Natuurlijk zit daar verschil in, maar een huis kopen is in Nederland geen basisbehoefte/primaire levensbehoefte, in een huis wonen is dat wel. En dat kan je ook huren... Of blijven wonen waar je al woont (en dat kan voor jongeren heel ruk zijn!).

Voor velen is een PC echter ook een indirecte primaire levensbehoefte, want ze hebben die nodig voor werk. En voor zij die bij een werkgever werken, zullen ze die krijgen van de baas, maar als je een opdrachtgever hebt (je bent zelfstandig ondernemer), zal je die zelf moeten regelen... Er zijn verschillende takken van sport waarbij een discrete GPU essentieel is.

Een huis is natuurlijk geen PC, maar het is wel een artikel welke enorm gestegen is de afgelopen jaren in prijs, mensen het zelfs in de dure periode kochten alsof het warme broodjes waren en er waren niet genoeg van. Men kon effectief vragen wat men wilde. En nu het slechter gaat met de economie en de specifieke markt, je ze een heel stuk minder makkelijk kwijt raakt en de tendens is dat de prijs alleen maar lager wordt. En mensen kunnen er voor kiezen om het niet te kopen omdat ze voldoende andere keuze hebben...
Voor velen is een PC echter ook een indirecte primaire levensbehoefte, want ze hebben die nodig voor werk. En voor zij die bij een werkgever werken, zullen ze die krijgen van de baas, maar als je een opdrachtgever hebt (je bent zelfstandig ondernemer), zal je die zelf moeten regelen... Er zijn verschillende takken van sport waarbij een discrete GPU essentieel is.
Je hebt een punt als je toevallig een ZZP-ende AI onderzoekende data analist bent of iets met media doet als 3d modelling of 4k video editing. Voor 99% van de beroepsbevolking is de GPU compleet irrelevant en voldoet een goedkope laptop waarop Word en Excel draait al...
Voor 99% van de beroepsbevolking is de GPU compleet irrelevant
Het scheelt dat 97% van de bevolking helemaal niets van doen heeft met een dGPU, dus is die 1% van de beroepsbevolking wel degelijk zeer significant...
[...]


Hoewel ik mij grotendeels kan vinden in je reactie wil ik toch een nuance plaatsen:
Huis - Basisbehoefte/primaire levensbehoefte
PC - Secundaire levensbehoefte
En als aanvulling: discrete grafische kaart - tertiaire levensbehoefte
Voor veel PC gebruik volstaat de IGP, voornamelijk de zware games vragen meer power
Na inflatiecorrectie zit er nog een dikke 80% groei in de prijzen voor midrange en high-end kaarten. De geheugenbandbreedte is daarentegen nog steeds vaak 256/384-bit voor high-end en 128/192-bit voor midrange. Nvidia heeft zijn marges flink op lopen schroeven, dat is duidelijk.
Volgens mij spring je naar de verkeerde conclusie. Je moet de totaliteit van de dingen begrijpen om een mening te vormen.

1. De nieuwe RTX4000 kaarten lopen voor op wat games en consoles (en dus gamers) nodig hebben.

2. Er is een groot RTX3000 stock. Niet enkel van Nvidia maar ook tientallen andere chips die uiteindelijk een RTX3000 kaarten worden. De RTX4000 nu goedkoop op de markt brengen zou alles kannibaliseren.

3. Wie koopt de 4000 serie? Een nichepubliek die kost wat kost alles op ultra willen spelen op 4K of een VR headset hebben. Die groep is eerder klein = dure GPU’s.

4. Die ultra settings kosten je vaak veel fps voor heel weinig meerwaarde.
Zelfs de 4070ti is overkill voor de high-end gamer en zolang je maar wegblijft van de ultra settings. Ook hebben game devs raytracing nog niet volledig benut. De meerwaarde is voorlopig eperkt.

5. Pc-gamers nog goed mee met €500-€700 kaarten. Die zijn high-end genoeg om meer frames te genereren dan de huidige generatie consoles. Voor €1000 euro bouw je een Game pc die zich kan meten met een Xbox X.

6. Het is niet dat GPU makers plots Gigantische chips gaan bouwen dat je die ook meteen nodig hebt. 500watt voor topmodellen is overkill voor de huidige games, of je wil persé alles op Ultra draaien, 120fps en 4K (of VR)

7. 10 jaar geleden kon je die TDP's enkel halen door SLI etc toe te passen. Nu proppen ze al die kracht in 1 giga chip. Zulke beesten bestonden vroeger simpelweg niet. 10 jaar geleden betaalde je toen ook veel voor SLI. En ook toen was het een niche.

Conclusie:

- De vraag is niet gedaald omdat de prijzen van den RTX4000 serie gestegen zijn. De vraag is gedaald omdat crypto mining in elkaar is gestort, omdat corona over is en omdat het turbulente tijdens zijn wegens oorlog en energiecrisis.
- Bijv: Een RX 6700XT (Beter dan Xbox X) van €450 met een TDP van 250watt komt wat prijs en TDP overeen wat je vroeger betaalde voor een GTX 980TI.
- Als je geen VR voor ogen hebt is er helemaal geen nood om een GPU te kopen die van meer dan €1000. Als je toch denkt of voelt dat nodig te hebben zou ik toch even 2x nadenken alvorens ongelukkig te worden van die prijzen.
Jouw conclusie is ook kort door de bocht.

Normaal zou ik nu durven kijken om mijn GPU te vervangen, ik heb nu een GTX1070Ti.
Door de prijzen die gevraagd worden voor RTX3xxx en RTX4xxx heb ik besloten om nog te wachten.
Ook de energie dat de nieuwe kaarten vragen is mij een beetje te veel van het goede.

Bron: ik ben een consument*
Je hebt nu een GTX1070Ti. Je hebt ooit €550 voor betaald? TDP = 180watt.
Als je naar TDP kijkt dan zou dan moet je uitwijken naar een RTX 3060ti met een TDP van 200watt en die kost je vandaag €450 en je hebt er 40% meer kracht voor terug. Zelfde verbruik, lagere prijs, meer fps en jij loopt te klagen dat alles te duur is?

De marketingafdeling van Nvidia wil natuurlijk dat je uitwijkt naar een RTX 3070ti maar die heeft een TDP van 290watt. En dat zie je ook aan de prijs terug want ze vragen er miniaal €750 voor.

Stel je neemt niet TDP als referentie maar puur Euro's en je zou nu €550 budget hebben dan zou je voor een RX 6800 of een RTX 3070 kunnen gaan. Reken op 70% meer kracht.

Dus ik begrijp uw redenering niet door te zeggen dat de nieuwe kaarten duurder zijn of minder zuinig.
Aanschafprijs was 480€.

Als ik de naamgeving van Nvidia mag geloven is de logische opvolger een RTX 3070Ti of een RTX 4070Ti.

Als ik nu een nieuwe kaart aanschaf verwacht ik wel dat deze meer VRAM heeft dan mijn huidige kaart.
Ik vind nu een kaart kopen met slechts 8GB VRAM dus geen slimme zet voor de toekomst.
Daarom valt de 3070Ti dus af, want slechts 8GB VRAM. De 3060 kan je wel krijgen met 12GB VRAM, maar die is een heel stuk zwakker dan de 3070Ti.

Dus ik moet dus eigenlijk upgraden naar een 4070Ti of een 3080.
En die kaarten kosten nu dus 1.000€ of meer ...
Maar grafische kaarten zijn altijd al beter geweest dan consoles. Dat is niet nieuw. Als je kijkt naar de adviesprijzen die Nvidia de kaarten meegeeft - los van of dat nou te hoog is of niet - worden ze voor veel meer in de winkels geplaatst. Feit blijft dan ook dat ze voor teveel geld te koop staan, waardoor veel consumenten gewoon nog even wachten. The waiting game zal er altijd zijn, want er komt altijd een beter kaart uit, maar nu is men veel bewuster van wat ze gaan uitgeven met de hiervoor benoemde redenen.
Persoonlijk (n=1) heb ik nog steeds een 1080 vanwege de prijzen van de 30 en 40 serie.
Of duidelijker, vanwege de schaarsheid van de 30 serie en de prijs nu ze weer verkrijgbaar zijn. De 40 serie is gewoon te duur om überhaupt te overwegen.

Tot 1000 euro wel ik best een xx80 (of amd alternatief) kopen, mits laatste generatie, maar dat zit er blijkbaar niet (meer) in. Dan maar niets.
Maar waarom "dan maar niets". Het is niet alsof de 3000 serie nu opeens niet meer goed genoeg is...

Een 3060Ti klopt de 1080Ti in werkelijke alles. Maar die kaart is "heilig" verklaard door velen. Omdat de prijzen (ook €750+ in veel gevallen) toen veel waar voor je geld gaven.

De lijn kwa kosten vanaf 3080 - 3080 ti - 3090 - 4070ti? - 3090ti - 4080 - 4090 loopt vrij recht wat kosten / prestaties betreft.

Er komen nog 4000 series modellen aan die betaalbaarder zijn, maar Nvidia wacht daarmee wegens de voorraden 3000 chips die er nog zijn. Natuurlijk hebben ze de tekorten in de markt lelijk bespeeld, maar het blijft een bedrijf met aandeelhouders. Ze zijn niet je vriend. Maar nu de 4000 serie er is en de 4080 12GB een "4070 Ti" is geworden doet verder niets af aan de prestaties.

Als er straks in Juni '23 wel een 4050 is die 2 maal zo snel is als je GTX1080 voor €400, dan ga je dat toch niet laten liggen puur om de naamgeving als je huidige kaart niet meer aan je wensen voldoet?
Voor VR heb je echt niet zon dikke GPU voor nodig. ik speelde alles prima met mijn RX 580 8gb op mijn oculus quest 2.

Al moet ik bekennen dat ik nu wel de RX7900 xt heb gekocht. en ik vanmiddag VR ga uitproberen hahahaha
Tja, ik had ook lange tijd VR als reden voor extra GPU power. Maar helaas bestaat de Quest 2 en gaat die zo belachelijk lang mee, waardoor VR behoorlijk stagneert. Aan de andere kant, nu is er een markt, als het bij €1000++ Valve headsets was gebleven dan hadden er ook niet zoveel VR games geweest natuurlijk.

Maar er zijn werkelijk maar weinig games in VR waar je een behoorlijke GPU voor nodig hebt. En waar je dan ook werkelijk meerwaarde uit haalt. Er zijn simpelweg erg veel games "zonder shaders" die amper 3-4GB VRAM gebruiken ook op hoge resolutie headsets.

Tuurlijk, ik kan zo 5 titels noemen die wél je hardware gebruiken, maar er zijn legio games die echt puur op de Q2 richten en ik baal ervan eerlijk gezegd.
Heel goed punt, Die paar games als HL Alyx en Boneworks/bonelabs zijn dan wel echt een uitzondering in graphics.
Tja, ik speel het liefst op de ultra settings en ga niet kloten met ground clutter of zo en als mijn 3080Ti dat niet aan kan wat het geval is denk ik toch dat ik een nieuw systeem nodig heb ivm powersupply en een inmiddels oud moederbord voor de next gen gpu. Dus je VR verhaal klopt niet.
Precies dat.
Ik had gehoopt dat de introductie van de nieuwe Amd kaarten de prijs wat zou drukken / de concurrentie zou stimuleren, maar daar is nog niet veel van te merken.
Voorlopig moet mijn Vega 56 nog maar een tijdje draven.
En indirect aan de oorlog in oost europa vraag ik mij af of Nvidia daar ook niet een beetje heeft misgeschoten door apparaten met een nog hoger verbruik op de markt te zetten in een tijd dat energie voor veel mensen al bijna niet te betalen is.
maar lager stroom gebruik is slechter prestaties, dus dan koop je een lager segment dus denk niet dat dat een reden kan zijn.
wat ik in zijn lijst mis is dat de nog duurder maken van een video kaart .
Ze zouden natuurlijk ook kunnen focussen op efficiëntie, zoals processors tijden hebben gedaan. Daar steeg het stroomverbruik en dus warmteproductie tot het moment dat die een bottleneck begon te vormen (Pentium 4). Daarna is er serieus effort gestoken in het verbeteren van de efficiëntie (Core modellen). Betere prestaties bij gelijk verbruik zou een mooi doel zijn.
Helaas lijken zowel processors als grafische kaarten tegenwoordig weer flink te stijgen in stroomverbruik. Voor een hoop mensen zal een forse stroomrekening na een forse initiële aanschafprijs mogelijk teveel zijn, en mijns inziens terecht. De grens van redelijk is ondertussen dik overschreden met de huidige high-end modellen.

[Reactie gewijzigd door mac1987 op 22 juli 2024 15:54]

CPU valt wel mee hoor enkel high end (wat de doornsee gebruiker niet ndoig heeft) gaat omhoog in tdp.
GPU enkel iets zoals een 4090 , amd heeft al jaren 350 watt voor hun topmodel
Dat is niet zo'n geweldig argument, moderne GPU's zijn behoorlijk efficient met een relatief kleine underclock. Dan bereik je inderdaad de "betere prestaties bij gelijk verbruik" of "Identieke prestaties bij een veel lager verbruik".

Het virtuele probleem is dat de stock speeds van moderne CPU's nogal hoog zijn, om hoge scores in benchmarks te halen. 2% beter is niet veel in games, maar kan wel het verschil maken met de concurrent.
Tuurlijk wel, veel consumenten wonen nog thuis of net alleen/samen waarbij het energieverbruik de laatste 12 maanden een enorme hap uit het maandelijks budget neemt. Neem daar dan nog eens de enorme gestegen prijs voor een Nvidia gpu bij... conclusie is redelijk snel gemaakt hoor.

Zelf al zouden we van 5% spreken, icm een overvloed van 2dehands gpus daar nog eens bij én de concurrentie van AMD... denk dat je al snel aan een 10-15% verloren omzet komt.
PS verhouding omzet-winst bij nvidia is bij de top weredwijd (zover ik me kan herinneren).
werkelijk waar nog nooit iemand gehoord over energieverbruik van gpu/pc
tuurlijk wel jongen die een zo energiezuinige/efficiente willen bouwen
maar iemand die zegt; ow die gpu verbruikt x wattage meer dan kaart y [..] dan koop ik m niet :N
Ik had een gaming laptop die ik ook voor werk gebruikte. (Licht Office gebruik.) ik kreeg van mijn werk een MacBook Air en heb zelf één Xbox series s gekocht voor het gamen en mijn stroomverbruik is drastisch afgenomen wat toch wel een goeie motivator was.
Hiero!

Ten tijde van de GTX960/1060 was 120W een normaal verbruik voor een x60 kaart. Toentertijd een 400W beQuiet gekocht, met het idee dat fabrikanten eindelijk doorhadden dat efficiëntie belangrijker was dan brute performance voor 400W.

En toen kwam Nvidia opeens met mislukkingen van 180W voor een x60 kaartje voor 400+ euro.
betaal je thuis zelf de stroom?
Zoniet, ben eens benieuwd wat die persoon die het betaald zou zeggen moest je ffe melden 'hey ik ga 1500EUR betalen aan een GPU die 450Watt zal verstoken wanneer ik aan het gamen ben".
Dan heb je een duidelijk andere groep mensen om je heen dan de gemiddelde consument
Gemiddeld consument koopt geen kaart boven de 1000 euro..
dus een persoon die 1500 euro gaat neertellen gaat op 50 euro meer letten op een jaar?
zoals ik zij als mensen minder stroom willen dan kopen ze de lager segment die dus goedkoper en zuiniger is.
Was het maar 50 euro per jaar... als je PC met high-end videokaart zo'n 400 watt trekt en je 4 uur per dag gamed (want je koopt zo'n ding niet als je af en toe even Candy crush speelt) heb je het met de tarieven van nu al snel over 500+ euro per jaar aan energiekosten.
maar lager stroom gebruik is slechter prestaties, dus dan koop je een lager segment dus denk niet dat dat een reden kan zijn.
wat ik in zijn lijst mis is dat de nog duurder maken van een video kaart .
Slechte prestaties heeft niet alleen met stroomverbruik te maken, maar ook met de afstelling in-game. Als jij alle spellen op ultra wilt spelen, dan vereist dat niet alleen high-end hardware, maar ook meer stroom. Zou je alles naar medium-high / high zetten, dan verbruikt het al iets minder stroom, terwijl de prestaties ongeveer gelijk blijven.
High-end hardware wil nog niet zeggen dat het veel verbruikt, tenzij de idle-verbruik hoog is.

Je kan ook de hardware een undervolt geven, waarop de CPU iets minder verbruik heeft. Je hebt altijd wel beetje performance verlies, maar de vraag blijft dan of jij die verschil gaat merken.
Bijkomende voordeel van undervolten is dat de temperatuur iets afzakt, waardoor de CPU langer op hogere frequentie kan draaien en thermal throttling minder voorkomt.

Komende op de opmerking over de prijzen van een GPU;
  • Marktafhankelijk; begin dit jaar was de crypto mining hot en waren de medium- en high-end GPU's te snel uitverkocht. Met als gevolg dat de prijzen gedeeltelijk stegen
  • Scalpers; die weten dat GPU's goed worden verkocht en kopen dus zo veel mogelijk op, om vervolgens met heel wat winst te verkopen. Wetende dat er chip tekorten waren en de mining, werden de prijzen hoog gehouden
  • Chip tekorten; doordat er een te grote tekort van chips was / is, kon er niet veel geproduceerd worden, wat ook vervolgens een schaarste gecreëerd wordt op de GPU markt
De combinatie van die 3, heeft er uiteindelijk voor gezorgd dat de prijzen exorbitant hoog waren t.t.t. de introductieprijzen. Waar de RTX3090 €1500,- was, kwam de prijs soms op €3000,- of meer uit.
En daarnaast speelt de factor dat fabrikanten elk jaar de prijzen iets omhoog doen, maar dat zijn wij met alles nu wel gewend.
De nieuwe gpus zijn stiller, zuiniger en hebben een betere performance per watt als je ze terugklokt, powercapped.
Koop dan een oudere generatie gpu voor weinig met dito stroomverbruik zou ik zeggen
Die oude heeft dus veel minder performance per watt
Het duurt jaren om een GPU te ontwerpen voordat deze op de markt is. Daar is dus geen rekening mee gehouden.
Dan koop je het product niet zo simpel is dat, je stemt met de portomonnee.
Je kan ook gewoon de lager gepositioneerde kaarten kopen die een veel lager verbruik hebben maar performance per watt nog steeds goed zijn. Die keuze ligt toch echt bij de consument.
Lijkt me dat het vooral de hogere prijs zelf is. De meeste mensen kijken echt niet naar het verbruik. Helemaal de mensen niet die ook ruim 1000 of 2000 euro uitgeven voor een GPU.

Nvidia heeft de markt nogal verziekt voor korte termijn winstmaximalisatie. Maar zoals altijd, verkloot dat (op termijn) gewoon de markt op dusdanige wijze dat deze compleet in elkaar stort.
Dit gaat zeker op. Ik vermoed dat er weinig overlap is tussen consumenten die hun energierekening met moeite kunnen betalen en mensen die gpu's van boven de 1000 euro kopen.

Ik zou me er ook niet druk over maken, al koop ik principieel geen graka boven de 1000 euro.
Zeker mee eens al zijn de plannen voor een 600watt kaart wel de kast in gegaan. Ze hadden ook voor 350 watt kunnen gaan ipv 450 watt. Echter is dat vooral hier in europa een probleem. Elders in de wereld is de stijging van stroom kosten beperkter.

Ik vind het zelf wel een hele vervelende trend dat CPU's en GPU's zo veel meer gaan verbruiken.
Ik ben zelf lekker aan het tweaken geslagen en heb nu profielen voor een 6950XT gemaakt van 110 watt en 200 watt. Die van 200 watt haalt zo goed als stock prestaties alleen dan met een 85 watt lager verbruik. en het 110 watt profiel levert wel iets van 24% prestaties in maar het verbruik is dan ook wel minder dan de helft.

Bij een 6700XT heb ik er ook 50 watt van af kunnen schaven of met 17% inleveren het verbruik van 186 watt naar 90 watt kunnen brengen.

Sowieso raad ik mensen aan om een FPS cap te gebruiken op de refresh rate van je scherm want dat scheelt ook al veel in verbruik als je kaart de target framerate makkelijk kan halen. Als je er de hele tijd onder zit helpt het natuurlijk niet.

[Reactie gewijzigd door Astennu op 22 juli 2024 15:54]

De GeForce RTX 3080 Ti Laptop GPU heeft een max TDP van 115W. Wat mij doet denken dat ze een desktop kaart hadden kunnen maken die krachtiger is met een max TDP van 150W,

Verbruik van huidige kaarten zijn niet normaal. 450W voor de 4090 en 320W voor de 4080.
Waarom zou NVidia een desktop kaart maken met een harde limiet van 150W, als je dat ook in software kunt doen?
Vroeger hadden ze de GTX 1660 super. Een kaart met een TDP van 125W dat je in 2020 kon kopen voor ongeveer 250 euro. Een kaart die gelijk presteert aan de 3050 die een TDP heeft van 130W en ongeveer 320 euro kost. Geen vooruitgang qua prijs en verbruik.

Maakt mij niet uit of ze het hardware matig doen of softwarematig, zolang ze in 2023 een kaart kunnen uitbrengen met een verbruik van maximaal 150W TDP, dat minstens 25% sneller is dan de 1660 super en niet meer dan 300 euro kost.

Prijs/prestatie/verbruik verhouding is niet vooruitgegaan.
Nou de nieuwe RTX 4080 is twee keer zo snel (Blender) en verbruikt minder dan mijn huidige RTX 3080 dus nee dat verhaal gaat niet op.
Het zijn ook vooral de consumenten prijzen. Ik upgrade elk jaar mijn GPU ( 80 serie ) en dat doe ik al een jaar of 10 zo. Maar nu met de belachelijke prijzen doe ik dat dus niet meer en zeker niet met Nvidia.
Volgens mij valt dat wel mee. Als mensen hun energie niet kunnen betalen kunnen ze ook geen RTX 4000, 500 Watt TDP kaart betalen van €1000+. Die kaarten verbruiken zoveel omdat ze daar gigantisch veel transistors in proppen in een gigantische chip. Watt per FPS is de nieuwe generatie best zuinig.

Wens je wat te sparen op energie dan kan je gewoon een midrange kaart kopen van +- 200 watt TDP. Mogelijk dat er over een jaar een GTX 4050ti uitkomt aan €450 met een TDP van 230watt. Maar de 3000 serie chips zijn nog volop in stock, die moet eerst buiten.

[Reactie gewijzigd door Coolstart op 22 juli 2024 15:54]

Ja dat, plus:
In mijn game PC zit een GTX 1070, in 2017 (!) gekocht voor 250 euro.
Vandaag zou een performance equivalente kaart een GTX 1660 SUPER zijn,
te koop voor 275 euro, dus plm hetzelfde met wat inflatie.
.
Er is dus in 5 jaar tijd qua GPU prijs / prestatie *niets* verbeterd,
terwijl de onderliggende chip technologie wel flink verbeterd is:
https://en.wikipedia.org/wiki/5_nm_process
.
Ik heb momenteel dus ook even geen motivatie om een nieuwe GPU card te kopen.
En voor full HD gaming is het prima zo.

[Reactie gewijzigd door Geekomatic op 22 juli 2024 15:54]

Je ziet het ook terug in de Pricewatch, waarbij er erg oude kaarten nog steeds voor de prijzen van bij de lancering verkocht worden. Die hadden natuurlijk allang van de markt verdwenen moeten zijn en ook in de budgetmarkt vervangen moeten zijn door veel nieuwere modellen.

Dit geeft aan dat de markt ernstig verstoord is. Ik heb dan ook al sinds 2016 niets nieuws aangeschaft. Een modernere GPU schaf ik wel tweedehands aan. Dan verdienen AMD en Nvidia daar verder ook niets aan en dat vind ik prima.
Klopt er zit in dat opzicht niet veel vooruitgang meer in. In de USA is de 2e hands markt nog een goede optie. Ook last gen was daar te krijgen voor leukere prijzen maar hier in de EU zijn de prijzen hoog gebleven.
Dat ligt meer aan de prijspunten die jij kiest. De GTX 1070 kwam in 2016 uit voor zo'n 450 euro. In 2017 kwam er nog een piek naar 600 euro die zich herhaalde begin 2018.

Voor datzelfde bedrag had je in 2020 de RTX 3060 Ti, 449 euro voor de MSI 8GB D6 RTX 3060 Ti Ventus 2X OC bij Alternate, die min of meer dubbel zo snel is. Dus de prijs per euro was in theorie in 4 jaar verdubbeld. Echter hebben we helaas wéér last gekregen van de mining hype en zijn de prijzen geëxplodeerd. Dus ging in de praktijk voor de meeste mensen die vlieger niet op.

De nieuwe 4xxx reeks lijkt wat dat betreft erg op de 2xxx reeks, die zat ook net na een mining hype en was qua prestatie per euro niet overtuigend. Ik herinner me de 2060 super als nog wel een aardige deal, wellicht dat de refresh van de 4xxx interessanter wordt.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 15:54]

Dat ligt meer aan de prijspunten die jij kiest. De GTX 1070 kwam in 2016 uit voor zo'n 450 euro. In 2017 kwam er nog een piek naar 600 euro die zich herhaalde begin 2018.
Inderdaad, ik wou net zeggen, hoezo €250? Mijn 1070 mini was 460, en dat was duur vanwege crypto mining (de ironie). En in de pricewatch is ie nooit 250 geweest. En snel rondklikken op andere 1070's is er geeneen die een dergelijke prijs heeft aangetikt.
Vergeet niet de achterlijke prijzen voor de meeste GPU's, gamers die zuiniger met geld omgaan gaan dat echt niet betalen (zowel Nvidia als AMD). Die wachten wel tot wanneer het weer gedaald is naar oorspronkelijke prijzen of in de buurt van oorspronkelijke prijzen.

Helaas zijn er ook gamers die met geld smijten. Die verpesten het eigenlijk voor de rest.

[Reactie gewijzigd door Remzi1993 op 22 juli 2024 15:54]

Houd er wel rekening mee dat een deel van de prijsverhoging komt door de gedaalde waarde van de euro, al is dit ondertussen wel wat bijgetrokken. Maar zolang de euro nog zo'n 10-15% minder waard is dan vroeger, zullen de prijzen alleen al daardoor 10-15% hoger liggen.
ik kocht een GTX1080 op dag van release voor 550 euro... Wat toen al een behoorlijk bedrag was. Betaal je voor de nieuwe RTX4080 gewoon minimaal het dubbele.
Dat snap ik natuurlijk ook, inflatie is helaas altijd een ding. Maar de prijzen nu zijn veel hoger dan de inflatie. Dat is gewoonweg hebberigheid van zowel Nvidia als AMD. AMD had zijn slag kunnen slaan en marktaandeel kunnen winnen door normale/lage prijzen te hebben, ook die zijn hebberig. Gelukkig stort alles wel weer een keer in elkaar.
Hoe sneller alles in elkaar stort, hoe beter. Dan kunnen er andere bedrijven in de markt komen en concurreren op basis van prijs en kwaliteit in plaats van de situatie nu, waarin er sprake is van een oligolopolie dat veel weg heeft van een kartel.
Ik weet het niet, zolang de consument schijnbaar nog steeds bereidt is om de “huidige” prijzen te blijven betalen gaat dat niet gebeuren, dit signaal namelijk al veel eerder afgegeven.

De consument zal dan toch echt wat meer met zijn portemonnee moeten gaan stemmen, wellicht hebben we dat punt nu bereikt.
Beetje zelfde als de terugvallende vraag naar EV's, mensen krabben zich nog wel even achter oren als het om elektriciteit slurpende apparaten gaat.
En veel gamers hebben in de coronatijd een gpu gekocht waar ze normaal nog 1 a 2 jaar zouden wachten.
Daarnaast zolang je niet staat te springen om 4k of 144hz. zitten we ook even in een dal kwa "noodzaak voor nieuwe gpu's" je kunt ook nog steeds prima vooruit met een gpu van jaren oud.
Nog een rede: De performance per euro neemt niet toe. Waarom zou je een nieuwe videokaart kopen als je huidige kaart dezelfde performance per euro heeft?
Nog een rede: De performance per euro neemt niet toe. Waarom zou je een nieuwe videokaart kopen als je huidige kaart dezelfde performance per euro heeft?
Wanneer je meer totale prestaties nodig hebt, bijvoorbeeld voor een 3440x1440 ultrawide monitor.
Stroomprijzen zijn ook om te huilen, dus als de crypto koersen weer omhoog gaan, blijft mining alsnog niet rendabel lijkt me.
Zou het ook te maken kunnen hebben dat Nvidia exorbitante prijzen vraagt voor zijn videokaarten?
En het kan ook te maken hebben, dat de huidige videokaarten nog meer dan voldoen?
Ik speel nu bijna drie jaar op mijn 2060. En kan gewoon nog heerlijk gamen op 1080p met 60fps.
Wat gaat een 3060 of tegen die tijd een 4060 nog uitmaken dan?
Die gaan alleen wat uitmaken als je upgrade naar 1440p of 4k, dat trekt je 2060 net niet meer
We gamen hier zonder problemen op 1440p op een GeForce GTX 1070 8G. Je hebt echt geen 3000 of 4000 serie nodig om te gamen.
Ligt natuurlijk ook aan de games, en je grafische instellingen. Maar als je 1440p wilt op de nieuwere games, met 60fps, dan krijgt een 2060 het moeilijk. Niet altijd natuurlijk, je instellingen wat verlagen kan ook, indien mogelijk, maar dan krijg je de discussie "hogere resolutie" vs "hogere settings"
Elden Ring medium/high settings op 1440p op 60fps met een GTX1070.
Tja 1 game, ik heb de laatste call of duty op een 3060TI op 1440P niet eens op maximaal staan maar game krap aan op 100FPS, met dipjes naar beneden. Dat red je echt niet meer met een 1070.
En misschien dat jij medium/high goed genoeg vind, maar ik kan erg genieten van games op ultra settings, dus 1070 is prima voor jou, maar niet voor mij. Alleen de 3060TI heb ik voor 550 kunnen kopen, in verhouding zou die nu rond de 900-1000 gaan kosten, dat ga ik dus echt niet doen.

Nvidia heeft vorig jaar een netto winst gedraaid van 1,3 miljard dollar. Dat is echt niet omdat de marge op een videokaart krap is.
Je persoonlijke voorkeuren mogen er natuurlijk ook zijn. Ik reageerde meer op je opmerking dat zelfs een 2070 niet meer voldoende zou zijn. Hier gamen ze op de 2070 ook competitief en op prima niveau.

De 1070 heeft nu zijn langste tijd wel gehad, daarom dat ik een 4080 ga kopen, maar vooral omdat videobewerking met 4K en 8K bestanden niet meer zo lekker gaat.
De prijzen waren vorig jaar veel hoger. Dit is puur het effect van cryptomining.
En hoge elektraprijzen waardoor het in vrijwel de hele wereld niet meer leuk is om nog (als hobby) te doen.
Door de niet afnemende performance per euro blijft de gemiddelde GPU snelheid in gaming PCs ongeveer gelijk, denk ik ja. De uitschieters zijn hoger, maar de realiteit is dat de meeste mensen gewoon geen 300+ euro aan een GPU uitgeven.
Leuk onderzoek en ik hoop dat vooral Nvidia hier iets mee gaat doen. Die prijzen zijn niet normaal. Voor het geld van 1 4090 heb je een monitor, console, laptop, een aantal games plus extra controllers. En dan heb je bij die videokaart geeneens een monitor en de rest van de pc dus het verschil is nog groter. En dan die prijzen van de Intel moederborden die omhoog zijn geschoten.

Daarnaast blijkt dat een GTX1060 nog altijd behoorlijk wat games kan spelen. Dus waarom upgraden als het nog altijd goed werkt en redelijke FPS behaalt?

De markt is gewoon verzadigd na zoveel jaar crypto-gekte en nu dat gecrasht is komen alle kaarten op de tweedehands markt waardoor nieuwkoop hieronder lijdt. Over een jaar of 2-3 zal het zeker weer aangetrokken zijn tenzij partijen als Nvidia hun prijzen niet verlagen of we in een dikke crisis komen. Dan geeft niemand meer iets uit of schuift alles richting consoles.
Maar waarom zou je een 4090 kopen ?

Ik snap dat gezeur over de prijs van die 4090 niet zo. Net alsof alle golf4 eigenaren gaan klagen dat ze hun auto wel willen vervangen, maar een rolls royce zo duur is geworden
Dat de Rolls Royce duur is, lekker boeien.

Dat de goedkopere versies van de RR nog steeds belachelijk duur zijn, dat heeft zeker zijn effect op hoeveel performance je kunt kopen voor je euro.

Je moet dus al rete veel betalen voor een vervanger van je golf.

Voor de prijs waar jij 3 jaar geleden je golf voor hebt gekocht, is er nu niets nieuws meer te koop, anders dan een 2 jaar oude polo.
De 4090 is het probleem niet. Dat is een extreme kaart voor een extreme prijs. Het probleem is dat de prijs/performance van de 4080 net zo slecht is en de 4070 Ti ook zo slecht lijkt te worden.

Helaas komen op onze tweedehandsmarkt trouwens helemaal niet zoveel kaarten. In de VS is de tweedehands markt veel beter.
De markt is niet gekrompen, ze maken namelijk producten voor een markt die kleiner is. Niet iedereen heeft 1000 euro plus over voor een videokaart. In de range tot 500 euro is afgelopen jaar weinig vernieuwing geweest, dus waarom upgraden?
Jij weet het beter dan de professionele analist?
Goed lezen!

Wat friket bedoelt is dit.
Als de totale markt bestaat uit 2 groepen kopers. De groep die kaarten van e200 koopt en de groep die kaarten van e1000 koopt.
Als je dan als fabrikant alleen wat leuks uitbrengt voor de e1000 groep, dan krimpen de verkopen maar de markt niet echt. De e200 groep koopt zodra er iets leuks voor hun budget op de markt komt
Dalende vraag, dus dalende prijzen. Ik blijf hopen... :X
Ik vrees van niet. De vraag vanuit datacenters stijgt harder dan de consumentenvraag daalt.
Dat maakt deze GPU's dus geschikter voor datacentra, terwijl consumenten eigenlijk eerder naar andere GPU's zouden moeten gaan kijken, bijvoorbeeld die met PowerVR en Intel chips. Of ze zouden gewoon voor APU's/SoC's kunnen kiezen.
Hoge prijzen en crypto die instort :

https://www.google.com/se...refox-b-d&q=bitcoin+price

Dat komt redelijk goed overeen

[Reactie gewijzigd door k995 op 22 juli 2024 15:54]

En de grafiek van elektra en gas ook...
In 2018 klapte de verkopen van GPU’s met meer dan 50% in dankzij de enorme verliezen op crypto.

Nu zien we weer het inzakken van de verkopen dankzij crypto, al is de aanleiding anders.

Dus de marktvraag gaat weer terug naar normaal? Dan hoop ik de prijzen ook weer!
Tja het verbaasd me niks, crypto crash gecombineerd met belachelijke prijsen het is economisch gewoon niet logisch om voor een nieuwe GPU te gaan. het duurt gewoon veel te lang om met opvolgers van kaarten onder de €300 prijs categorie die ook betere fps per € geeft want dat heeft veel te lang gestagneerd.
De 3000 serie was ook veel te duur geworden door Covid en het minen.
En nu met de 4000 serie lijkt het erop dat een midrangekaart (4070) meer dan €1000 gaat kosten.
De 2070 had nog een MSRP van €500 en dat was toen al best prijzig.
Dat de markt voor dicrete GPU's is ingestort lijkt me dus eigenlijk vrij logisch, niemand die zo'n dure kaart koopt en al helemaal niet als het niet eens de top of the range kaart is.
Mij valt vooral op dat de voorraden bij webshops nog altijd zeer beperkt zijn. Ja de 3060 Ti is nu voor 465 euro morgen in huis. Maar vervolgens zie je dat er helemaal niet zo gek veel op voorraad liggen. Vroeger zag je bij kaarten gerust 300 stuks 'bij leverancier', nu zijn het er eerder 50. Van de gewone 3060 zijn er uberhaupt nog webshops die letterlijk 1 stuks op voorraad hebben. De 3xxx serie is in algemene zin nog altijd lastig te vinden. Probeer maar eens een 3080 te vinden.

Azerty voorraad >1 optie:
GeForce RTX 3060 11
GeForce RTX 3070 10
GeForce RTX 3050 9
GeForce RTX 3060 Ti 8
GeForce RTX 3070 Ti 7
Radeon RX 6500 XT 6
GeForce RTX 4080 5
GeForce GTX 1630 4
GeForce RTX 2060 4
Radeon RX 6700 XT 4
GeForce GT 1030 3
GeForce GT 710 3
GeForce RTX 4090 3
Radeon RX 6750 XT 3
Arc A750 2
GeForce GT 730 2
GeForce GTX 1650 2
Radeon RX 6650 XT 2
Radeon RX 6950XT 2

[Reactie gewijzigd door sdk1985 op 22 juli 2024 15:54]

er word niet veel op de schap gelegd want niemand wilt de bedragen betalen die nvidia eist om er vervolgens niet meer vanaf te komen. het is geval van wie het eerst knippert.

en afgzien van de miners zullen veel mensen ook niet veel zin hebben om hun inmiddels >8< jaar oude gtx1080 om te ruilen voor een 3080tie van bijna 500 euro die bekant niet eens 25% sneller is.

[Reactie gewijzigd door flippy op 22 juli 2024 15:54]

Op dit item kan niet meer gereageerd worden.