DigiTimes: Nvidia stelt 3nm-gpu's uit naar 2025

De volgende generatie Nvidia-gpu's die wordt geproduceerd op een 3nm-chipprocedé van TSMC, verschijnt pas in 2025. Dat melden ingewijden aan DigiTimes. Nvidia zou de release hebben uitgesteld vanwege de teruglopende pc-markt en 'economische spanningen'.

DigiTimes meldt dat, naast Nvidia, meerdere partijen hun 3nm-productie hebben vertraagd. Zo zou AMD in 2025 nog steeds op het 4nm-procedé of hoger zitten, en ook twijfelt de site eraan of Qualcomm en MediaTek zich zullen houden aan hun 3nm-plannen. Een uitzondering is Apple, die volgens de site geen wijziging heeft aangebracht in de planning om 3nm-chips te gebruiken voor de iPhone 15 en M3-soc voor iMacs.

Als Nvidia inderdaad pas in 2025 zijn 3nm-videokaarten uitbrengt, zou dat betekenen dat er dit jaar en volgend jaar geen nieuwe GeForce-gpu's uitgebracht gaan worden. Volgens geruchten krijgt de volgende generatie RTX-videokaarten, naast 3nm-wafers, een monolithisch chipontwerp, in plaats van een chipletdesign. De zogenoemde Blackwell-gpu's zouden dubbel zo snel moeten zijn als de RTX 40-serie. Wccftech verwacht dat er de komende tijd voornamelijk 'kleine vernieuwingen' zoals een RTX 4090 Ti en 4080 Ti uitgebracht zullen worden, al zou de fabrikant nog met veel overtollige voorraad zitten door de dalende vraag naar videokaarten en daarom niet veel nieuwe gpu's willen produceren.

Door Kevin Krikhaar

Redacteur

30-04-2023 • 12:05

132

Reacties (132)

Sorteer op:

Weergave:

De zogenoemde Blackwell-gpu's zouden dubbel zo snel moeten zijn als de RTX 40-serie.
Dubbel zo snel en verbruikt nog meer stroom... :+

Dat is natuurlijk pure speculatie (net als de dubbel zo snel trouwens), maar dat is wel wat de trend volgt momenteel.

Voor gaming zie ik via Steam hwsurvey dat de gehele RTX 40-serie voor niet eens 1% van het marktaandeel heeft. De populairste kaart is de 3060 met een ruim 10 % markt aandeel. De 3060/2060/1060 zijn samen goed voor ruim een kwart (25%+) van het totale markt aandeel (en daarvoor heeft Nvidia niet een een RTX 40-serie equivalent voor uitgegeven, niet in serie nummer en niet in prijs.

Note: Volgens Steam hwsurvey heeft Nvidia 80%+ van de GPU markt in handen. AMD en Intel samen nog geen 10% en van een kleine 10% gaat men niet in detail.

Van mijn oude (8.5 jaar) GTX970 zijn nog steeds meer kaarten in gebruik dan van welke RTX 4000 serie, zelfs twee keer zoveel dan bv. de RTX 4070.

Het is niet alleen de economische neergang, maar ook het hele pc consumenten hardware landschap veranderd, gedeeltelijk gedreven door de hoge prijzen van de nieuwste (high-end) CPU/GPU/mobo. Met zaken als cloud streaming, een enorme backcatalog van goede games die niet zware hardware vereisen, veel goede indie games en zelfs AAA publishers die games uitgeven die niet het onderste uit de kan vragen van je hardware. Zal een gebruiker minder snel de noodzaak zien om nieuwe hardware te kopen.

Doordat Nvidia de boel uitsmeert kunnen ze de R&D over een langere periode afschrijven. Een nieuwe GPU elke drie jaar ipv. elke twee jaar. Maar hoe langer ze dat doen, des te eerder gaat dat issues opleveren voor hun server tak...

Bron:
https://store.steampowered.com/hwsurvey/
De vraag is echter wel hoe betrouwbaar de Steamsurvey is. Kijk bijvoorbeeld eens naar de door jou aangehaalde RTX 3060.

In november 2022 zit deze op 3.41% van de install base van de machines in de survey
In december 2022 is dat 3.88%, of te wel een bescheiden groei maand op maand
In januari 2023 is het 3.67%, of te wel een bescheiden daling maand op maand.
in februari wordt niet benoemd
en dan in maart 2023 is het ineens 10.67%, dat is een zeer onwaarschijnlijk hoog groei percentage, dat je ook bij enkele andere kaarten terug ziet. Het lijkt er haast op dat ze weer zo'n fout gemaakt hebben als enkele jaren geleden, waarbij ze hardware in (chinese) internet / game cafe's meerdere malen meetelden.

Hou er daarnaast ook rekening mee dat de Steam Survey niets zegt over marktaandeel, maar over installed base.2 zeer verschillende dingen. https://en.wikipedia.org/wiki/Installed_base
Installed base of a product is the number of units that are currently in use by customers. It provides a measurement of a company's existing customer base and the extent of their investment in a particular product or technology. In contrast to market share, which only reflects sales over a specific period and relative to the total market, the installed base represents the number of units currently in use. This information can be used to evaluate a company's customer base, investment, and market position.

[Reactie gewijzigd door Dennism op 23 juli 2024 10:47]

en dan in maart 2023 is het ineens 10.67%, dat is een zeer onwaarschijnlijk hoog groei percentage
Hou er rekening mee dat de 3060 een nieuwe iteratie heeft gekregen en dat wellicht kan betekenen dat de aantal verkopen daardoor enorm zijn gestegen. Of dat Chinese internet cafe's zijn of gamers in Nederland die dat prive hebben aangeschaft. Of hint je erop dat als een specifieke computer 200 gebruikers heeft gehad deze 200x in de Steam hwsurvey wordt opgenomen?
Hou er daarnaast ook rekening mee dat de Steam Survey niets zegt over marktaandeel, maar over installed base.2 zeer verschillende dingen. https://en.wikipedia.org/wiki/Installed_base
Dat het de 'installed base' is, sure. Maar dat het geheel niets zegt over marktaandeel is ook niet waar. Marktaandeel is immers het aantal verkochte eenheden in een bepaalde (ongedefinieerde) periode, dat kan dus net zo goed de afgelopen 10 jaar zijn. Tenzij hier bepaalde videokaarten meerdere keren worden geteld, is dit ook een goede indicatie van het marktaandeel.
Of hint je erop dat als een specifieke computer 200 gebruikers heeft gehad deze 200x in de Steam hwsurvey wordt opgenomen?
Niet exact dit, maar inderdaad wel een mogelijke meetfout die hier op lijkt, daar dit in het verleden vaker is fout gegaan bij de Steam Survey. Zie als voorbeeld: https://www.tomshardware....survey-cpu-gpu,37007.html

Daarnaast, het argument dat de verkopen enorm gestegen zijn lijkt vreemd, immers de markt is enorm ingestort, in zoverre zelfs dat zou iedere dGPU verkocht in feb / maart (2/3de van een kwartaal maximaal) een 3060 zijn dat dit eigenlijk nooit zo'n verschuiving te weeg kan brengen in een install base zo groot als de groep steam gebruikers. Zeker niet daar de verwachting daar is dat Q1 2023 nog slechter gaat zijn dan Q3 en Q4 2022. Of dat ook inderdaad klopt zullen we als het goed is snel zien, daar JP snel met nieuwe cijfers over Q1 hoort te komen.

Daarnaast zal natuurlijk niet iedere verkochte GPU in Q1 2023 een 3060 zijn, waardoor het nog onwaarschijnlijker is dat de 3060 zo'n sprong kan maken. Wat ook opvalt is dat de 2060 en de 1060 ook relatief vreemde stappen maakt vergeleken met de maanden ervoor.

Zie hier de verkoopaantallen van de laatste 9 jaar: https://imgur.com/kSLLS5j
Maar dat het geheel niets zegt over marktaandeel is ook niet waar. Marktaandeel is immers het aantal verkochte eenheden in een bepaalde (ongedefinieerde) periode, dat kan dus net zo goed de afgelopen 10 jaar zijn.
In theorie klopt dat inderdaad, echter in de praktijk is het gewoonlijk zo dat wanneer er over marktaandeel wordt gesproken, en er wordt geen afwijkende periode gedefinieerd, dat men het heeft over een periode van 3 maand, normaal gesproken het meest recent gesloten kwartaal.

[Reactie gewijzigd door Dennism op 23 juli 2024 10:47]

Ik denk dat mijn vermoeden inderdaad wel eens kon kloppen, de nieuwe Steam survey is uit en de cijfers zien er ineens weer heel anders uit en sluiten veel meer aan bij de eerdere data: https://store.steampowered.com/hwsurvey/videocard/

De 3060 verliest ineens 6%
De 1060 verliest bijna 3%
De 2060 verliest 3.6%

en zo zijn er meer kaarten die normaliseren na vreemde stijgingen in maart.
Je reactie behoorlijk speculatief. Net zo speculatief als ik zou vertellen dat ik ook aandeel heb in die verhoging van de 3060, omdat in / na januari de gemiddelde prijs daarvan onder de psychologische grens van 400 euro was gezakt. Enigszins relatief acceptabele prijzen voor een normale PC gamer na de uitbundige prijsstijging van grafische kaarten.
Ten eerste kijkt de steam survey niet naar verkopen, maar naar de kaarten die in gebruik zijn bij mensen die steam gebruiken en toestemming geven om hun systeem mee te nemen in de survey.

Om dan van 3.67% van de userbase ineens naar 10%+ van de userbase te gaan in zo'n extreem korte periode is natuurlijk hoogst ongewoon, dat bereik je immers niet met een paar extra in gebruik genomen kaarten in een ingestorte gpu markt. van 3.x% in de steam survey naar 10+% bij een statistisch correcte meting zou in principe over miljoenen kaarten moeten gaan die ineens opduiken bij steam gebruikers over een periode van enkele weken.

Daar komt nog bij dat de 3060 niet de enige kaart is waarbij zo'n vreemde verhoging zichtbaar is, bijvoorbeeld de 2060 verdubbeld ook bijna in diezelfde periode en ook de 1060 gaat keer 1,5.

En dat in een periode dat de markt voor videokaarten volledig in ingestort en er dus eigenlijk weinig veranderingen te verwachten zouden moeten zijn, omdat de installed base amper zou moeten groeien in die periode en de verschuivingen dus ook minimaal zouden moeten zijn qua nieuwe aanwas.

[Reactie gewijzigd door Dennism op 23 juli 2024 10:47]

dan in maart 2023 is het ineens 10.67%, dat is een zeer onwaarschijnlijk hoog groei percentage, dat je ook bij enkele andere kaarten terug ziet. Het lijkt er haast op dat ze weer zo'n fout gemaakt hebben als enkele jaren geleden, waarbij ze hardware in (chinese) internet / game cafe's meerdere malen meetelden.
Maar als je je user-base wil onderzoeken, moest je dit niet bedoeld meetellen? Uiteindelijk gaan gebruikers betalen voor je spelletjes, niet z'n hardware ;)
Destijds gaf Steam zelf aan dat ze dat niet hadden moeten doen en dat het een fout was van hun kant. Zie hier voor uitleg van destijds: https://www.tomshardware....survey-cpu-gpu,37007.html
Het lijkt er trouwens inderdaad op dat zo'n fout nu weer gemaakt is, want de cijfers van april 2023 laten een beeld zien dat veel beter aansluit bij de vorige maanden https://store.steampowered.com/hwsurvey/videocard/

[Reactie gewijzigd door Dennism op 23 juli 2024 10:47]

Normaal gesproken als de vraag terug loopt betekent het, je moet beter je best doen.
Maar tegenwoordig is het, we moeten minder ons best doen...
betekend dat er te weinig concurrentie is.
als amd en intel er wel een stap bij doet kan dat een shift in de markt betkenen. blijkbaar een risico dat ze willen nemen
betekend dat er te weinig concurrentie is.
als amd en intel er wel een stap bij doet kan dat een shift in de markt betkenen.
Het kan ook betekenen dat technologisch gezien er onvoldoende rek is om een stap extra te doen. Hooguit kunnen nog kleine stapjes worden gezet die niet veel zoden aan de dijk zetten, zoals raytracing en fancy upscaling.

Oftewel wat veel mensen maar niet willen zien: de wet v Moore loopt op z'n einde en producenten lopen steeds harder tegen de "power wall" aan. Het is vergelijkbaar met praktische maximum snelheid en brandstofverbruik van auto's.
Je kan nog zo graag willen maar er zijn harde natuurkundige limieten aan technologie. Vandaar dat er qua prijs/prestatie en prestatie-per-watt de afgelopen paar generaties steeds minder vooruitgang wordt geboekt tov voorgaande generaties.
Daarom is die verkleining naar 3nm zo belangrijk: kleinere verbindingen betekent minder stroom nodig, minder hitte dus 'gratis' extra performance.
Dat het verkleinen al jaren langzamer gaat is wel een ding. Daarnaast is het voor veel toepassingen tegenwoordig al snel 'genoeg'. Een beetje browsen en Office lukt ook op een 10 jaar oude PC prima. Dat vertraagt de ontwikkelingen ook omdat er minder nieuwe processors en GPU's verkocht worden.
Daarom is die verkleining naar 3nm zo belangrijk: kleinere verbindingen betekent minder stroom nodig, minder hitte dus 'gratis' extra performance.
Dat het verkleinen al jaren langzamer gaat is wel een ding.
De huidige generatie chips wordt idd simpelweg sneller en/of zuiniger door die op een kleiner proces te fabriceren.
Maar ook al sinds het begin van halfgeleider technologie een trend is om verkleining van transistors te gebruiken om meer transistors in een chip plaatsen (nieuwe generatie). Naast de bekende voordelen heeft dat in combinatie met het feit dat zgn lekstroom per transistor relatief toeneemt bij verkleining, tot gevolg dat de hoeveelheid elektrisch vermogen per chip-oppervlak toeneemt. Daardoor wordt koeling een steeds groter probleem.
Vergelijk de eerste generaties van CPUs die een paar Watt verbruikten en zonder koeling toe konden, met het steeds maar toenemende vermogen tot tegenwoordig zo'n 100 Watt of meer en steeds grote koelers nodig hebben. Natuurlijk is performance en ook performance-per-watt sterk toegenomen, maar koeling is inmiddels een dusdanig probleem dat om oververhitting te voorkomen minder performance wordt geleverd juist als je meer performance zou willen (throttelen under load).
Dat is de "power wall".
Daarnaast is het voor veel toepassingen tegenwoordig al snel 'genoeg'.
Dat is zeker een belangrijke oorzaak voor afnemende verkopen; onder consumenten is minder vraag naar snellere hardware.
Maar ik denk dat het niet een oorzaak is voor vertraging van ontwikkelingen, want consumenten GPU's en CPU's zijn afgeleiden van hardware die voor de professionele sector wordt ontwikkeld, en die sector groeit juist vrij snel (datacenters, datamining, AI/deep learning e.d.) en de vraag naar snellere hardware neemt daar niet af, die neemt daar eerder toe omdat de toepassingen daar steeds complexer worden.
Ook. maar die concurrentie bestaat decinnia niet.
Eerlijk gezegd op veel gebieden bestaat het niet, pc markt is het elke keer het zelfde maar net wat beter.
Niet echt, want de chip industrie is een heel ander beestje dan de meeste andere industrieën. Die designs voor de volgende generatie zijn al klaar en men is nu al bezig met productie capaciteit inkopen. Ik verwacht dat die designs dezelfde trend volgend van de huidige hardware en zullen dus niet onderliggende issues aanpakken (zoals veel stroomverbruik). Ze zullen vast weer efficiënter zijn, maar nog steeds grote/dure designs die alleen te verantwoorden zijn als je ze zwaar laat ploeteren (dus veel stroom verbruik).

Tussen nu en eind 2024 ga je niet een compleet nieuw GPU design neerzetten. Door de boel vooruit te schuiven geeft Nvidia zichzelf 5-6 jaar de tijd om wellicht een ander design op de markt te zetten...

Ik verwacht dat AMD nu veel beter in de markt staat door hun werk voor de consoles en APUs, dat zagen we al in de Steam Deck en nu ook weer in de Z1 serie (ook weer voor handhelds). Nvidia heeft geen goed antwoord daar op omdat ze geen CPUs maken en iets maken dat je bij een Intel CPU kan steken is ook niet werkbaar, zeker omdat het aanbod zuinige efficiënte CPUs ook niet denderend is de laatste jaren...
Ik verwacht dat AMD nu veel beter in de markt staat door hun werk voor de consoles en APUs, dat zagen we al in de Steam Deck en nu ook weer in de Z1 serie (ook weer voor handhelds). Nvidia heeft geen goed antwoord daar op omdat ze geen CPUs maken en iets maken
Vergeet niet dat een jaar geleden de Nintendo Switch, met een Nvidia Tegra soc, nog beter verkocht dan de PS5+Xbox Series+AMD APU based handhelds bij elkaar. Ondertussen doet vooral de PS5 het een stuk beter, maar het marktaandeel van Nvidia (via de Nintendo Switch) blijft significant.

Ondertussen zijn er sterke aanwijzingen dat Nintendo in het Nvidia kamp blijft voor een Switch Pro/2 met een nieuwe Tegra SoC die competitief is met de Xbox Series S.
In 2022
Nintendo Switch: 19.04 miljoen units
Playstation 5: 13.26 miljoen units
Xbox Series X|S: 9.50 miljoen units
Dat is bij elkaar 20% meer AMD chips voor consoles, niet eens de Steam Decks erbij geteld, want we weten niet exact hoeveel er geleverd zijn...

Bron:
https://www.vgchartz.com/...-estimates-for-dec-18-24/
Dat omslagpunt dat PS5 + Xbox Series X|S samen beter verkochten was pas rond juni vorig jaar, en daardoor doen ze het over heel 2022 beter samen. Daarom had ik het over een jaar geleden en niet over het vorige kalenderjaar, toen lagen de verkopen wel close maar nog net in het voordeel van de Switch.

Sinds januari verkoopt de PS5 alleen al beter dan de Switch trouwens. Dus de omslag is best groot. Maar niettemin heeft Nvidia toch echt wel goede ervaring in deze markt, wat mijn reactie trachtte aan te tonen ;)
De laatste paar dagen zit ik me af te vragen of ik met mijn nieuwe computer geen fout heb gemaakt op het gebied van de grafische kaart (en PSU). De kaart die er nu in zit is een MSI RX 6750 XT GamingX Trio 12GB. Ik ben op zoek gegaan naar een grafische kaart met de volgende specs:

- Ongeveer de snelheid van een RTX 3070
- Minstens 12 GB, maar indien mogelijk 16 GB RAM
- Niet meer stroomverbruik dan 250W (non-OC)
- 2x 8 pin aansluiting
- Rond de 500 euro (max)
- Goede ondersteuning in Linux

Toen ik deze computer 6 weken geleden kocht, was de de MSI RX 6750 XT GamingX Trio (12 GB) de enige beschikbare kaart die aan mijn eisen voldeet. Als ik één vereiste zou laten schieten, namelijk de 250W stroomverbruik, dan had ik kunnen gaan voor de AMD RX 6950 XT (de referentie-kaart) of de ASUS TUF Gaming RX 6950 XT. (De ASUS was nergens beschikbaar toen ik deze computer kocht.) Misschien had ik met een van deze kaarten wel een zwaardere voeding moeten nemen dan Corsair RMX 850 die ik nu heb.

Met andere woorden: had ik toch voor de 50% snellere RX 6950 XT moeten gaan, ondanks dat ik dan (wellicht) een zwaardere voeding nodig had, 100-150W meer stroom verbruik, en een kaart heb die 150-350 euro duurder is dan degene die er nu in zit? Deze computer moet immers 10 jaar mee, met _misschien_ een upgrade van de grafische kaart na 5 jaar.

Echter, je zegt hierboven het volgende:
Met zaken als cloud streaming, een enorme backcatalog van goede games die niet zware hardware vereisen, veel goede indie games en zelfs AAA publishers die games uitgeven die niet het onderste uit de kan vragen van je hardware. Zal een gebruiker minder snel de noodzaak zien om nieuwe hardware te kopen.
En dat is inderdaad waar. Mijn vorige kaart is een GTX 1070 met 8GB RAM. De RX 6750 XT haalt 2.5x zoveel FPS in spellen dan de GTX 1070, en hij heeft 50% meer geheugen. Van alle spellen die ik heb, zijn er maar 2 die als "recommended" spec mijn 7 jaar oude kaart aantikken of licht overtreffen: Metro Exodus (2019, GTX 1070 recommended) en Serious Sam 4 (2020, GTX 1080 recommended). Alle andere spellen die ik heb zitten hier (ver) onder, simpelweg omdat ze ouder zijn. Sommige spellen die ik grafisch prima vind komen uit 2010 en 2012 (Transformers: War for Cybertron en Transformers: Fall of Cybertron), en voor dat soort spellen wordt deze grafische kaart niet eens echt wakker omdat ze gecapped zijn op 60 FPS.

De backlog aan goede spellen die ik nog heb staan heeft maximaal een GTX 1070 of GTX 1080 nodig zo te zien, en ik heb nog een stuk of 30 van deze spellen staan. Ik denk dat ik hier wel 5 jaar zoet mee ben. Dan zal ik in 2028 wel eens kijken wat er te krijgen is op het gebied van grafische kaarten. Misschien kan ik dan een kaart krijgen die dubbel zo snel is als de 6750, en nog steeds maar 250W aan stroom verbruikt.
5 jaar met een enkele configuratie is, ook in deze door consoles afgeremde tijden, wel gewoon een lange tijd. Aan het eind van die vijf jaar is de rek er redelijk uit en moet je dus consessies doen.
Mwah. Mijn vorige computer is 6.5 jaar oud, en die zou alle spellen die ik heb, behalve de genoemde twee (Metro Exodus en Serious Sam 4) nog steeds kunnen draaien met goede instellingen, aangezien de computer zich nog steeds boven de minimum requirements bevindt.

En als ik zie dat veel nieuwe spellen i5's uit de 4-de en 5-de generatie als minimum hebben, en _misschien_ een 6- of 8-core als recommended CPU, dan vreet ik een bezem als mijn 7950X over 5 jaar niet meer voldoet. Ook 64GB RAM zie ik wel zat lang mee gaan.

Als er over 5 jaar een grafische kaart op de markt is die 2x zo snel is als mijn huidige RX 6750 XT met een stroomverbruik van nog steeds 250-300 Watt, dan zie ik na die upgrade de rest van dit systeem makkelijk nog eens 5 jaar mee gaan.
Ik betwist niet dat een 6.5 jaar oude PC voor veel games nog prima mee gaat. Maar neem de minimale requirements met een korrel zout. Er is geen standaard voor. Het kan best zijn dat je met die minimale requirements bijv.:
  • Niet meer de laatste patches kan draaien.
  • De resolutie zo laag moet zeggen dat eventuele text niet meer te lezen is.
  • De game traag als stront door een trechter loopt.
Vaak zat gaat het ook de andere kant op, dat je met een systeem die niet aan de minimum specs voldoet nog prima in 1080P kan gamen. Zeker ontwikkelaars/uitgevers die iets meer respect voor de community tonen zullen met minimum specs komen waarmee de game echt prima draait.
Dat weet ik ook wel. Voor alle spellen behalve Serious Sam 4 en Metro Exodus voldoet die 6.5 jaar oude computer zelfs nog (ruim) aan de recommended requirements.
Een standaard 6800 is volgens mij dan een goede optie, deze gebruikt ongeveer evenveel als een 6750, is sneller en heeft 16GB geheugen. Je kan ook even wachten op de volgende generatie kaarten. Dan gaat de prijs misschien nog wat naar beneden, naar de max van 500 euro.

Wat betreft Linux, mijn 7900 XTX doet het prima in Linux. Ik draai dan wel een Arch based distro dus die loopt wat voor op drivers.

[Reactie gewijzigd door Sp3ci3s8472 op 23 juli 2024 10:47]

Denk dat ook een enorm percentage gamers hun huidige 1080p60 of 1440p60 scherm goed genoeg vinden en geen 240hz monster hebben/hoeven. Met 60fps heb je gewoon echt geen 4000-serie kaart nodig (behalve op 4k misschien).
[...]
Doordat Nvidia de boel uitsmeert kunnen ze de R&D over een langere periode afschrijven. Een nieuwe GPU elke drie jaar ipv. elke twee jaar.
Maar de verkopen zijn dan ook lager en om dit tegen te gaan zullen ze de prijzen gaandeweg moeten gaan verlagen. Als ze tenminste de verkopen enigszins op peil willen houden.
Prijzen zijn dan ook al de afgelopen zes maanden met €200-€300 gezakt voor de high-end modellen (4080/4090), maar bv. de 4060 staat nog niet eens op de kaart (de 4060Ti is wel al aangekondigd)...

Een 3060, is na ruim twee jaar nu te krijgen voor €300, dat is ongeveer 10% onder diens MSRP introductieprijs (scalpers daargelaten)... Ik betwijfel ten zeerste of we een 4080 sub €1000 gaan zien dit jaar en als dat het geval is, dan vermoed ik dat er eigenlijk NOG minder mensen geïnteresseerd zijn (als ze gaan nadenken), dat er €500-€600 in een jaar verdampt aan MSRP, wat zal dat uiteindelijk doen met 2e hands prijzen. Verdampt er weer eens €200 na zes maanden?

Met het kijken naar prijzen (om deze reacties te schrijven) zie ik bij verschillende kaarten dat ze eerder in april de absolute bodem qua prijs hebben gehaald en nu weer iets terug stuiteren. Ik zie ook heel veel afvlakking in de prijsgrafiek...
Die 300 euro, dat is de normale mid-range prijs vroeger. Rond de 500, max 600 zat je al in het high end segment.

Het feit dat er überhaupt 500-600 euro van de nieuwprijs af kan gaan op een jaar tijd, is net het hele probleem. Ik heb geld zat om 1000+ euro aan een kaart uit te geven, maar ik vertik het gewoon om dat te doen. Gaat gewoon niet gebeuren, hoe snel die kaart ook is. Ik koop sowieso ook geen gloednieuwe games meer, want die zijn op hun duurste en meest buggy. De hele industrie aan zowel de hardware als software kant is gewoon ziek, dus ik doe er gewoon niet meer aan mee. Ik heb me (voor de eerste keer ooit) tweedehands een 3070 gekocht zodat ik mijn backlog in volle glorie kan spelen.

Ik ben niet de enige die zo denkt. Ik zie genoeg vrienden rond mij afstappen van de grote releases en gewoon wat oudere games spelen. Kan misschien gewoon zijn omdat ik wat ouder wordt, maar dan wens ik Nvidia veel succes van 4090s aan 16 jarigen te verkopen...

Tenzij dat Nvidia, AMD of Intel echt interessante kaarten uitbrengen in mijn prijssegment, voorzie ik mezelf geen nieuwe kaarten meer kopen. Tweedehands kopen is me goed bevallen, en als er dan eens iets mis gaat, dan komt dat gewoon uit de pot van geld dat ik heb uitgespaard t.o.v. hardware nieuw te kopen. Ze hebben het de laatste jaren gewoon te bont gemaak. Er zijn mensen die er anders over denken, maar langs de andere kant ben ik ook de go-to guy voor mijn vrienden voor advies. Waar ik vroeger mensen nog aanraadde van een PC te bouwen i.p.v. een console te kopen, wijs ik ze tegenwoordig vaak naar een PS5. Die hardware voor dat geld? Wat een geweldige deal.
Je kocht in de jaren '80 een C64 voor fl.600,00 (€237 zonder inflatie correctie), een paar jaar later een Amiga 500 voor fl.1000,00+ (€455 zonder inflatie correctie). Die prijs verhogingen zijn niet nieuw, het rijst wellicht nu een beetje de pan uit...

Ik ben sowieso vaak met oudere games (10-20 jaar) bezig die nu nog steeds online zijn, in veel gevallen werkt oude hardware prima en zijn de games grafisch over de jaren wel degelijk geupdate, maar zijn nog steeds gemaakt om te kunnen draaien op een aardappel.
Je kan ook bij 1080p gaming blijven hoor, 4K is nergens voor nodig.
Wanneer je op de juiste kijkafstand zit in combinatie van schermgrootte maakt het niet zo heel veel uit tijdens gamen.

Zelf game ik om die reden nog op 1440p gezien 4K amper iets toevoegt (ja getest en ik zie weinig verschil tenzij met de neus bovenop ga zitten en mijn ogen zijn goed).

Zoals bij films ligt dat anders, door HDR wordt het een stuk mooier en heeft weinig met resolutie te maken.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 10:47]

Dubbel zo snel en verbruikt nog meer stroom... [,,,] maar dat is wel wat de trend volgt momenteel.
Ik snap echt niet waar dit vandaan komt, dit klopt gewoonweg niet. De 3090ti trekt ongeveer 450W, the 4090 trekt 380W. De 3080 trekt ongeveer 330W, de 4080 trekt ongeveer 280W. En dat met veel minder grote transient power spikes.

Elke generatie is meer stroom efficiënt dan de vorige, en de huidige trekt zelfs minder stroom voor hun hogere prestaties.

En de 7800X3D is veruit de meest stroom efficiënte CPU in lange tijden.
Je vergelijkt nu een 3090Ti met een 4090, als je dat netjes doet met een 3090 vs 4090 gebruikt een 4090 significant meer stroom dan de 3090. Er is immers nog geen 4090Ti om mee te vergelijken.

Maar inderdaad een 4080 is inderdaad zuiniger dan een 3080, maar dat verschil loopt terug tot een Watt of 10, afhankelijk van welke games je draait op welke resolutie en welke settings. Het verschil tussen de 4080 en de 3080 is kleiner naar mate de resolutie hoger wordt.

Is het efficiënter? Absoluut! Maar bij de 4090 vs de 3090 is die slechts 10%-15% verbeterd (weer hoe hoger de resolutie, hoe kleiner het verschil).
Bij de 4080 vs de 3080 is die al 60%-75% beter (weer hoe hoger de resolutie, hoe kleiner het verschil).
Bij de 4070 vs 3070 is de efficiëntie nog maar 40%-45% (weer hoe hoger de resolutie, hoe kleiner het verschil).

En waarom vallen we hier over? Omdat:
Nvidia GeForce GTX 1080 Ti FE 247,81W
Nvidia GeForce RTX 2080 Ti FE 277,13W
Nvidia GeForce RTX 3080 FE 336,11W
En vergeet niet dat dit nog eens de meer energie slurpende Ti modellen zijn ter vergelijking. De tendens van de afgelopen jaren is om er steeds meer stroom in te pompen om indrukwekkender resultaten neer te kunnen zetten.

Wat heb je aan efficiëntie als het gros van de kopers daar niets mee doet en het normaal gesproken lekker op max settings laat ploeteren. Ongeacht of die 200-650fps in Doom Eternal wel nodig is... We worden tegenwoordig een vrachtwagen verkocht met 'betere' prestaties (nog meer boodschappen vervoeren!), maar ondertussen wordt in heel veel gevallen veel te veel gebruikt voor maar een beetje (boodschappen). Dat zie je ook terug naar de steeds hoger wordende Idle verbruik.

Zelfs de alleen de 7800X3D verbruikt 20% max meer dan mijn ouwe i7-5820k (totaal systeem verbruik). Hij zal sneller klaar zijn dan mijn machine en absoluut efficiënter! Maar de nadruk ligt nog steeds op meer verbruiken. Ik heb drie jaar geleden een 4800U miniPC gekocht, welke twee keer zo snel is dan de oude 5820k voor een verbruik dat 3-5 keer lager ligt. De miniPC op max trekt nog steeds 15%-20% minder stroom dan de 5820k in idle...

Bron:
review: Nvidia GeForce RTX 4090 - Olifant in de porseleinkast
review: Nvidia GeForce RTX 4070 - Lekker zuinig... voor een moderne videokaart
Wel, de tweakers cijfers zien er heel anders uit dan de benchmarks die ik heb bekeken. Maar ik stel wel één ding sterk in vraag.
Zelfs de alleen de 7800X3D verbruikt 20% max meer dan mijn ouwe i7-5820k (totaal systeem verbruik).
Je 5820k gebruikte maar 33-41W? Dat betwijfel ik ten zeerste.
Je kijkt er imho verkeerd naar, je vergeet dat moederborden van bepaalde CPU generaties significant meer gebruiken, Als je kijkt naar volledig systeemverbruik bij maximale belasting, dan ziet het plaatje er iets anders uit...

Bron:
review: AMD Ryzen 7 7800X3D - De langverwachte Intel-killer in games
https://nl.hardware.info/...ik-igpu-cinebench-115-max
Ik zie gamers er weinig over praten maar ja ik wil ook graag een GPU die niet teveel verbruikt en een beetje stil blijft.

Alle chips moeten tegenwoordig 90 graden warm worden tegenwoordig.
Alle chips moeten tegenwoordig 90 graden warm worden tegenwoordig.
Temperatuur maakt ansich niet veel uit, iets kan 45 graden warm worden, maar nog steeds meer energie verbruiken. Het ligt er aan hoe groot de verwarmde massa is (steeds groter wordende chips) en hoe goed deze kan worden afgevoerd de rest van de ruimte in... Hoe warm je chip is zegt eigenlijk alleen maar wat over of deze te heet is of niet (schade) en 90 graden is niet te heet.
Al;s ze de prijzen nu eens wat lieten zakken verkopen ze ook beter
Natuurlijk, maar zouden ze als ze de prijs halveren ook meer dan twee keer zoveel verkopen? Want ze hebben dan ook twee keer zoveel productie kosten... Nee, dat zou niet gebeuren en zeker niet zoveel dat ze daar significant meer winst uit trekken, want mensen kijken ook naar andere zaken, zoals stroomverbruik...

Voor die prijs van bv. een 4080 kan ik momenteel 6.5 jaar cloudgamen, puur op aanschaf prijs van de GPU. Dan hebben we het niet eens over de andere onderdelen, stroomkosten en tussentijdse upgrades...

Het wordt nog mooier als je realiseert dat Nvidia die dienst ook elke keer ugrade. Als je dus in 2020 misgreep voor een 'goedkope' 3080 en Geforce Now Ultimate afname voor €200/jaar kreeg je dus na twee jaar een upgrade naar een 4080... Een 3080 gaat 2e hands voor ~€450 over de toonbank in V&A.

Het nadeel van cloudgaming is dat je afhankelijk bent van de leverancier welke games deze aanbied en afhankelijk van je internetconnectie, latency. Er is genoeg beschikbaar wat ik kan spelen op Geforce Now, m'n Steam Deck of m'n zeer zuinige Windows miniPC (4800U) waardoor ik sowieso afzie van de huidige generatie high-end hardware ongeacht de prijs (er vanuit gaand dat deze niet heel dicht bij €0 komt).
Dan hebben we het niet eens over de andere onderdelen, stroomkosten en tussentijdse upgrades..
Dat lijkt me logisch, voor cloud-gaming heb je ook hardware en stroom nodig, en wellicht tussentijdse prijsverhogingen...
Er zijn hier tweakers die cloud gamen op hun smartphone, die hebben ze al liggen. Je kan het doen op je tablet of zelfs op je werk laptop (als dat mag van de baas). Wil je een goede videokaart aansturen, heb je een daar bijpassende goede CPU en energie slurpend moederbord voor nodig. Je kan voor vrij weinig geld een prima energie zuinige PCtje in elkaar zetten waarop je standaard meuk kan doen, maar ook cloud gamen. Daar zou je theoretisch prima 8-10 jaar mee kunnen doen, terwijl die gamepc moet meegroeien ivm. videokaart eisen/prestaties.
Wil je een goede videokaart aansturen, heb je een daar bijpassende goede CPU en energie slurpend moederbord voor nodig.
Die heb ik al liggen... :P
Daar zou je theoretisch prima 8-10 jaar mee kunnen doen
Ach mijn GPU is nu 5 jaar oud, en voorlopig nog niet aan vervanging toe, dus wat is het verschil?
Wacht... het feit dat ik naast gamen en een beetje browsen nog meer met mijn pc kan doen :)
En de energievretende datacenters in de polder

En als je het energieverbruik zo belangrijk vindt... bord- en kaartspelen, leuk, sociaal, gezellig, en kost geen stroom.

[Reactie gewijzigd door Zer0 op 23 juli 2024 10:47]

En als je het energieverbruik zo belangrijk vindt... bord- en kaartspelen, leuk, sociaal, gezellig, en kost geen stroom.
*kijkt naar kasten*
More than check! Maar die vereisen dan weer mensen over de vloer, welke koud bier eisen (energie slurpende ijskast, vaak verlichting voor in de avond en in de zomer levert zo een kudde ook heel wat warmte op, dus airco... :+
Tenzij ik solo bord/kaartspellen ga spelen, dan alleen stroom voor de verlichting... ;)
Klopt alleen je bent gebonden aan de cloud gebonden om gebruik te maken van een game. Nu zal dat in veel gevallen geen probleem zijn voor velen. Alleen persoonlijk wil ik graag ook nog andere dingen doen op mijn pc. Waarbij een degelijke video kaart wenselijk is.

Plus gedoe als de cloud er mee dreigt op te houden ben je ook alles kwijt. Weet niet of ze je dan een video kaart op sturen? :)
Afhankelijk van de dienst, hoef je je games niet kwijt te zijn. Ik hoef geen Google Stadia om die reden.

Van mijn bijna 3200 Steam games is bijna 20% beschikbaar in Geforce Now. Van die overige 80% werkt een heel groot deel op m'n Steam Deck en bijna de rest op m'n 4800U Windows machine met integrated graphics. Er is slechts een relatief klein percentage wat ik geheel niet kan spelen met die setup. En dan kan ik eigenlijk alleen maar zeggen: "Jammer dan voor die games!" Ik kijk nu naar een aantal zaken: Wat zijn de minimale specs, draait het op de Steam Deck, werkt het op Geforce Now? If not, I don't buy it, I don't play it. Software makers zullen vanzelf de hint wel krijgen als de komende jaren de aankopen op de PC voor de een of andere reden opeens tegen vallen...

Als cloud gaming ermee ophoud kan ik altijd er nog voor kiezen om een GPU/PC te kopen. Ik verwacht echter dat dit voorlopig niet gaat gebeuren en dat de zuinige APUs wel eens heel wat prestatie verbeteringen neer kan zetten... Met drie generaties (3 jaar) en hetzelfde stroomverbruik (15W) hebben we het opeens over een prestatie verbetering van ~50% (Z1 Extreme), dat begint al in de buurt te komen van m'n oude GTX970. Als je hem op 30W zet, zou dat wel eens een equivalent kunnen zijn van een GTX970 (true een 8.5 jaar oude GPU) en de CPU is veel beter dan wat we toen hadden, maar daar kan je absoluut prima op werken (via bv een dock)!

Ik heb ook zaken die ik normaal gesproken via de GPU liet lopen, maar voorlopig heb ik andere zaken (projecten) op m'n bord liggen waardoor ik daar niet aan toe kom. Tegen de tijd dat dit wel het geval is, bekijk ik de situatie opnieuw. De GTX970 was toen de goedkoopste kaart die 3x 4k schermen kon aansturen... Nu kan mijn mini PC 4x 4k schermen aansturen, dus daar geen aparte GPU meer voor nodig.
Bah! Energie slurpende CPUs, GPUs en moederborden... :+
Als je ook maar enigszins denkt dat cloud gaming efficienter is, behalve bij de eindgebruiker... :')
Wellicht dat je zelf ook even moet nadenken...

In een PC thuis:
CPU+RAM+MOBO+GPU
vs:
In een cloud server:
CPU+RAM+MOBO+40xGPU

Sure, als je er zo tegenaan kijkt, natuurlijk!

Maar het is eerder:

In een PC thuis x160:
160xCPU+160xRAM+160xMOBO+160xGPU
vs:
In een cloud server:
CPU+RAM+MOBO+40xGPU

En dat is natuurlijk alleen als gebruiker de PC gebruiken voor alleen gaming, als je er nog andere dingen op doet, dan blijven die hele reeks krachtige componenten een hoop meer gebruiken x160, terwijl dit voor het gros van de PC activiteiten niet nodig is... En die 160 gebruikers, is puur concurrent users (gelijktijdige gebruikers), je kan prima daar een meervoud aan gebruikers op kwijt die x aantal uur per week gamen. En op momenten dat ze voor hun regio amper gebruikers hebben kan je servers uitzetten of inzetten voor andere zaken, denk bv. aan goedkope renderfarms, waarbij er gewoon een lage prioriteit is...

Het hekele punt hier is efficiëntie, iedereen een dure CPU+GPU thuis (zowel in € als in verbruik) is gewoon minder efficiëntie dan een centraal systeem. Er zitten zeker nadelen aan vast, maar dat zijn niet primair kosten en/of stroom verbruik. Dat zijn kunstmatige beperkingen op welke games je kan spelen en wellicht latency.

En als je niet vastzit aan die krachtige CPU+GPU combinatie dan kan je opeens kiezen uit veel zuiniger machines. Ik verbruik bv. minder dan 20W (uit het stopcontact) terwijl ik een VM draai en er op werk.

Bron:
https://www.nvidia.com/en-us/data-center/rtx-server-gaming/
https://www.nvidia.com/co...rver-gaming-datasheet.pdf
Waar nog een reeks stappen tussen zit. Voor bedrijven is het overigens veel voordeliger om abonnementsdiensten aan te bieden, wat een heikel punt is, nog los van vermeende zuinigheid (meeste apparaten verbruiken echt niet voltijd 500 watt anno nu)

Die servers draaien tevens dag en nacht, dat zal ik thuis niet hebben. Het niet clear cut welke oplossing beter is, wel welke je afhankelijker maakt.
persoonlijk verkoop ik liever 10 iets voor 1000 euro, dan 1100 keer 10 euro. Meer productie, transport etc, maar vooral ook service.
nee er moet minimaal 100% winstmarge op zitten
Hoezo? NVIDIA heeft volgens de laatste kwartaalcijfers net geen 70% winstmarge gehaald.
Waar 20% als gezond gezien wordt.
Verschilt heftig afhankelijk van branche.
Het ontwikkelen van high-end chips is een bijzonder kapitaal-intensieve klus waardoor er een flinke kas nodig is om de ontwikkeling van een volgende generatie te kunnen financieren. (en succes is niet verzekerd)
Het is een standaard ondermarge in bedrijfsvoering, na aftrek van kosten.
Maar die winstmarge kwam niet uit de consumer GPU market.
Een haast te verwachte stap. Past ook wel weer in de strategie om de consument te laten " wennen" aan de nieuwe prijzen. Gewoon zo lang mogelijk op het huidige prijs niveau blijven zitten en de low end langer op zich laten wachten. Ben alleen benieuwd of de support van de oudere generatie ook langer door blijft lopen.
Kan nVidia intussen "wennen" aan lagere verkoopcijfers.
Dat zal wel meevallen, want mensen hebben op den duur toch een nieuwe gpu nodig, niet degene met al een 30xx of 40xx, maar de generaties daarvoor.
Ligt eraan, je kan ook een console nemen. Of zoals ik gewoon geen nieuwe spellen meer kopen.
Vandaar dat de prijs in de VS inmiddels alweer een stuk schappelijker begint te worden door meer naar MSRP te zakken...

En als het idd klopt dat de 40X0 serie tot in 2025 door moet gaan voor er een opvolger is, en je met een 2070S vooralsnog redelijk prima zit... dan houdt die vraag ook wel op. Enthousiasten zijn niet per definitie de markt.
Dat debiele woord "wennen" staat ook altijd in nieuwsberichten. Als je op een gegeven moment met je salaris net in leven kunt blijven en na maanden sparen met je kinderen een frietje kunt gaan eten, dan kun je niet meer "wennen" aan nieuwe prijzen. Dan ben je gewoon een werkende arme. (Ik ga ervan uit dat je daarom "wennen" ook in quotes hebt gezet.)

[Reactie gewijzigd door Katsunami op 23 juli 2024 10:47]

Dat klopt inderdaad. Werkende armen bestaan zeker.

Het is alleen off topic want dat is niet de doelgroep hier. De modale werknemer heeft niet een paar euro per maand over, maar een paar honderd euro. Geen frietje maar een vakantie, elk jaar weer. Ja, dan moet je alsnog keuzes maken, maar gaming is dan een keuze mogelijkheid.
De support op 8GB VRAM geheugenkaarten is al veel kleiner dan 2 jaar geleden.

Dat wordt alleen maar erger. Het 'kost' game ontwikkelaars te veel tijd en dus geld om een game te ontwikkelen wat goed draait op 12-16 GB maar ook op 8 GB VRAM kaarten. De performance updates komen later of niet, krijgen een lagere prio. Het is goedkoper een game te ontwikkelen of een pc port te maken voor GPU's met 16 GB RAM dan voor 8-12 GB.

Dat zien we bij bijvoorbeeld de next gen update van The Witcher 3 en The Last of US. Kaarten met veel videogeheugen hadden op dag 1 al veel minder problemen.

Dus de support op oudere kaarten is al zeer matig en gaat zeker niet beter worden.

Hardware Unboxed heeft dat nog eens heel duidelijk uitgelegd in Jip en Janneke taal(ik waardeer hun wel)
https://www.youtube.com/watch?v=iOBzHYw1TVE&t=1443s

Ik vind om die reden een 4070 met 12 GB een slechte investering. Ik heb nu een 3070 met 8 GB en zal het hier even mee zullen doen met veel getweak aan instellingen.
Ze draaien de boel om. Dat de PC markt terugloopt is direct gevolg van de prijs die ze tegenwoordig vragen maar nu ineens de reden om nieuwe producten uit te stellen...
Dit is een vrij foutieve redenering, covid zorgde voor een pc boom en sinds covid restricties gedaan zijn en mensen terug buiten kunnen is de markt volledig ineengestort. Zelfs de budget markt heeft een overtollige stock. Vrijwel geen retailers kopen op dit moment nog stock aan van GPU's of CPU's, ze werken met directe bestellingen van de fabrikanten op individuele basis wat op dit moment nog altijd goedkoper uitkomt dan ze een paar maanden in stock te hoeven houden.

[Reactie gewijzigd door hikashuri op 23 juli 2024 10:47]

Als ik in mijn persoonlijke kennissenkring kijk dan zitten daar nog heel veel mensen bij die al sinds de corona crisis wel graag willen upgraden maar gewoonweg de 'nieuwe normaal' prijs niet kunnen of willen betalen. Zij zijn ook niet bereid om relatief veel te veel te betalen voor wat je nu als budget-hardware kunt bestempelen omdat ze allemaal gewend zijn voor hetzelfde geld mid of high-end apparatuur te kunnen kopen. Ik kan me niet aan de indruk onttrekken dat er nog heel veel (verborgen) vraag is die met deze prijzen gewoonweg niet wordt aangeboord...

[Reactie gewijzigd door Trick7 op 23 juli 2024 10:47]

Sinds mijn upgrade in 2020 was ik al aan het azen op een nieuwe GPU, maar niet verkrijgbaar en later ook nog eens véél te duur. Waar ik voorheen een leuke midrange-kaart kocht voor om en nabij de 350 euro was ik daar nu minimaal het dubbele voor kwijt, als het niet meer was. Om die reden afgelopen week een tweedehands 3070 gekocht voor dat bedrag. Er is wel budget voor wat beters, maar ik heb nooit meer dan 400 euro betaald voor een GPU en was dat nu ook niet van plan :+
Hetzelfde hier, heel lang de wens om een betere videokaart te kopen. Vond de launch prijzen iets te hoog dus ik wachtte even. En toen kwam de cryptoboom+scalpers+thuiswerkers+mensen die niet op vakantie kunnen en teveel geld hebben.
Vervolgens met halve interesse een beetje de launches bijgehouden naar alles was te duur en direct uitverkocht.

Uiteindelijk een tijdje terug maar voor een tweede handse RX 6700 XT gegaan. De RTX 3070 wel overwogen maar ik heb liever meer geheugen dan DLSS/CUDA/Raytracing (en een lichte voorkeur voor de AMD software). Voelde als een upgrade die veel eerder had moeten komen en voor dezelfde prijs maar dan nieuw.

Volgens mij zitten er nog heel veel mensen met een ietwat oudere kaart die niet onder de indruk zijn van het nieuwe prijsbeleid bij NVIDIA en AMD.
AMD heb ik inderdaad ook naar zitten kijken, omdat ik de 8GB van de 3070 eigenlijk te weinig vindt, maar vooral CUDA is best een must voor me en, Raytracing/DLSS zijn een nice to have. Maar inderdaad, deze upgrade had veel eerder moeten komen. Niet dat ik met m'n 1060 niets meer kon ofzo, maar ik merkte wel echt steeds vaker dat ik tegen de limiet aan zat te hikken van dat ding.
Volgens mij is het voor mij nu intussen al twee en half jaar geleden dat ik besloten heb een systeem upgrade te gaan doen.

Waarom zou ik een nieuw systeem bouwen als de GPU die bij de rest van het systeem past, de helft van het budget opslurpt.

Zodra GPU's betaalbaarder worden, zal de rest ook wel weer aantrekken.
De laatste generatie hardware (DDR5 op AM5/socket 1700) is inderdaad nog niet echt spotgoedkoop, maar AM4 staat echt in de uitverkoop. DDR4 en SSD's ook. Videokaarten nog wat minder, maar je kunt in ieder geval voor 200 euro een RX6600 krijgen. Niet echt high-end, maar zeker geen verkeerde kaart. Best krachtig, efficiënt en modern.
Het is helemaal geen foutieve redenering van Trick7. De hoge prijzen spelen zeker mee. Wat ook meespeelt is dat er heel veel videokaarten van de 3000 serie verkocht zijn en daarmee veel gebruikers voorlopig geen nieuwe gpu nodig hebben.
Je vergeet cryptomining te noemen, zodra dat op zijn gat ging liggen zag je meteen de vraag fors afnemen.
Het is maar net hoe je er naar kijkt.

Ja, met corona was er een boom. Deels omdat iedereen thuis computers nodig had voor thuiswerken, maar ook omdat meer mensen meer gingen gamen, en daar geld in wouden stoppen. Dat kwam deels omdat men niet/moeilijk op vakantie kon.

Aan de andere kant. Ik heb mijn EVGA 1070 gekocht voor 470 euro bij release in Q4 2016, en dat was niet de goedkoopste. Een net gereleasde 4070 is te krijgen voor 660 euro. Dat is 200 euro meer in 6,5 jaar. Dat is niet alleen inflatie. Volgens [url=-https://www.inflatiecalculator.nl/berekening]deze[/] tool zou je dan rond de 570 euro moeten zitten.

Nu speelt er natuurlijk veel meer dan alleen inflatie. Technologie word steeds complexer en dus duurder. Maar een kaart uit dezelfde serie is zeker duurder geworden. En wel zodanig duur dat ik toch even de kat uit de boom kijk, ookal is mijn 1070 wel aan een upgrade toe.

[Reactie gewijzigd door Gropah op 23 juli 2024 10:47]

Als de vraag nu zo laag is, dan zouden de GPU prijzen ook laag moeten zijn. Het tegenovergestelde is echter waar. De prijs/prestatie is gelijk aan GPU's van de vorige generatie, 2,5 jaar geleden toen de 30-serie werd geïntroduceerd. Een nieuwe generatie moet beter zijn dan de vorige. Is hij dat niet, dan verkoopt hij niet. Nvidia en AMD proberen nu oude hardware voor nieuwprijzen te verkopen en nieuwe hardware voor evenveel meer als dat ze sneller zijn. Dat doet natuurlijk niemand.
Nou ik vind het wel begrijpelijk. Het is een bedrijf, niet een goed doel. Enige risico dat ze lopen is dat AMD nu een innovatie slag kan maken, idem voor Intel.
Fijn. Dus als een bedrijf zegt "geef geld", zeg jij "hoeveel?" :+
Ja dat is dus aan de klant om te bepalen. Ik ben geen fan van deze praktijken, maar dat Nvidia deze beslissing neemt is logisch. Ze verkopen relatief slecht en gaan nu niet een beter product maken waarmee ze de huidige gemaakte investeringen ondermijnen. Ik hoop dat in deze R&D gap AMD raytracing op orde krijgt zodat er weer geconcurreerd kan worden en dit soort praktijken niet kunnen. Maar gezien de dominantie op zowel GPU als AI vrees ik dat ze er mee weg gaan komen.
Kan je de link naar het rapport sturen waaruit blijkt dat men wereldwijd wel wil kopen maar dat de prijzen te hoog zijn?
met andere woorden: wat er nu nog geproduceerd is/wordt zal nog jaren lang verkocht worden. Vergeet het dus maar dat de prijzen zullen zakken omdat er nieuwe designs aankomen :/

Tegen dat het dan eindelijk zo ver is zullen de prijzen op een onbekend niveau liggen en gaan ze van de situatie dat iederéén jaren oude hardware heeft gebruik maken om die weer een trapje (of 2) duurder te maken :(
Je moet niet vergeten dat als er geen nieuwe hardware komt, jouw oude kaart in verhouding ook niet "ouder" wordt.
Nvidia probeert hiermee gewoon mensen naar de nieuwe kaarten toe te trekken, maar in mijn ogen is dat een kansloze strategie zolang de performance per € zo slecht is..

Ik ben zelf ook in de markt voor een andere kaart, ik zit op de 1080TI maar zoals de markt nu is is er gewoon niets dat ik het geld waard vind.
De 3070 heeft te weinig vram, de 6800 is net een tikkeltje te duur, de 3080 2e hands is eigenlijk nog de meest interessante, maar daar vind ik het stroom verbruik dan toch weer wat hoog van.
het is niet omdat er geen nieuwe hardware uitkomt dat de software ook stopt met evolueren. Als je ziet wat er met UE5 gemaakt wordt momenteel, dan gaan videokaarten van "nu" binnen 2 jaar nog altijd dezelfde performance hebben op wat driveroptimalisaties na.
In grove zin komt het daar toch wel een beetje op neer?
Qua pure performance zit er al jaren extreem weinig progressie in de videokaart markt.
Ik heb een 1080ti en die is in de meeste taken behalve de nieuwe features zoals raytracing maar iets van 10-20% langzamer dan een 3070 die 2 generaties nieuwer is.

Zolang er dus geen nieuwe serie komt die nieuwe features introduceert staat de ontwikkeling op veel vlakken een beetje stil.
ik zit zelfs op een 2e hands 1070 en kom daar mee toe, maar als je ziet wat er momenteel mogelijk is in software dat de hardware tegen 100% belast, dan gaan de devs niet plots een paar jaar stoppen, want die willen hun producten natuurlijk ook verkopen. Je zal maar aan een project begonnen zijn een paar jaar geleden met het gedacht dat een 40-series kaart de minimum-spec gaat zijn op het moment dat je releaset eind dit jaar. Idem dito met softwarebedrijven die nu nieuwe projecten moeten starten en niet weten hoe hard ze beperkt gaan zijn door de kaarten die tegen dan beschikbaar zijn.
Tja dat krijg je als je achterlijke prijzen gaat vragen. De consument is ook niet zo gek. Veel meer mensen gaan over op consoles. De ps5 doet het ineens super goed. Je speelt de meest moderne games voor een zeer schappelijke prijs vergeleken met een gamepc
En veel ports op de PC van de wat bekendere games zijn echt ongelofelijk gaar. Dat helpt natuurlijk ook niet echt mee. Dan betaal je vlot 1500 euro of meer voor een leuke PC, krijg je te maken met enorm veel issues op het gebied van prestaties in games. Dan wordt zo'n Playstation of Xbox wel interessant ja :X
Er zijn zo veel meer games op de pc verkrijgbaar dan op console. En ook: mensen bouwen geen pc voor die ene slecht geoptimaliseerde pc game. Diablo, ff xiv, Doom, starcraft, MOBAS, divinity 2. Dat zijn games waar je een pc voor aanschaft en niet een consoleport.
Het klopt wat je zegt dat er meer games zijn op pc dan console, maar vaak zijn console games wel veel meer tijd in gestoken dan Pc. Ik ken ook niemand die Starcraft of diablo speelt, dat soort spellen noem je Niche spellen en worden maar door weinig mensen in de wereld gespeeld, namelijk alleen 15000 voor diablo III (geen diablo IV, daar kijken we niet naar omdat het officieel niet gelanceerd is). Starcraft II was gelanceerd in 2010 en waarschijnlijk kunnen meeste midrange laptops dat aan. League of legends hoef je ook geen krachtige computer voor te hebben. Een low end desktop kan dat makkelijk aan. Final fantasy was ook gelanceerd op de ps3, ps4 en zelfs nog op de ps5.
diable 3 is alleen door 15000 mensen gespeeld? ik snap het even niet meer? die game is reete populair geweest op zowel pc als op console..?
Dat was tenminste de online playercount van diablo III van de tijd van de bovenstaande bericht

[Reactie gewijzigd door ASx2608 op 23 juli 2024 10:47]

uit welke bron haal jij dat er 15000 mensen de game spelen?
Niet dat ik je niet geloof hoor het lijkt mij alleen niet dat alle consoles, pc bij elkaar worden opgeteld
daarbij is de game 11 jaar oud en vind ik de aantal gamers niet verkeerd.

Diablo is alles behalve Niche..
Ik doelde niet op specifieke delen, maar op de franchise en genres. Diablo IV bijv komt bijna uit.
Het is niet 'die ene slecht geoptimaliseerde game' maar meer regel dan uitzondering tegenwoordig, zeker bij de wat grotere titels. Recentelijk bijvoorbeeld The Last of Us en Jedi: Survivor. Vaak (zelfs dat niet altijd) is er voor de console-specifieke hardware wel geoptimaliseerd, maar als je dezelfde games vervolgens aanzienlijk meer rekenkracht geeft doen ze er niks mee. Als kers op de taart missen vaak ook bepaalde optimalisaties waardoor het zelfs op high-end spul echt voor geen meter loopt. Dan zit je met een fancy CPU met een berg aan threads en wordt ie maar minimaal benut, met als gevolg dat ook de GPU uit z'n neus zit te vreten.

Als je gewoon zonder gezeik wilt gamen en vooral interesse hebt in het wat meer populaire spul dan zou ik tegenwoordig, zelfs als die hard PC-gamer, voor een console gaan. Niet dat die vrij zijn van issues, maar goed :+
Ho even. Jedi Survivor draait ook belabberd op de PS5. De '60fps' mode zit rond de 45fps op onder andere 648p resolutie. Dat is minder dan 720p!

De 30fps mode zit rond de 1080p, wat nog maar 1/4 van 4k is. En dropt soms naar de 20- en 10-tallen.

Bron: https://www.eurogamer.net...iggest-performance-issues

[Reactie gewijzigd door lordawesome op 23 juli 2024 10:47]

Ik kijk liever naar digital foundry over star wars jedi survivor dan zo’n artikel. Ja het spel is heel erg slecht geoptimaliseerd (op de pc is het aanzienlijk slechter dan console). Deze dagen willen mensen meer fps dan resolutie. Ook is Raytracing in de performance mode terwijl dat niet logisch is, je kan het niet eens uitzetten het is dus altijd aan Als je kijkt naar dead island 2 is het een goede spel die goed geoptimaliseerd is. Mensen vergeten vaak dat het de schuld is van de developers / publishers en het is vaak ook nooit de schuld van de hardware (laten we zeker zijn dat de ps5 sneller is dan een sub 1000 euro computer)
Een ps5 zal rond de snelheid van een pc van 1000 euro zitten. Maar je kunt ook je huidige pc upgraden, iets wat een ps4 niet kan. Dan ben je met 300 euro klaar voor een 6650xt of 3060.

Op die kaarten haal je 45fps op 1080p*. Wat eigenlijk beter is dan de PS5. Die limiteert 1080p op 30fps. Dus het lijkt erop dat de PC port beter is dan de PS5 port.

* https://tpucdn.com/review...formance-rt-1920-1080.png
Haha, een 6650xt en een 3060 hebben allebei versies van 8GB Vram, althans de 6650xt heeft alleen 8 GB voor de vram. je weet nog wel hoe de last of us speelde met 8GB Vram? Niet zo prettig. Dit gebeurt met de meeste spellen ook, zoals RE4R.

8GB Vram moet alleen voor low end kaarten en 16GB vram moet de norm worden.

Ohja de 4090 is de snelste GPU die een klant kan kopen en volgens mijn bron zakt ie naar de 20fps in coruscant met de ryzen 9 5900x

[Reactie gewijzigd door ASx2608 op 23 juli 2024 10:47]

Als je die twee spellen belangrijk vindt, kun je voor de 12GB 3060 kiezen. Die is met 340 euro, 40 euro duurder: uitvoering: Gigabyte RTX 3060 WINDFORCE OC 12G (rev. 1.0)

20fps is tenminste niet 'in the teens', wat de ps5 doet volgens digital foundry. Het probleem van Jedi Survivor is dat het vooral op twee cpu threads leunt. Die 4090 zal weinig te doen hebben als hij op 20fps draait. De cpu is de bottleneck hier. Op de PS5, Zen 2 op 3.5ghz, haalt hij dus sub-20 fps. Een 5900X, 4.8ghz zen 3, is 4,8/3,5 * 1,1 (10% hogere ipc) = 50% sneller. Dat maakt waarschijnlijk het verschil tussen onder en boven de 20 fps.

Jedi Survivor is gewoon waardeloos geoptimaliseerd. Hij draait zelfs langzamer op de PS5 dan op de PC met een vergelijkbare videokaart. Hoewel de PC versie crashes en stotteringen vertoont.
helemaal mee eens
ik heb een mid game systeem van een aantal jaren terug
het meeste speelt zonder problemen echter wanneer het verouderd begint te worden schaf ik wel een console aan voor triple a games, de meeste indie en oudere games hebben niet veel kracht nodig
het modden van games is leuk mits je er zelf veel mee bezig bent
gaming op de pc is flink verziekt de afgelopen jaren
van slechte porten, duurdere games, early access games die nooit een volwaardige release krijgt etc.
het is een puinhoop. de consoles zijn niet heilig echter is het wel grotendeels plug en play zonder dat je er om naar hoeft te kijken
Ik denk dat 2025 wel een mooi jaar gaat worden voor hardware.

De ondersteuning voor W10 loopt af (oktober), en veel mensen gaan dan op zoek naar nieuwe hardware (zoals ik), en ik heb het gevoel dat fabrikanten elkaar gaan aftroeven op specs (ik verwacht helaas wat minder op prijs, vraag en aanbod)
Hoewel ik denk dat in 2025 vast snellere hardware beschikbaar is is het nog maar de vraag of die echt 'onmisbaar' is voor iedereen behalve de meest enthousiaste PC gamer.
Veel mensen hebben in thuiswerk-2020 of niet veel later nieuwe hardware aangeschaft - door al die extra aankopen wordt er nu veel minder verkocht.
Daarnaast is de inflatie nog steeds hoog. Door de energiekosten is een 500W GPU in veel huishoudens ook niet echt welkom denk ik.
Maar 2027 gaat ook een zotte worden ze. En ik kan al niet wachten op 2033. Of 2073 gaat helemaal gestoord zijn.
Prijs wordt wel een ding. Leuk dat NVidia mooie hardware aanbiedt, maar als die 2000 euro kost heeft Jan Modaal daar weinig aan.

Het wordt een probleem dan recente nodes per transistor duurder zijn dan de voorgaande nodes. Dat is in de geschiedenis van de chipproductie eigenlijk nooit het geval geweest, tot recent. Dat remt fabrikanten enorm af. De enige reden dat je nu als eerste op een nieuwe node over wil gaan is als de zeer hoge prijzen je er zo uit laten springen dat je klant dan graag de meerprijs betaalt ten opzichte van de concurrent, of ten opzichte van de vorige generatie die ook nog op voorraad is. Wat dat betreft niet gek dat Apple nu voorop begint te lopen.

[Reactie gewijzigd door bwerg op 23 juli 2024 10:47]

De verkoop problemen hebben ze zelf gezocht met prijzen die veel sneller dan inflatie stegen en een line up waarvan een groot deel te weinig VRAM heeft.

Te weinig VRAM was met de 30xx serie zeker expres om ze sneller obsolete te krijgen. En zoals gewoonlijk waren er genoeg fan boys die verdedigden dat Nvidia niets verkeerd deed omdat je nooit meer dan 6GB nodig hebt. Maar nu zelfs sommige kaarten die nog moeten uitkomen al riskeren dead on arrival te zijn, hebben ze het te bont gemaakt.

Daarnaast is de PS5 ook eindelijk goed verkrijgbaar en dat is een veel goedkoper en zekerder alternatief om de AAA games toch goed te kunnen spelen.
Als ik al een 8GB kaart in de computer heb zitten sinds 2016, dan is het compleet idioot dat er nu, in 2023, nog steeds nieuwe "midrange" kaarten uitkomen met 8GB. Net zoals ik het idioot vind dat er nog steeds nieuwe laptops worden verkocht met 8GB RAM en een 256 GB SSD.

Een nieuwe midrange-kaart zou in mijn ogen minstens 12 GB, misschien zelfs wel 16 GB VRAM mogen hebben, en een computer zou met niet minder dan 16 GB RAM verkocht moeten worden.

Uiteindelijk was de 12GB VRAM de doorslaggevende factor om voor een RX 6750 XT te gaan in plaats van een 3070. De kaarten zijn even snel (de 6750 zit zo tussen de 3070 en 3070 Ti in), maar de 6750 heeft de helft meer geheugen. Dat lijkt me wel de moeite waard om te hebben, zelfs op 1440p. Geheugen heb je nooit te veel.
Na de launch van de 7800XT beslis ik. Mijn 2060 haalt amper 60fps op 1440p. Mijn Series X is duidelijk vloeiender.

Tegenvallende pc markt ligt puur aan pricing. Schande dat ze dat zelf niet toegeven. Maar elk bedrijf doet aan winstmaximalisatie natuurlijk.
Ik vind het allemaal wel prima. Dan kunnen concurrenten meer tijd nemen voor hun product. Wanneer het dan weer te warm onder de voeten wordt, gaat nvidia toch wel weer aan het werk ivm marktaandeel.
Met de huidige prijzen is high end segment te duur geworden terwijl midrange niet alleen te duur is maar ook te weinig biedt vergeleken met vorige gen top end.

Dus gaat mijn in 2021 gebouwde pc met 3080 en 11700 nog zeker tot 2025 dienen. En aangezien ik vind de recente games steeds minder onderhoudend en meer saai kan nog zelfs langer.

Op dit item kan niet meer gereageerd worden.