Gerucht: Nvidia introduceert RTX 50-serie tijdens CES 2025

Nvidia is van plan om zijn GeForce RTX 50-serie videokaarten tijdens CES 2025 te introduceren. Dat meldt de bekende Nvidia-leaker @kopite7kimi op sociale media. De CES-beurs vindt plaats van 7 tot 10 januari 2025.

“Ik denk dat we de RTX 50 pas op de CES zullen zien”, zegt @kopite7kimi. Eerder dit jaar sprak de leaker nog van een mogelijke aankondiging aan het einde van 2024. Ook andere bronnen spraken toen van een release tijdens het laatste kwartaal van dit jaar. Tijdens de Computex-beurs in juni vertelden ingewijden echter aan Tweakers dat de RTX 50-serie is uitgesteld tot begin 2025. Ook de volgende generaties videokaarten van concurrenten AMD en Intel zijn uitgesteld tot volgend jaar.

Door Andrei Stiru

Redacteur

23-07-2024 • 07:54

113

Submitter: nzall

Lees meer

Reacties (113)

113
113
39
6
0
64
Wijzig sortering
Wat de laatste jaren is gebeurt in GPU land, heeft mij helemaal doen afhaken met de hobby. Ook als je naar totale verkopen bij Nvidia en AMD kijkt zie je dat de markt voor GPUs voor gaming er niet zo rooskleurig uitziet. Dat is vermoedelijk ook een van de redenen dat de nieuwe generaties niet zo gerushed worden.
Maar is het dan wel een echte hobby? Een hobby mag best wat kosten en een game hobby is relatief goedkoop. Ja, ik ben het er mee eens dat de kaarten niet meer kosten wat zou mogen, maar daar is gewoon niets aan te doen. Combinatie van crypto, covid((tijdelijk)stoppen productie fabrieken, tekorten onderdelen), inflatie…

Je koopt eens per 3-6 jaar een nieuwe kaart/upgrade voor je pc en daar kan je echt uitstekend mee gamen.
Nou ja, je moet het natuurlijk wel vergelijken met alternatieven, en hoewel ik het helemaal eens ben dat een hobby wat mag kosten, heeft de één meer geld dan de ander.

Dat gezegd hebbende, de GPU prijzen word ik ook niet heel blij van, maar als ik nu zie op Desktop Aankoop Advies, of zelfs bij prebuilds, kan je voor €1000 echt een prima PC krijgen. En daaronder kan het ook zonder dat het slecht wordt, wel wat minder rekenkracht natuurlijk. En als je AM5 platform hebt kan je ook daarmee nog eens een hele tijd vooruit.

Dus persoonlijk vind ik het allemaal wel meevallen met hoe duur het is geworden. Moet je inderdaad niet een RTX4080/4090 direct willen.

Sterker nog, ik zoek even naar het verleden, een GTX1070 advies, en kom uit op: forumtopic: gamepc met GTX 1070 en forumtopic: Game PC < 1200€ - Vega 56 of GTX 1070?

En wat koop je tegenwoordig voor dat geld? Nou redelijk hetzelfde op basis van een 4070 / 7700XT:
forumtopic: Gaming PC rond de €1000,-

Reken de inflatie mee, en ik vind eigenlijk de prijzen helemaal niet zo spannend tegenwoordig. Ja de top-end is echt duurder geworden. Tegelijk toen stopte je SLI in de echte high end PCs.
Tegelijk toen stopte je SLI in de echte high end PCs.
Nee niet echt. Daarom is het ook verdwenen.
Een 1070 was de op 1 na snelste kaart en €540 was een hoop geld voor een GPU. De 970 was nog ~€350-400 en de 1070 kostte tussen de €400 en €450 voor het mining-gedoe begon. Ik heb voor mijn 1070 €456 betaald..
De 4070 Ventus was bij release €650+ en als je net als bij de 1070 naar de Gaming versie kijkt dan zit je op €800.
En als je AM5 platform hebt kan je ook daarmee nog eens een hele tijd vooruit.
Precies. Het is niet per se nodig om alle hardware te vervangen. En daarmee vallen de prijzen van GPU's des te meer op.

Hoewel ik wel een aardig idee heb ga ik geen generaliseringen doen over hoe het bij anderen zit, maar ik ben in de afgelopen jaren enigszins met de ontwikkelingen meegegaan. Mijn 1080p, 60Hz ultrawide is daarom vervangen door een 1440p, 165Hz ultrawide en ik stel ook prijs op grafische toeters en bellen als die wat toevoegen.
Ik vind ook dat een hobby best wat mag kosten maar ben absoluut niet bereid absurde bedragen te betalen. Bovendien vind ik dat een GPU zo'n 3 á 4 jaar mee zou moeten kunnen zonder de toeters en bellen ver terug te schroeven.
Bij de 1070 was dat geen probleem, de 2070 heb ik sowieso overgeslagen door de prijzen en het RTX, maar bij de 3070 was ik daar niet van overtuigd en ook bij de 4070 niet en je ziet ook dat de -TI en -Super uitvoeringen bijna een must zijn.
Kleine aanvulling er zaten nog meerdere kaarten boven de 1070, namelijk de 1070 Ti, de 1080 en de veel snellere 1080Ti.
Ik vond de 1070ti zelfs nog beter dan de 1080
Helemaal eens. ik game zelf nog steeds op een GTX 1070 en een i5 3570, op 3440 ultrawide nog zelfs en het is eigenlijk gewoon prima te doen. Als ik nu 1000 euro uitgeef dan heb ik een behoorlijke boost te pakken verspreid over 7 jaar, dat gaat helemaal nergens over, zeker gezien de inflatie zoals jij zegt.

Het punt is in mijn ogen vooral dat de ontwikkeling langzamer gaat, er lijkt meer tijd te zitten tussen generaties en zowel nvidia als AMD hebben moeite om met een nieuwe generatie echt iets revolutionairs goeds neer te zetten. Dat is volgens mij echter gewoon helemaal te wijden aan de last van diminishing returns. De stap van 600x800 naar full-HD was visueel gewoon veel baanbrekender dan die van full-HD naar 4k. Gamen op 120HZ is leuk maar de stap van 30 naar 60 HZ is veel merkbaarder. De stap van 2d naar 3d games was wild, de stap van the witcher 3 naar elden ring was grafisch veel kleiner.

In die zien zitten we gewoon in een situatie waarin we kleine stapjes naar levensechte games zullen blijven maken maar dat gaat langzaam en tegen enorme grafische kosten, we kruipen daarnaar toe maaar ik zie gewoon echt geen revoluties meer gebeuren tenzij VR alsnog echt doorbreekt maar dat lijkt toch een beetje een niche te blijven helaas.
VR is echt die volgende stap, ik heb toen een low budget oculus go gekocht, puur om die VR ervaring. En jah dat was minstens (zo niet meer) indrukwekkend dan het resolutie/hz/frames verhaal. VR zie dan ook echt als een mijlpaal

(Ik wordt hardstikke missleijk zodra camerastandpunt beweegt, voor mij werkte er niet veel behalve games of interactie met een vast camera punt - “death and burried” grijs gespeeld)

[Reactie gewijzigd door himlims_ op 23 juli 2024 11:42]

Als je een Quest had zou je beslist b.v. iets in de trend van In death: unchained moeten proberen: daar loop je namelijk zelf rond als je de ruimte kunt vrijmaken, i.c.m. een teleportieprincipe via pijl en boog. Je loot in een grote gotische kerk rond. Je kan evengoed wel wat draaierig worden als je jezelf naar een dak o.i.d. teleporteert, maar je mist het gevoel van "ik beweeg - want beeld" tegenover "ik beweeg niet - evenwichtsgevoel en sensoren". Afhankelijk van je beurs zou een Quest3 wel eens het beste speelgoed uit je leven kunnen zijn, tenminste ik heb het zo ervaren!
Ze zouden VR eens als werkelijke 3D monitor moeten ontwikkelen voor zelfs gewone games, dan komen we ergens.
...heb je de sensatie van 3D TV's gemist destijds?
Nee, volledig meegekregen. Maar als je standaard spellen ook gewoon VR laat ondersteunen als een virtueel 3D scherm dan heb je er ook buiten VR specifieke toepassing ook wat aan.
En ik weet dat dat best een performance hit kan betekenen.
Ja een dikke flop dus, en de games moeten daarvoor ook aangepast worden wat alles weer duurder maakt ook al zou je er geen gebruik van willen maken. Trouwens VR gamen was allang mogelijk maar is volgens mij ook een dikke flop geworden en volgens mij lijkt het me ook niet erg gezond. Je mag eigenlijk niet langer dan een uur in die VR zitten anders kun je evenwicht stoornisen krijgen, maar welke fanatieke gamer stopt na een uur. Zou liever zien dat zij wat aan de audio doen zowel TV als PC Dolby Atmos b.v. Geluid van een TV klink vaak als een metale doos net als de meeste monitoren. Zou mooi zijn als zij de in de TV of monitor een kwalitatieve goede center speaker plaatsen en dat de games een Dolby Atmos of iets dergelijks ondersteunen. Op beeld kwaliteit zitten we allang al op de grens 8K of zelfs 16K is een verkoop truc het verschil is na 4K toch voor ons oog niet waarneembaar.
Maar de nVidia GTX1070 had 8GB, de RTX2070 had 8GB, de RTX3070 had 8GB, de RTX4070 had pas 12GB. Wat zegt dit, nVidia past tegenwoordig maximaal salami techniek toe in upgrades en er worden GPU's boven erbij gezet (RTX 4090) en lagere tiers worden minder 'goed' gemaakt (bijvoorbeeld de bussnelheid daalt in dezelfde tier) t.o.v. de verdeling in het verleden, dus in vergelijking worden de twee top tiers GPU's zeker duurder.

[Reactie gewijzigd door Jumpman op 23 juli 2024 10:22]

Ja, het is bijna allemaal 8gb maar voor dat level voegde meer ram geheugen niet veel extra toe. De snelheid van het geheugen is wel flink vooruit gegaan, van 8gbps voor de 1070 naar 21gbps voor de 4070. Dus daarin is welzeker een flinke stap gemaakt. Ook had die 1070 een geheugenkloksnelheid van 2000mhz nodig om die bandbreedte te behalen, en de 4070 had aan 1300mhz voldoende.

Oftewel die 12gb ram van de 4070 kan veel meer aan dan puur vanwege die 4gb meer.
Ik heb minder geld dan een ander, maar gamen is 1 van mijn grootste hobbies, daar kan je ook voor sparen of iets anders niet doen, zoals een telefoon van 200 euro en een videokaart van 600 in plaats van een telefoon van 600 en een playstation van 300.
Ik verwacht dat de 50-serie heel veel meer TOPS zal hebben dan de 40-serie en dat het geheugen wellicht ook rond de 16GB gaat liggen voor 'simpelere' kaarten, zodat je bijvoorbeeld MusicML / AudioCraft lokaal kunt draaien.

Daarnaast verwacht ik ondersteunimg voor INT4 en INT8 native.

Wellicht dat ze in plaats van 80 FLOPS er weer een verdubbeling komt. :9~

[Reactie gewijzigd door djwice op 28 juli 2024 23:02]

Dat is een lijstje van excuses om de GPU-prijzen na inflatiecorrectie te verdubbelen. Ze hebben shrinkflation (minder koopwaar in een doosje stoppen) en prijsverhoging tegelijkertijd toegepast. GPU-mining is allang dood en de GPU-prijzen zijn onder MSRP gezakt.

Vroeger was 192 bit geheugenbus in veel generaties grafische kaarten (GTX 1060, GTX 660 en GTX 760 heeft 256 bit geheugenbus voor 249 dollar) de norm in de 199 tot 249 dollar MSRP prijscategorie.

Er werd vroeger geklaagd over de kaalgeplukte, afgeknepen GTX 960 (128 bit geheugenbus) voor 199 dollar MSRP en Nvidia had een les geleerd, de GTX 1060 heeft weer 192 bit geheugenbus voor 249 dollar MSRP.

Voor veel gamers is GTX 1060 de referentie van vroeger was het goedkoper. Dus 8 jaren Amerikaanse inflatie: https://data.bls.gov/cgi-bin/cpicalc.pl
  • $199 dollar in june 2016 has the same buying power as $259.40 in june 2024
  • $249 dollar in june 2016 has the same buying power as $324.58 in june 2024
  • $299 dollar in june 2016 has the same buying power as $389.76 in june 2024
Wat kost een GPU met 192 bit geheugenbus en 12GB VRAM tegenwoordig?
  • RTX 3060 12GB is in de VS onder 270 dollar nieuwprijs gezakt. Terug in lijn met vroeger, maar deze vorige generatie GPU is 3 jaren geleden uitgebracht.
  • RX 6700 XT 12GB is daar 300 dollar. Terug in lijn met vroeger, maar 3 jaren oud en vorige generatie.
  • RX 7700 XT voor 390 dollar is wat vroeger $299. Een kleine prijsverhoging.
  • RTX 4070 voor 540 dollar en dat kan je naar de dollars van 2016 terug laten rekenen: $414.26 is duurder dan de GTX 1070 (256 bit geheugenbus) voor 379 dollar MSRP. 599 dollar MSRP kan je terugrekenen: $459.52 is duurder dan de GeForce GTX 1070 Ti (256 bit geheugenbus) voor 449 dollar MSRP. Voor de GTX 1060 bezitters is de sprong naar deze prijscategorie te groot.
Dit is nodig om voorbij de verstikkende 8GB VRAM te geraken. Zelfs op 1080p wordt het steeds problematischer: YouTube: Breaking Nvidia's GeForce RTX 4060 Ti, 8GB GPUs Holding Back The Ind...

In de comments zie je deze reactie:
2007 - 8800GT 512MB - $350
2015 - R9 390X 8GB - $430 (in 8 years from 512MB to 8GB)
2017 - gtx1070 8GB - $380
2019 - 2060 S. 8GB - $400
2021 - 3060ti 8GB - $400
2023 - 4060ti 8GB - $400 (8 years later still 8GB for ~$400)
Een lange tijd van stilstaan op 8GB VRAM.

Ik gebruik dollars als de referentie in de wereldhandel om de nationale verschillen (sales tax, BTW, wisselkoersen, invoerrechten, shipping costs,...) uit te sluiten.

De CPU-prijzen zijn naar het oude normaal teruggekeerd.
uitvoering: AMD Ryzen 7 7700 Tray voor 220 euro heeft geen inflatiecalculator nodig. Vroeger kocht je een uitvoering: Intel Core i5-4670K Tray voor ietsje onder 200 euro.

[Reactie gewijzigd door rapture op 23 juli 2024 12:39]

Precies waar je 10a 20 jaar geleden nog elke 2jaar ander pc kocht ivm sneller was. Is dat nu naar 5jaar gegaan. Wat de prijs per jaar omlaag drukt.
Ja PS5 is makkelijker om games te spelen. Pc games blijft beter ivm je dan de game ook nog eens kan aanpassen.
Maar nog steeds is het dan goedkoper (en verstandiger wellicht) om niet eens in de vijf jaar het flagship model te kopen, maar iedere 2-3 jaar een midrange model en je oude GPU 2ehands te verkopen. Flagships vreten stroom en schrijven af als een idioot zodra de nieuwe range lanceert, waarvan de midrange kaart ineens dezelfde prestaties biedt.

Ik ben het wel met je eens dat het fijn is dat hardware niet meer zo snel trager wordt of eigenlijk dat er minder progressie in zit. Ik vind het nog steeds bizar dat ik 10 jaar geleden een Lenovo Y510p gaming laptop kocht voor ~ 1200 euro met 16GB en dat mijn nieuwe laptop, 8 jaar later, weer met 16GB geleverd werd en dezelfde nieuwprijs had. En games zijn tegenwoordig ook prima te spelen met een kaart die 2-3 generaties ouder is.
4080vs4090 was ongeveer 35% meer performance idem voor prijs.

3080vs3090 was maar 10% verschil in gaming performance maar wel dubbele prijs...

Deze generatie was de flagship 4090 een betere keus, vorige generatie uiteraard de 3080.

Ik vrees dat nvidia onbeschoft 2999€ voor de 5090 en 1499€ voor de 5080 gaat vragen.
Onbeschoft? Ik denk dat we beter moeten leren accepteren dat er in computer hardware ook "Whale" segmenten zijn. Top of the line hardware voor vaak redelijk uit prijs/prestatie verhouding ten opzichte van het segment er onder. Dit is gewoon niet voor iedereen weggelegd en daar lijkt veel frustratie door te komen.

Dat 4K of high fps gaming mogelijk is wil nog niet zeggen dat iedereen het recht heeft dit te moeten kunnen. Je weet dat als dat jouw streven is dat je gewoon een flinke portemonnee moet hebben.
Er is genoeg hardware wat een betere prijs/prestatie verhouding heeft waar je prima mee kan gamen, maja, misschien niet op 4K / 200+ fps.
Naast de vraag wat goedkoper is zou ik ook graag willen weten wat duurzamer is. In principe vind ik 300-400 W energieverbruik moeilijk te rechtvaardigen, maar een high-end verbruikt dit natuurlijk ook alleen maar als je het vraagt. Bij VR is het toch prettig om de beste ervaring te hebben. Bij een midrange model is de verwachting gewoon dat je eerder een user case tegenkomt waarbij vervanging gewenst is. Een RTX 4090 zal allicht een wat hogere base load hebben, maar scoort toch ook goed op efficientie. Bovendien weet niemand precies wanneer je 24 GB VRAM nodig gaat hebben.
Gevoelsmatig draag je volgens mij met het kopen met van een 4060 bij aan een afvalberg van producten die snel end-of-life zijn, maar helaas ik heb geen onderbouwd 'optimum' kunnen bedenken.
Nouja, ik vind PC gaming beter dan console faming omdat op de PC de games die ik in de 90-er jaren kocht en later op Steam, nu nog steeds op bijna elke PC kan spelen ondanks dat die al een paar keer van configuratie is veranderd.
Combinatie van crypto, covid((tijdelijk)stoppen productie fabrieken, tekorten onderdelen), inflatie…
Je bent hebzucht vergeten in de lijst.
Sinds crypto en covid hebben veel bedrijven geleerd dat ze perfect de prijs kunnen verhogen zonder enige schroom.

Ik ben het wel met je eens dat gaming nog steeds een relatief goedkope hobby is. Je maakt het natuurlijk zo duur als je zelf wil, net zoals alle andere hobby's.

[Reactie gewijzigd door IamPeacock op 23 juli 2024 08:49]

Het is ook gewoon vraag en aanbod. Dat is inderdaad hebzucht, maar dat was er altijd al en inherent aan kapitalisme.

Er is, door AI en crypto, gewoon veel meer vraag en dat is alleen nog maar aan de GPU kant. Ook chips en materialen daarvoor hebben meer vraag en zijn dus duurder.

Probeer maar eens een slot te vinden bij TSMC voor hun 3nm chips het komende jaar bijvoorbeeld.
Het heeft vaak niet met hebzucht te maken, zowel Intel, AMD als Nvidia zeggen allemaal dat het gewoon steeds duurder wordt om nieuwe GPU's op kleinere procede te fabriceren.
Ik kan me voorstellen dat het geld kost, maar je gaat me niet wijsmaken dat dat voorheen veel anders was afgezet tegen inflatie. Ja, complexiteit neemt toe maar bouwt ook op vorige generaties aan inzichten en componenten. Maar het is altijd bleeding edge geweest.

Je zag dit bij Apple, Samsung en GPU's al eerder: bleeding edge als categorie is gewoon sneller duurder geworden dan inflatie alleen kan verklaren.
Omdat het voortbouwt op eerder inzicht maakt het niet automatisch goedkoper. Zeker de eerste lichtingen hebben vaak slechte yields, maar dat testen en sorteren van welke uit die schijf wel/niet goed zijn kost ook heel wat.
Inflatie heeft weinig te maken met het complexer worden van de architectuur (en daarmee vaak ook lagere yields het eerste (en tweede) jaar). Men wil sneller vooruit (dus kleiner) waardoor de investering duurder wordt omdat er in kortere tijd sneller terugverdient moet worden.
Dat laatste is dus precies waar het om gaat, niet dat de kostprijs per stuk werkelijjk omhoog gaat.
Dat zegt dan meer over de mogelijkheden van de GPU ontwikkelaars door de jaren heen.

Pak even de performance winst erbij jaar op jaar van de videokaarten tussen 1990 en 2010. Check de prijzen en gooi er inflatiecorrectie overheen en je ziet dat de videokaarten eigenlijk goedkoper werden terwijl ze exponentieel groeide in performance. Ik kan in ieder geval twee verklaringen opnoemen waarom dat toen mogelijk was:

De PC markt was een enorme groei aan het meemaken en pas kort toegankelijk voor het grote publiek. Computers werden goedkoper, want er kon op grotere schaal geproduceerd worden en de supply chain verbeterde snel. Begin 90's betaalde je zo fl.10.000,- voor een high-end computer met beeld (ca. €11.000 gecorrigeerd voor inflatie), in 2004 was dat nog maar 3.000 euro.

Moore's wet was nog niet dood. De transistordichtheid jaarlijks verhogen leverde snel enorme performance winst op waar we nu tegen allerlei natuurkundige barrières aanlopen. De winst zal uit andere vlakken moeten komen zoals efficiëntie en architectuur.

De markt stagneert nu al enkele jaren sinds 2010. Het is niet meer interessant voor investeerders om er geld in te stoppen. Nu wordt het maximaal dividend uitkeren en winstmarges vergroten terwijl de performance gains steeds lastiger worden en meer uitgesmeerd worden. Gaming wordt duur terwijl het nauwelijks sneller wordt. En het is mede mogelijk vanwege de functionele overlap die GPU's hebben voor A.I. toepassingen. Een extreem snel groeiende markt wat deels bubbel is. Kan nu al niet wachten tot we daar over de initial hype peak heen zijn en de bubbel weer knapt. A.I. is nog niet zo waardevol en geniaal als de koersen nu doen laten geloven, dat gaan nog vele jaren overheen. Tot die tijd is dit een hobby dit ik vrij makkelijk kan droppen :) Wellicht dat er in de toekomst nog betere tijden aankomen.
Het bleek dat gamers gewoon zonder schroom die heel hoge prijs gingen betalen. Dus wat ze toen wilde betalen, gaan ze ook nu betalen.
Maar is het dan wel een echte hobby? Een hobby mag best wat kosten en een game hobby is relatief goedkoop.
Fout, nee, en oneens.

Een echte hobby hoeft echt niets te kosten, en een “game hobby” zou ik beschrijven als duur.. zelf vergeleken met ICT hobbies.
Covid is voorbij, crypto is niet langer rendabel, fabrieken zijn er zat met de AI en onderdelen zijn er genoeg nu landen massaal aan het mijnen zijn, en inflatie is er altijd
Dat goedkoop ben ik niet helemaal mee je eens wat betreft een game hobby. Dat hangt er vanaf met wat voor doeleind je aanschaft. Je kan ook beeldjes van games verzamelen die in waarde stijgen als hobby. Heb zelf een aardige verzameling aan magic kaarten en retro games wat me bakken en bakken met geld kost. Echter deze hobby's mogen geld kosten omdat het economisch waardevast is.

Een videokaart schrijft sneller af dan een auto en tegenwoordig soms net zo duur als een tweedehands auto. Wat mij betreft mag een videokaart nooit (te) veel kosten. 700 euro voor high-end is m.i. de max. Dat naast het feit dat Nvidia absurde marges aanhoudt en je deels voor lucht betaald, maakt voor mij ook dat de hobby ten einde is. Volgende PC gaat een APU hebben, verlies mijn interesse voor moderne games bovendien ook nog eens vanwege de hoge mate van monetization dus dat gaat hand in hand samen.

[Reactie gewijzigd door Chrono Trigger op 24 juli 2024 09:52]

Mijn PC is ondertussen een jaar of zes oud en er zit een Core i5 4960K in, een RX 580 (4GB) en 16 GB DDR3 @ 800 als scherm een 14 jaar oude Syncmaster XL2370 (Full HD @ 60Hz).
Dat werkt wel nog redelijk, zelfs voor de meeste nieuwere spellen AAA, maar dan moet alles bijna op low staan en soms ook nog DLSS en moet je wat geduld hebben bij het laden.

Ik zou graag mijn GPU eens upgraden maar dan moet al de rest helaas ook vervangen worden (zelfs mijn 650 Watt PSU) en daar heb ik geen geld voor. :O
Dus ik ben het niet echt eens met wat je zegt, helaas.

[Reactie gewijzigd door Wim Cossement op 24 juli 2024 20:26]

Same, de prijzen die ontstonden tijdens de mining gekte zijn naar mijn idee nooit meer weggegaan en hebben mij naar de PS5 gejaagd voor gaming. En nog steeds koop je voor de prijs van een 4080 twee Playstations, gekkenhuis.
Wat betreft de PC markt: die doet het toch juist goed als geheel? Ik dacht zelfs groei?
Mede door het bestaan van APU/IGPU. Ga er maar vanuit dat 95% integrated graphics heeft.
Als je spreekt over de volledige computer markt dan kan het misschien kloppen.

Maar gamers die Steam gebruiken vertellen wel een ander verhaal:
https://store.steampowered.com/hwsurvey/videocard/
95% van de computer markt heeft iGPU? Echt niet hoor.
ik denk wel veel meer dan je denk. De meeste zakelijke pc's/laptops hebben genoeg aan een iGPU. want voor wat office werk en ERP werk hoef je vaak geen GTX te hebben. En er zijn meer zakelijke pc's/laptops dan thuis/game pc's.
Zeker mee eens. Maar 95% is wel erg overdreven. 80% is een veel realistischer getal.
Tijdens de mining gekte was mijn 3060 Ti bijna 800 euro, ik heb nu een 4070 voor 540, die prijzen zijn er niet meer, voor 300-400 heb je een kaart waar je de meeste games mee kan spelen.
Ja als je niet perse op 4k met ray tracing wilt spelen voldoet zelfs een 3060 nog!
Helemaal eens met jullie beide, ik heb een 4070 Super (MSI gaming X Slim) op de kop getikt voor €600 nagenoeg nieuw (2mnd oud + garantie) op MP en ben een blij man. Maar ik ben altijd van mening geweest dat we moeten realiseren dat je veel meer uit je hardware kan halen als je niet alles op Ultra klapt en de settings goed tweaked, DF (Digital Foundry) schrijft steeds vaker optimalisatie stukken waarmee je een significante FPS boost krijgt zonder echt in te leveren op beeldkwaliteit. Dat is het mooie aan PC gaming, alhoewel ik gamen op mijn PS5 ook erg chill vind. ;)
Wat betreft de PC markt: die doet het toch juist goed als geheel? Ik dacht zelfs groei?
Tijdens de coronaperiode werden door veel bedrijven desktops vervangen door laptops of extra computers gekocht, zodat mensen thuis konden werken. Dit deden ze met name ook met computers die relatief oud waren, maar zonder corona wat later waren vervangen. Daarna stortte de markt in, want al de nieuwe computers hoefden natuurlijk niet meteen weer vervangen te worden. Nu zien we dat de markt weer aan het normaliseren is, maar herstel naar een meer normaal patroon is niet per se hetzelfde als groei op de lange termijn.

Overigens zien we bij GPU's dat er al heel lang een gestaag dalende lijn is in de consumentenverkopen, los van korte termijn-trends.
Volgens mij zijn videokaarten helemaal niet duurder geworden.
Kijk eens naar de prijsgeschiedenis van de GTX 1060, jarenlang de populairste kaart:
uitvoering: MSI GeForce GTX 1060 Gaming X 6G
Deze schommelde rond de 350 euro.

En kijk eens naar de RTX 4060 (ook MSI):
uitvoering: MSI GeForce RTX 4060 Ventus 2X Black 8G OC
Die zit eigenlijk al sinds het begin een stuk onder de 350. Goedkoper dus.

En is een RTX 4060 echt slechter dan hoe de GTX 1060 was indertijd? Ik heb het idee van niet. Deze midrange kaarten kunnen prima iedere nieuwe game spelen met acceptabele graphics en framerates. Uitzonderingen daargelaten want die heb je altijd wel.
En nog steeds koop je voor de prijs van een 4080 twee Playstations, gekkenhuis.
Voor de oorspronkelijke prijs van een GTX 1080 kocht je ook twee Playstations. High-end is altijd wel een beetje in die richting geweest.

Wat wel een verschil is, en daar hebben consoles ook last van, is dat chips niet meer goedkoper worden gedurende hun levensduur. De PS5 is zelfs in prijs gestegen.

[Reactie gewijzigd door Wolfos op 23 juli 2024 14:12]

Niet lang geleden RX 7800XT gekocht voor 560 euro met een cashback actie van 80 euro van Asus.
Ik kan voorlopig weer voort met deze kaart, 3-4 jaar zeker denk ik.
Veel plezier ervan,

560 gedeeld door 3 valt dan toch wel mee voor hobby.
Dat is ook wat ik gedaan heb (los van de cashback). Een goede GPU en het bedrag kwam grofweg overeen met wat ik in 2019 voor mijn RTX 2060 Super heb betaald: 460 euro.

Ook ben ik bewust voor AMD gegaan, omdat ik geen trek had in de beruchte smeltende/verbrandende 12Vhpwr NVIDIA connector. Hopelijk nemen ze daar in de 50-serie ook weer afscheid van.
Volgens mij is het een kwestie van goed aanklikken en zijn er al een geruime tijd verbeterde kabels welke makkelijker erin gaan. De eerste versies waren te strak waardoor veel mensen ze niet door durfde te drukken.
Volgens mij was het juist zo dat de stekker te ruim was in plaats van slap. En zijn er veel gevallen geweest waarbij de stekker volledig vastgeklikt zat, maar door de scherpe bocht die in bijna alle kasten nodig is toch slecht contact maakte.

Dit hebben ze proberen op te lossen door de pinnen langer (en ik dacht dikker) te maken. Maar nog steeds komen er videos voorbij waarbij de connector nog steeds smelt. Het blijft gewoon een achteruitgang ten opzichte van de 8pin PCI-E stekkers, die het nog steeds prima doen.
Ook ben ik bewust voor AMD gegaan, omdat ik geen trek had in de beruchte smeltende/verbrandende 12Vhpwr NVIDIA connector. Hopelijk nemen ze daar in de 50-serie ook weer afscheid van.
Nee, de RTX 5000 serie krijgt ook weer een vergelijkbare connector van een ander type:
Besides these, there's nothing more interesting to go by except the fact that Seasonic mentions that all NVIDIA GeForce RTX 50 "Blackwell" Gaming GPUs are using a 16-pin connector. This should be the new 12V-2x6 design and not the older 12VHPWR design that caused a lot of issues with the RTX 4090.
Bron: https://wccftech.com/nvid...220w-5060-170w-5050-100w/
Zijn alweer gereviewed in de ATX 3.1 specificatie.
De vraag naar gpu's voor gaming is volgens mij niet echt minder geworden. Maar crypto mining en aansluitend ai heeft de prijzen dusdanig opgedreven dat upgrades zo lang mogelijk uitgesteld worden.
Moet zeggen dat ik best wat hobbies heb en gamen (pc) toch wel een van de goedkoopste is.
Idem. Reken je hobbies voor de aardigheid eens om naar per minuut. Zeker als je voor een hobby allerhande spullen gekocht hebt en je vervolgens een korte tijd later wéér een nieuwe hobby hebt. :/
Als dat uitrekenen en je eigen data analyse ook nog eens je hobby is heb je dubbel plezier van je hobbies.
'Ik hou van hobbies'
nvidia hoeft het helemaal niet te hebben van de verkoop voor gaming lijkt me. de verkopen vanwege AI zijn enorm en daarnaast nog steeds crypto-mining. Gaming is bijzaak geworden.
Wat is precies je hobby, ieder jaar de nieuwste kaart kopen? :+

Als je eens per 2 of 3 jaar een nieuwe mid-tier GPU koopt, voor de prijs van een console, is gamen zoals altijd alleen maar vooruit gegaan?

De teruglopende verkopen wijt ik aan het feit dat mensen nog hun corona-kaarten, waar ze de dubbele prijs voor hebben betaald, blijven gebruiken. Ik koop over het algemeen iedere 3 jaar een nieuwe GPU, maar mijn 3060Ti gaat het denk ik nog wel 2 jaar extra volhouden. Niet alleen vanwege de prijs, maar ook de brute prestaties. Ik haal 100 fps op UWQHD in de meeste games - want ik ben niet bang m'n instellingen aan te passen en heb realistische verwachtingen.

Ik zie de toekomst juist wel rooskleurig in, er is veel te kiezen in ieder budget en de prestaties zijn fantastisch en blijven maar stijgen.
Wat er in mijn ogen is gebeurt is het volgende. We zijn in rap tempo van 1080p naar 1440p naar 4K(2K verticaal) gegaan. Een 4K resolutie heeft 4 keer zoveel beeldpunten als 1080p.

Daarnaast heeft raytracing zijn intrede gedaan. Spelen met alle toeters en bellen aan op de allerhoogste resolutie kost nu eenmaal geld.

Toch zijn er positieve zaken te melden. Toen ik begon met gamen op de PC, kocht ik een 3dfx addon kaart. Daarna moest ik om het anderhalf jaar een kompleet nieuw systeem kopen om te kunnen gamen, het oude systeem kon de nieuwe games niet meer draaien. Daar zijn we nu vanaf, op een 7-8 jaar oud systeem kun je nog prima op 1080p spelen, alleen enkele veeleisende titels zoals Cyberpunk 2077 en Alan Wake 2 hebben misschien een upgrade nodig.

Maar als je een iets nieuwer systeem hebt, ondersteunt je GPU DLSS of FSR, waarmee je GPU kan upscalen. Misschien is je initiele uitgave wat hoger, je kunt dus veel langer met je hardware doen dat ooit. Je kunt ook op lagere resolutie gaan spelen, als je eenmaal in het spel zit, merk je daar weinig van. Je hersenen passen zich pijlsnel aan.

Overigens maken Tweakers de vergissing dat ze denken dat GPU fabrikanten het moet hebben van consumenten. De toekomst zijn datacenters, daar zit het grote geld. Daarom is, met name Nvidia dat ontettend veel GPUs voor AI verkoopt, met rasse schreden een biljoenenbedrijf aan het worden dat zich op de beurs spoedig kan meten met Microsoft en Apple.

[Reactie gewijzigd door ABD op 24 juli 2024 14:24]

4090 launch kopers zijn de real winners
Mwoah, natuurlijk hebben ze een relatief lange levensloop en het rijk alleen in de high-end, maar ze worden nog steeds met een DisplayPort 1.4 connector geleverd uit 2016 wat niet eens 4K 144Hz zonder compressie kan leveren, wat eigenlijk een beetje een blamage is voor de prijs en kaliber van GPU die hier eigenlijk voor gemaakt is.

Verder denk ik dat ik meer bang for buck heb gekregen met de EVGA 1080Ti FTW3, inmiddels meer dan 7 jaar in gebruik en hij voelt nog onversleten als dag 1, voor de helft van de prijs van een RTX 4090 en speelt nog steeds titels als Hogwarts Legacy, Ratchet & Clank Rifts Apart en Halo Infinite op Ultra 1440P zonder problemen i.c.m. G-sync.

Verder is het fijn dat dit nog een GPU is met de oude type connectoren en maar 2-slots, ondanks redelijk lompe afmetingen is er totaal geen sagging aan de hand. Wellicht dat o.a. MSI, Asus, en Gigabyte daar nog eens iets van kunnen opsteken na 15 jaar. Verder lukt het met dat ding ondanks 320W (355W kan ook) onder de 50°C te blijven met 3D Mark benchmarks. :+

De volgende wordt waarschijnlijk wel de RTX 5090, meer VRAM buffer om bijvoorbeeld meer te kunnen multitasken en twee zware spellen tegelijkertijd te draaien zonder te hoeven VRAM swappen, PCI-E 5.0 (dit ondersteund m'n moederbord), een grotere bus-breedte van 448-bit of wellicht zelfs 512-bit wat zeker de bruikbaarheid op hoge resoluties qua bandbreedte en performance ten goede komt i.c.m. het snellere VRAM geheugen en natuurlijk DisplayPort 2.1.

Alleen krijgt de RTX 5090 blijkbaar een nieuw type stroomconnector:
https://wccftech.com/nvid...220w-5060-170w-5050-100w/
Besides these, there's nothing more interesting to go by except the fact that Seasonic mentions that all NVIDIA GeForce RTX 50 "Blackwell" Gaming GPUs are using a 16-pin connector. This should be the new 12V-2x6 design and not the older 12VHPWR design that caused a lot of issues with the RTX 4090.
Zit een beetje te wachten totdat Corsair komt met een fatsoenlijke AX1200i/AX1600i vervanging want ik zie liever geen geklooi met adapters en een HXi-serie is mijn inziens een downgrade, blijft wel erg stil in die hoek.
Je gamed met meerdere personen op 1 PC? Welke tools gebruik je daarvoor?
Nee, ik multi-task, soms is het fijn in de achtergrond voor iets een ander spel ook open te hebben tegelijkertijd, tevens vreten browsers tegenwoordig ook aardig aan de VRAM buffer met Windows 10 DWM.
RTX3080 Founders Edition launch koper tijdens corona met 16% BTW in Duitsland. €699 voor een RTX3080. Als je 'm kon krijgen }>
Prima, kan ik nog meer sparen om een 5080 te halen voor €2k
Wie zegt dat ie geen 3k gaat kosten :P
Waarom zou die 2k gaan kosten? Hooguit de 5090 gaat dat kosten.
Uhm de RTX 4090 kost al sinds release gewoon 2k in Nederland.

Dat word gewoon 2500 euro NGreedia kennende. En ze kunnen het vragen. Er is immers toch geen concurrentie op dat niveau.

AMD lijkt dat ook opgegeven te hebben. De 7000-serie is niet slecht en heeft meer geheugen bandbreedte dan de direct Nvidia tegenhangers. Ook een betere rasterization performance voor hetzelfde geld.

Echter geen DLSS, mindere ray tracing en duidelijk minder met productievere taken.
Sarcasme noem je dit. omdat ze elke keer flink duurder worden.
Ik wacht wel tot het einde van het jaar wanneer de normale kaarten, de 5060 en 5070 op de markt komen. Daar zul je ook prima 4K op kunnen gamen.
Natuurlijk volledig via verwachting, een "delay" van Blackwell. Nvidia heeft geen enkele reden om het uit te brengen, wanneer ze dat nu zouden doen concurreren ze alleen met henzelf, de RTX4000 reeks.

Dat AMD helemaal geen nieuwe flagships gaat brengen, daar ben ik het al helemaal niet mee eens vanaf het begin dat leakers dit de wereld in brachten.
AMD heeft veel terugkerende en nieuwe klanten gekregen met de 7000 en zelfs de 6000 reeks. Wanneer Blackwell wel uit zou komen en er is geen AMD alternatief en die komt ook niet dan verliezen ze die allemaal weer.
Of dat toch een Next gen zou worden of wellicht een 7950/90 XTX weet ik niet maar AMD moet tegen die tijd met iets komen maar dat is een ander verhaal.

Dat Blackwell dit jaar niet uitkomt is geheel naar verwachting wat mij betreft.
Het ding is natuurlijk dat AMD deze generatie geen echt antwoord op de 4090 had. Als de 5090 een stuk sneller is dan zijn voorganger dan betekent dat dat AMD een topkaart uit moet brengen die een sprong van meer dan een AMD generatie moet maken. Dat lijkt me redelijk onwaarschijnlijk.

[Reactie gewijzigd door oef! op 23 juli 2024 09:14]

De 7900 XTX is in veel gevallen een stuk sneller dan de RTX 4080 totdat je pathtracing gaat gebruiken. Er is wel een antwoord op rasterization maar niet op pathtracing. Echter in sommige games is er ook met die opties aan geen verschil. Zal dan toch minstens ook iets met implementatie te maken hebben. Dat ze een hele gen achter zouden liggen vind ik niet kloppen. De laatse info over de verbeteringen mbt pathtracing (ps5 pro) zijn best wel positief.
Zelf hechte ik niet veel waarde aan pathtracing en gebruikte dat ook niet en de performance was veel beter dan met een 4080, in sommige situaties tegen 4090 territorium aan en dat voor de helft van de prijs.
De enige reden dat ik weer naar Nvidia ben over gestapt zijn bepaalde features mbt Ai

Ze liggen op dit moment met ray en path tracing behoorlijk achter, dat klopt wel inderdaad dus wil je dat dan zit je wel aan Nvidia vast uiteraard

[Reactie gewijzigd door NosferatuX op 23 juli 2024 10:30]

Wel een stilte op de markt sinds eind 2022 dan.
Al komen de kaarten pas over 2 of 3 jaar uit. Games te vroeg uitgeven, hebberige uitgevers etc. is een groter probleem dan een gebrek aan hardware power naar mijn mening.
Het is maar afwachten tot er weer een goede game uitkomt die veel van de hardware vraagt zoals vroeger met Far Cry. Met de nadruk dus op een goede game want daar schort het tegenwoordig nogal aan.
Far Cry was toen ook al berucht om dezelfde reden waar we nu structureel over klagen: Matig geoptimaliseerd.
Zolang iedereen Games blijft pre-orderen zal dat ook niet veranderen. Als iedereen vanaf vandaag besluit te stoppen met het pre-orderen van Alpha/Beta games, dan zal dat probleem vrij snel verdwijnen.
Het zijn ook vaak slechte games, slechte optimalisatie zoals Helltide of DEI-agenda's ingebakken.
Daar trek ik niet mijn portemonnee voor open.
Off-topic, maar ik zou aanraden om eens wat oude games te spelen. Het zou je verbazen hoeveel bugs en slechte afwerking we vroeger okee vonden.

Hierdoor kon wel meer risico genomen worden met bijzondere gameplay, dus van mij mag de jank terugkeren.
Het wordt de vraag wat er nu gaat gebeuren met de prijs-prestatie verhouding. De afgelopen jaren was die mijns inziens uit balans: de kaarten waren me te duur.

Natuurlijk super interessant om te lezen wat de inflatie doet met oude kaarten.

Maar als consument denk ik meer in termen van prijssegmenten en de ervaring die daar bij hoort. En daar gaat het mijns inziens steeds vaker mis. Ik was in het verleden best bereid om €2500 tot €3000 aan een nieuwe pc uit te geven als ik kan 1-2 jaar kon genieten van de wow-factor van elke nieuwe game op de ultra luxe settings en daarna 3-5 jaar high en medium.

Echter toen ik in 2018 mijn pc kocht kon je voor dat geld bijvoorbeeld niet Red Dead redemption 2 op de hoogste settings draaien. 4k en ultra. Daardoor besloot ik toch maar voor de 2070 te gaan. Maar die was toen ook al best duur! Dan krijg je voor je gevoel minder ervaring voor meer geld.

Dat is natuurlijk zo subjectief als het maar zijn kan. Tegelijkertijd wordt de manier waarop consumenten geld uitgeven voor een groot deel door subjectieve redenen bepaald.

Ik snap het gevoel wel.

Nu de crypto-mining trend voorbij is en de groei weer afremt is het de vraag wat nvidia gaat doen. Gamers zijn de afgelopen jaren misschien niet de grootste driver van omzet geweest. Maar ze zijn historisch wel een stabiele groep klanten geweest met een stabiele groei. Het zou verstandig kunnen zijn om gamers weer dat "wow-gevoel" voor een goede prijs te geven.

Maar ja, de volgende trend lonkt alweer: In de markt voor A.I. valt op de korte termijn veel meer geld te verdienen. De vraag is of Nvidia nog veel geeft om de markt van gamers.
Die volgende trend (AI) lonkt niet, die is al in volle gang.. Nvidia verdient er letterlijk op dit moment al miljarden aan.. Gamers doen er daardoor inderdaad even niet echt meer toe voor Nvidia.. Ze zullen de GeForce afdeling echt wel gaande houden, maar verwacht niet echt lagere prijzen, omdat die prikkel dus totaal ontbreekt voor Nvidia.. Ook omdat AMD en Intel ook qua prestaties niet echt concurrentie kunnen bieden kan Nvidia infeite vragen wat ze willen.. Dat ze qua aantallen dan wat minder gaming GPU's verkopen nemen ze op de koop toe, sterker nog het komt ze vermoedelijk wel goed uit omdat ze de productiecapaciteit liever voor AI gebruiken waar nog veel meer te verdienen valt..

Aan de andere kant was er de laatste Nvidia generaties wel een trend te zien van dure innovatie en daarna betere prijzen.. Zo was de 20-serie ook duur en de 30-serie daarna beter betaalbaar, daarna de 40-serie weer duur, dus hopelijk wordt de 50-serie weer beter betaalbaar.. Maar dat is pure speculatie en vooral wensdenken vrees ik.. We hebben gewoon pech de laatste jaren dat er steeds weer iets nieuws in de wereld komt waar de industrie veel meer aan kan verdienen dan GPU's maken voor gaming.. Eerst crypto nu weer AI.. Hopelijk is AI net als crypto een tijdelijke hype en komt er daarna evgfen een tijdje niks.. Gaming is inderdaad wel de meest stabiele markt voor ze, dat zal voorlopig niet verdwijnen..
Daar heb je gelijk in, die A.I. trend is natuurlijk al (bijna) op het hoogtepunt. De nadelen die jij benoemt voor gamers zie ik ook in de lucht hangen.

Dat zou op de lange termijn ook een voordeel kunnen zijn: game-ontwikkelaars zouden hierdoor gestimuleerd kunnen worden minder intensieve games te maken. En dat zou dan weer betekenen dat je steeds beter af bent met een midrange- of budget kaart. Waardoor de hobby dan weer goedkoper en toegankelijker wordt.

Of misschien vindt er binnen de komende paar jaar wel een disruptie plaats uit een hoek die niemand verwacht? Een nieuwe toetreder tot de markt die een betere deal biedt? Maar ja, welk bedrijf zo zoiets kunnen?
De GPU markt is echt ontzettend veranderd de afgelopen jaren. Wie met een 4080 of 4090 zou nu moeten upgraden? Nog niet iedereen gamet op 4K en als je dat wel doet zit je nog steeds ruim. VR is een stille dood gestorven en de consoles lopen nu alweer mijlenver achter. Ik kan me nog tijden herinneren, niet eens zo lang geleden met de 2080ti, dat je echt op een upgrade zat te wachten toen je die kaart een paar jaar had. Nu speelt dat totaal niet in mijn beleving.

[Reactie gewijzigd door Yordi- op 23 juli 2024 08:28]

Dat probleem had ik al sinds de 1080Ti, een van de grootste 'vergissingen' die Nvidia in de recente tijd heeft gemaakt, kan zelfs zich hedendaags nog met een RTX 4060 meten, en via Lossless scaling is er zelfs een DLSS-achtige techniek beschikbaar voor deze kaarten.

Het was telkens of geen overtuigende hoeveelheid VRAM, een verslechterde beschikbaarheid, hogere prijzen, VRAM problemen met de RTX 2000 kaarten in het begin en dat soort fratsen en dan weer de nieuwe stroom perikelen bij de RTX 4000 series waar de RTX 3000 dat ook enigszins had met de stroompieken die niet elke PSU leuk vond.
Nou, in mijn omgeving allemaal PSVR1 en 2's, Quest 2 en 3's, zelfs m'n neefjes en hun vrienden hebben VR.. Dus ik heb zeker niet het gevoel dat VR dood is..
Onlangs ook bericht op Tweakers:

nieuws: Gerucht: Meta Quest 4 komt in 2026 op de markt, Quest Pro 2 in 2027

En consoles mijlen ver achter, tsja het is maar net hoe je het ziet he..
Ik zag theradbrad onlangs teruggaan naar ps5 omdat het spel op pc brak was en niet goed draaide op zijn 4090..

Ik vind wel dat je enigszins een punt hebt, maar wel zwaar overdreven..
Nou, in mijn omgeving allemaal PSVR1 en 2's, Quest 2 en 3's, zelfs m'n neefjes en hun vrienden hebben VR.. Dus ik heb zeker niet het gevoel dat VR dood is..
Ik ken best veel mensen (inclusief mezelf) die een VR-bril hebben, maar hem niet meer gebruiken. Nu is het zo dat mijn kennissen veelal in de techindustrie zitten en voor hun werk ook regelmatig met VR in aanraking komen, dus mogelijk zijn we niet echt representatief.

Hoe zit het met uw neefjes en hun vrienden? Ze hebben VR-brillen, maar gebruiken ze ze ook?
De brillen worden veel gebruikt, bij mijn vrienden wat minder omdat ze minder tijd hebben, bij mn neefjes en hun vrienden dagelijks. Zelfs standalone worden ze bijna net zo vaak als aan de pc gebruikt.
Even afgezien van het beeld, wordt hij ook vaak gebruikt om met elkaar te chatten, zit een goeie ingebouwde mic in en speakers zijn ook ok.

Ik word er zelf heel soms wat misselijk van maar ik leen af en toe quest 2 om ff racesim te doen.
Je hebt tegenwoordig ook 4k 240hz. En een 4090 haalt dat niet in elk spel. Dus er zijn wel redenen.

En er zullen ook al wel mensen zijn die 8k 60 proberen te pushen op hun nieuwe tv
Kan niet wachten. Mn portemonnee staat wagenwijd open. The more you buy, the more you save.
Zolang ze de prijzen niet laten zakken zal er weinig interesse zijn.

Op dit item kan niet meer gereageerd worden.