'Ook Nvidia GeForce RTX 50-serie is uitgesteld naar begin 2025'

Eerder deze week wisten we te melden dat AMD en Intel hun volgende generaties videokaarten hebben uitgesteld. Inmiddels heeft Tweakers bij meerdere bronnen op de Computex-beurs kunnen bevestigen dat ook Nvidia's RTX 50-serie is uitgesteld.

De afgelopen jaren hanteerde Nvidia een tweejaarlijkse cadans voor de introductie van nieuwe desktopvideokaarten voor gaming. De eerste gpu's in de RTX 20-serie werden aan de vooravond van Gamescom 2018 aangekondigd, midden augustus. De RTX 30-aankondiging vond op 1 september 2020 plaats; 's werelds grootste gamebeurs ging toen niet door vanwege covid. Een RTX 50-aankondiging rond Gamescom lag dit jaar dus voor de hand, maar de kans daarop is inmiddels heel klein. Eerdere geruchten spraken al van een beperkt uitstel naar een release in oktober, november of december.

Diverse bronnen die in nauw contact staan met Nvidia, meldden tijdens de Computex-beurs aan Tweakers dat de nieuwe generatie videokaarten volgens de huidige planning pas begin 2025 in de verkoop zal gaan. Het moment van aankondiging zou wellicht nog net in 2024 kunnen liggen, maar dat staat nu nog niet vast. Hoe dan ook zullen er voor het nieuwe kalenderjaar geen noemenswaardige volumes beschikbaar zijn voor een eventuele verkoopstart.

De redenen voor het uitstel van Nvidia's GeForce RTX 50-serie laten zich raden. Hoewel geen van beide naar verwachting een bedreiging zal vormen in het high-end segment, hoeft Nvidia zich met het uitstellen van de nieuwe Intel Arc- en AMD Radeon-videokaarten voorlopig geen zorgen te maken over concurrentie. Daarnaast benut Nvidia zijn wafercapaciteit vermoedelijk veel liever om gpu's voor AI-acceleratorkaarten te fabriceren, waar Nvidia nog veel hogere prijzen voor kan vragen en waarnaar de vraag bovendien enorm is.

Volgens geruchten wordt de RTX 5090 gebaseerd op een GB202-gpu, terwijl de RTX 5080 een lager gepositioneerde GB203-chip krijgt. De volledig ingeschakelde GB202 en GB203 krijgen naar verwachting respectievelijk 24.576 en 12.288 CUDA-cores. In werkelijkheid wordt vermoedelijk een deel van de CUDA-cores uitgeschakeld om de yields te verbeteren. Daarnaast werd eerder gespeculeerd dat de RTX 50-serie gebruikmaakt van GDDR7-geheugen en geproduceerd zal worden op TSMC's 3nm-procedé.

Nvidia liet op Computex wel diverse AI-demo's voor gamers zien, maar zei niets over de volgende generatie GeForce-videokaarten

Door Tomas Hochstenbach

Redacteur

08-06-2024 • 06:34

140

Lees meer

Sony slaat gamescom 2024 over
Sony slaat gamescom 2024 over Nieuws van 20 juni 2024

Reacties (140)

Sorteer op:

Weergave:

Waarom zou Nvidia ook? Het grote geld is inmiddels te verdienen met AI en qua concurrentie hebben ze het ook niet heel zwaar. En eerlijk is eerlijk: de RTX4090 is al dusdanig snel dat ik liever een prijsverlaging zie dan een compleet nieuw product dat nog sneller is.
En eerlijk is eerlijk: de RTX4090 is al dusdanig snel dat ik liever een prijsverlaging zie dan een compleet nieuw product dat nog sneller is.
Waarom zou Nvidia prijzen verlagen als gamers zonder blijven kopen en de enige serieuze concurrent diens prijzen baseert op die van Nvidia?

Van elke 10 videokaarten verkocht zijn er 9 van Nvidia. Prijsverlaging? Verwacht prijsverhogingen.
Ja ik weet dat het ijdele hoop is maar een mens mag dromen.... :z

Ik verwacht dat Nvidia braaf dezelfde strategie gaat hanteren als ze met de 4000-serie hebben gedaan. De tijd dat een xx80ti -> xx70 werd voor €500 ligt helaas achter ons.
Maar de tijd dat we een huis kochten voor €200.000 ligt ook ver achter ons, het modaal inkomen is in de afgelopen 6 jaar ook met bijna 30% gestegen.

Een 4070 super is 2 tot 3 keer sneller dan een 2070 van zes jaar geleden en slechts 20% duurder, wat behoorlijk onder de inkomen verhoging ligt in die periode!

Een Gigabyte GeForce GTX 970 4GB koste me bijna 10 jaar geleden € 376,80 en het modaal inkomen sinds toen is 33% omhoog gegaan. En dan kom je er niet met een 4070 Super van €600, die prijsverschijving gebeurde dus al met de 2070, ik zou zelfs al willen zeggen met de 1070, dankzij de Bitcoin gekte...
Dus ik moet ook blij zijn dat mijn Ryzen 5800x niet 1.000.000x duurder is dan mijn oude 386 en mijn 2TB NVMe maar een fractie kost van een oude 120MB HDD??

Iedere generatie kent verbeteringen en zeker op het gebied van computer hardware zijn deze sprongen soms enorm. Om dit te vergelijken met inflatie, huizenprijzen, etc. is nutteloos aangezien computer hardware door de decennia heen alleen maar goedkoper is geworden. Waar je in de jaren 90 nog makkelijk 5000 gulden kwijt was voor een beetje computer, kost dit nu nog maar een fractie. En voor die fractie krijg je hardware die duizenden keren beter is.

Feit is dat de prijzen van low-end, mid-end, high-end en ultra high-end vanaf de 4000-serie verschoven zijn en aanzienlijk duurder zijn geworden.
Feit is dat de prijzen van low-end, mid-end, high-end en ultra high-end vanaf de 4000-serie verschoven zijn en aanzienlijk duurder zijn geworden.
Die zijn absoluut verschoven, er moet ook gewoon realisatie zijn bij GPU kopers dat een xx70 van nu, niet in de zelfde categorie valt als de xx70 van 10 jaar geleden. De low-end GPUs zijn immers opgevreten door de iGPUs en omdat grafische kaart makers xx50/xx60/xx70/xx80/xx90 al gebruikte, werkt een xx100 niet echt. Dus wat hebben ze sneaky gedaan, wat vroeger een xx60 was, is nu een xx50.

Dat is ook waarom je achterlijk grote improvements zie qua performance tussen een 2070 en een 4070 Super (2-3x), waarbij je vroeger een GTX970 kocht, kan je prima een 4060/5060 pakken... Je moet gewoon geen onrealistische hoge verwachtingen stellen zoals 8k Ultra op de nieuwste zware AAA UE5 games (die ook nog eens slecht geoptimaliseerd zijn)...

Even ter vergelijking de iGPU in mijn 4800u is ongeveer de helft zo krachtig als mijn 10 jaar oude GTX970... Dat zijn dus enorme stappen in ~6 jaar. Als je de iGPU pakt uit een modernere en iets dat meer energie slurpt, zit je al makkelijk op die performance (na 10 jaar).

5000 gulden = €2273, mijn 10 jaar oude werkstation was ook gewoon €2850 met een i7-5820K, 32GB RAM en een GTX 970, etc... Ik geloof niet dat ik fl. 5000,-- neer heb gelegd voor mijn 486 66MHz bij de Vobis... ;)

je smartphone is nu sneller dan je PC uit de jaren 90, maar dat is 30 jaar geleden, een GTX 970 is 10 jaar geleden, zie je het verschil? Geld is daarnaast de afgelopen 5 jaar heel snel heel veel minder waard geworden en door crypto zijn de afgelopen 10 jaar voor GPUs enorm in waarde gestegen. Ik zie dat in dezelfde trend als wat je 30-40 jaar geleden neerlegde voor een appartementje in Amsterdam Oud West en wat je er nu voor neerlegt. Bepaalde mensen zagen de markt verschuivingen aankomen, hebben dat cheap opgekocht en voor veel verkocht. Zo ook bij de chip bakkers. En de massa gaat daar achteraan, terwijl je tegenwoordig ook prima kan gamen op integrated graphics... Zolang je maar niet achter die 4k/8k Ultra AA UE5 graphics aan hobbelt...
Dat klopt niet helemaal als je de laatste generatie pakt. Het is eerder zo dat waar je vroeger een xx60 kocht, je nu in feite een xx50 krijgt (of een x700 met x800 label, in geval van AMD). Als je generatie op generatie vergelijkt zie je bij sommige Nvidia chips en bij vrijwel het gehele actuele gamma van AMD vrijwel een stagnatie qua prestaties.

Dat staat nog los van de prijs die men er voor vraagt.
Ben ik het niet mee eens. De performance die voorheen (10+ jaar geleden) in een xx60 zat, zit nu in xx50.

Vergelijk de performance van een 4070 Super met een 2070 Super, de enorme prestatie verbetering daar met slechts twee generaties is veel hoger dan vroeger. Een GTX 670 vs GTX 970 is de helft daarvan. Enige grote verschil is dat er tussen de 2070 Super en de 4070 Super 4.5 jaar zit en tussen de GTX 670 en de GTX 970 slechts 2.5 jaar.

Dus als je puur kijkt naar het verschil per generatie, dan is het verschil veel groter, als je kijkt naar het verschil qua tijd, dan is het verschil ongeveer gelijk. Maar als ik naar verbruik kijk dan komt een 4060 (115W) meer in de buurt van een 970 (148W) dan een 4070 (225W). die 4060 is 2-3x sneller dan die 970 in 10 jaar, wat ik redelijk vind, heeft extra features (zoals DLLS3.0), is wat zuiniger en zit onder de prijs van toen een 970, zelfs na 10 jaar behoorlijke inflatie. Zelfs een 4050 die het 50% tot 100%+ beter dan die 10 jaar oude 970.

Vroeger had je 1x per jaar een nieuwe generatie (soms zelfs wel twee), nu is elke generatie 2-3 jaar... Wat imho niet zo heel problematisch is.

Ik was op zoek naar benchmarks van een 970 en een NVIDIA 6800 XT of GS, dat is een verschil van 10 generaties ipv 4 generaties en het verschil daartussen is extreem te noemen. Maar op een gegeven moment is men een drempel over, net zoals we dat allang zijn met CPUs en is meer gewoon niet nodig in 90% van de gevallen. En wordt alleen maar gepushed door marketing middelen zoals 4k/8k, nieuwe UE5 engines, extreem hoge fps, etc. Waar het gros van meute geen moer aan heeft.
Dat vind ik persoonlijk te kort door de bocht. Niet dat ik me er niet in kan vinden, maar omdat het wel een beetje voorbijgaat aan de trend bij de GPU bakkers.

Natuurlijk is het, wanneer je je eisen bijstelt, volledig mogelijk een kaart van een lagere generatie te kopen. Maar een 970 was altijd natuurlijk de subtop, net zoals de 4070 nu ook de hogere midrange betreft. Dit zijn eigenlijk altijd al de kaarten geweest die gewoonweg qua prijs/prestaties gunstiger liggen dan de 80/90 modellen. Niet de kiloknaller natuurlijk, maar wel geschikt voor degenen die nét dat beetje extra willen t.o.v. de midrange xx60 modellen zonder dat dit onevenredig veel extra kost.

Ik benader het overigens eerder vanuit het technisch perspectief, en daar zie je toch echt wel dat er genoeg pogingen zijn om knollen voor citroenen te slijten. Een 4070 die men in eerste instantie poogt als 80 te verkopen. Een 7900 serie die in feite een gen-on-gen prestatie boost heeft die je zou verwachten voor de 800 serie (bij AMD dus). Vrijwel een complete stagnatie in het 600/700/800 segment bij AMD, ondanks 3 jaar verschil. Een 4060 die qua die size flink gekrompen is, waardoor de conclusie t.o.v. de 3060 als volgt is:
For pure performance, newer hardware is almost always going to be better. Sure, older GPUs from a higher tier would be faster than a new lower-tier graphics card, but if you're looking at the same relative level — like 4060 and 3060, or 4070 and 3070 — it's no real contest. The 4060 typically deliver around 20% more performance than the 3060.

Of course, we've also noted that the RTX 4060 really feels more like a replacement for the RTX 3050, considering both offer 8GB of VRAM on a 128-bit interface. If we were doing that comparison, the upgrade would massive — the 4060 beats the 3050 by around 65% on average. But that's a story for another day.
https://www.tomshardware....rtx-3060-12gb-gpu-faceoff

Waar ik denk dat het in de perceptie van gamers wel misgaat, is hoe de eisen zijn gestegen. Waar ten tijde van de 970 1440p/60 nog als benchmark werd gezien, wordt tegenwoordig dus alles gemeten naar de 144hz, al dan niet als ondergrens, eventueel in combinatie met een 4K resolutie, omdat men de neus ophaalt voor 60fps. Uiteraard op Ultra.

Dan moet je natuurlijk niet klagen dat gaming zo duur is geworden voor je.

Edit: Overigens ter nuance, nu ik de link heb toegevoegd, valt ook op dat men voor het xx60 segment dus al geen 128 bit interface meer verwacht. Dat sluit natuurlijk ook weer goed aan op het gedeelte van gestegen verwachtingen. Want vroeger mocht je je in je handjes wrijven als je in de low-end meer kreeg dan een 64 bit interface.

[Reactie gewijzigd door Cid Highwind op 22 juli 2024 13:48]

Het ligt natuurlijk geheel aan de perceptie van de gamers en die wordt weer gedreven door de hardware boeren, bepaalde AAA fabrieken EN de media (zoals Tweakers.net).

Ken je nog "Can it run Crysis?"?

https://www.techpowerup.c...nchmarks-of-crysis-appear
The system was running a QX6700, 2 G80's, dual raptors in RAID 0, 4GB low latency RAM, and a PhysX card.

At 1024x768, Crysis ran at 44 FPS average, with a mininum of 33 FPS and a maximum of 69 FPS.
At 1280x1024, Crysis ran at 37 FPS average, with a minimum of 17.3 FPS, and a maximum of 52 FPS.
At 2560x1600 Crysis ran at a whopping 1.7 FPS average, with a minimum of .2 FPS, and a maximum of around 5 FPS.
Een G80 (waar er dus twee van inzaten):
https://www.techpowerup.com/gpu-specs/nvidia-g80.g52

Ik had in 2007 een 2560x1600 scherm (HP LP3065) en had ook zo een dual 8800 GTS setup. Een enkele "Gainward GeForce 8800GTS 640MB GDDR3 GS" koste in maart 2007 ook al €425... Twee ervan = €850. Inflatie sinds die tijd 47%.

Maar niemand haalde in diens hoofd om een Crysis op 2560x1600 te draaien of enig andere game.
review: Sparkle GeForce 8800 GTS 512MB getest
review: Sparkle GeForce 8800 GTX en GTS getest

Maar nu wordt er in de benchmarks standaard opgenomen:
Cyberpunk 2077: 4k/Ultra/DXR |:(

En dan nog draai je Doom Eternal met 4k/Ultra/DXR op 114fps minimum op een 4070 Super van net iets meer dan €600...
review: RTX 4070 Super - Een betere deal voor bijna dezelfde chip

En 4k/Ultra/DXR op 60fps (minimum) doe je al op een RTX 4060 Ti ~€380.

Nee het issue is als volgt.
TV/monitor makers proberen je een hogere resolutie te verkopen, als dat niet werkt een hogere refreshrate en als dat niet werkt hoogtezon achtige HDR en contrast (welke ook enorm veel stroom slurpen).

3D engine makers proberen steeds mooiere engines te maken, niet omdat het direct noodzakelijk is of gewenst, maar om de concurrentie voor te blijven en hun eigen inkomsten te kunnen blijven garanderen.

CPU/GPU makers moeten steeds wat nieuws/beters maken om te kunnen blijven verkopen.

Die laatste twee sponseren/betalen bepaalde gamedevs dan ook om het onderste uit de kan te trekken qua visuals waarbij men de zwaarste hardware/engine nodig heeft. En ondertussen vind men het kennelijk normaal om dergelijke hardware te hebben/gebruiken. Ik was en wist dat ik 18 jaar geleden vrij nuts was om twee 8800GTS kaarten te draaien. Maar een 4080 kaart hebben/draaien wordt onder te veel gamers gezien als 'normaal', want een 4090 is pas 'abnormaal' (duur)...

Blindstaren op de stand van zaken 10/20/30 jaar geleden qua GPU/performance/kosten is niet realistisch. Wat voor brick was je laptop 30 jaar geleden? Wat koste 30 jaar geleden een werkbare laptop? Wat kost tegenwoordig een werkbare laptop? Graphics waarbij je vroeger een aparte kaart nodig had, zit nu ingebakken in je CPU... Een hele categorie kaarten is overbodig geworden en heeft opgehouden te bestaan, men heeft aan de bovenkant gewoon een extra categorie gemaakt en heeft men de benamingen doorgeschoven zodat als men gewend was een xx70 of xx80 kaart te kopen men doodleuk daarmee doorgaat...

Even ter vergelijking: Diablo 4 800p op een 7" scherm op mijn Steam Deck vs. 1080p op een 31,5" scherm op mijn mini pc via Geforce Now. Vermaak ik me meer op de hogere resolutie? Niet dat het me is opgevallen. Met een 4060 Ti van €380 zou ik zelfs 4k Ultra (met DLSS) 60fps+ kunnen draaien, om het geld gaat het me niet echt, maar het slurpt als een tierelier (150W+ alleen GPU) en dat vind ik problematischer, terwijl mijn Steam Deck, waar ik me ook prima mee vermaak maar 11W trekt all in, inclusief scherm...
Ik denk dat we qua gaming en kennis qua hardware zo ongeveer dezelfde wegen bewandeld hebben. Heb zowaar nog een Sparkle GPU gehad, een 7800 GS als ik me niet vergis. Eén van de laatste AGP kaarten.

Nu moet er wel een nuance gebracht worden, 30 fps op een CRT was een aangenamere ervaring dan een sub-60 fps op een LCD, simpelweg omdat de techniek een betere weergave van beweging had, en schommelingen qua FPS niet zo graverend waren. FPS en Hz waren losgekoppeld, dus geen last van flicker wanneer je beeldscherm op 85Hz stond terwijl je hooguit 30 fps had. Tevens was het spelen op 800x600 ook nog een optie. Een beetje het 1080p met quality upscaling van vandaag de dag.

Crysis werd naar mijn weten pas "leuk" toen de 8800 GT uitkwam. Twee generaties nadat het spel eigenlijk uitkwam, want toen was de 6000 serie actueel, als ik me niet vergis.

Verder mooie lezing om het allemaal in perspectief te stellen.
In mijn optiek een potje verpissen in een poging de verkopen te stuwen. Leuk dat het kan, ik geniet mooie graphics en strakke framerates, maar dat alles maar met een 4090 Ti vergeleken wordt, en de rest er maar bekaard bij afsteekt omdat het tekort schiet voor 4K/Ultra/120/RT, geeft wel aan dat men de weg een beetje kwijt.

En vervolgens schreeuwt men dat games niet geoptimaliseerd zijn...
[spoiler]High/Very High settings, baked lighting, SSR+cubemaps, VRS en VRS / upscaling vanaf 1440p zijn de optimaliseringen.[/spoiler]
Maar hoe lang zijn we al CRT af? 20+ jaar? In 2007 had ik een grote LCD en eind 1999 had ik nog een CRT (kan me herinneren hoe we met twee man achter een 21" Iiyama CRT zaten te staren naar de DVD release van The Matrix) en daar tussen nog een periode 20" HP en Samsung LCDs gehad... Ik zou echt nooit meer terug willen naar CRT!

De klachten dat games teveel kosten qua development, overwerkte devs in de game factories, etc. Dat is eigenlijk een zelf gemaakt issue.

Helldivers 1 => ~395 people
Helldivers 2 => ~1,235 people
Dragon's Dogma => 633 people
Dragon's Dogma 2 => 1,541 people
Baldur's Gate => 375 people
Baldur's Gate 2 => 384 people
Baldur's Gate 3 => 2,944 people
Vampire Survivors => 88 people
Brotato => 6 people
Final Fantasy VII Rebirth => 3,463 people
Assassin's Creed: Valhalla => 5,909 people
Pac-Man (1980) => 4 people

Bron:
https://www.mobygames.com => game => credits
Ik denk alleen dat dat inflatie niet opgaat voor GPU's van de laatste paar generatie. Die zijn de pan uit gestegen door crypto, en daarna niet meer naar beneden gegaan. Toch raar zou je zeggen.

Nee ik denk de echte reden is dat Nvidia de winstmarges extreem omhoog heeft gehaald.

https://ycharts.com/companies/NVDA/gross_profit_margin

Dit is denk ik wel een logischere verklaring dan de inflatie argument die jij gebruikt.

Dit is gewoon simpel Nvidia die de prijzen gelijk wil houden met toen bitcoin mining heel groot was, ook al is die bitcoinvraag er niet meer. Is mijn opzicht gewoon puur mensen hun portomonnees leegtrekken. :)

Nvidia heeft het echt jarenlang met tussen de 5-15% net profit gedaan, terwijl ze opeens in 2 jaar tijd naar zo'n 40-50% schieten. Ik vind dat persoonlijk niet kunnen, en is een resultaat van kapitalisme.

[Reactie gewijzigd door MrFax op 22 juli 2024 13:48]

Een aantal jaar geleden zou ik je gelijk hebben gegeven, maar nu komt 80% van de omzet niet langer uit gaming, dus die profit margin is lastig in verband te leggen met gaming GPUs. Daarnaast is van die 20% die overblijft natuurlijk ook nog een gedeelte van GeforceNow (streamingdienst).

Daarnaast zit Nvidia nu wel hoger in de prijs, maar niet zo hoog als de crypto+scalpers tijden. En vergeet niet dat AMD met bv. een 7800 XT niet zo heel veel onder een 4070 (Super zit). AMD komt maar net rond, in 2023 was hun winst marge niet eens 4% en in Q1 2024 zitten ze net op 2%. Met dat soort marges kan je je geld beter op de bank zetten...

Stel Nvidia zou de prijzen met 20% verlagen, zou AMD dan nog op prijs/prestatie kunnen concurreren? Nee. Zouden ze dan op prestatie kunnen concureren? Nee. Dus zou AMD ook weer significant de prijzen moeten laten dalen. Waardoor ze van winst naar verlies gaan. De hoge prijzen van Nvidia zorgen er dus voor dat AMD blijft overleven...

Ondertussen verdien Nvidia lekker aan dergelijke hoge prijzen omdat ze 88% van de gamer GPU markt in handen hebben... En Nvidia heeft daardoor als extra voordeel dat ze de research kosten niet alleen over 88% van de gamer GPU markt kunnen verdelen, maar ook nog eens meeliften op hun AI/LLM kaarten voor de datacenters... Vandaar dat de winstmarge 50% bij Nvidia is, dat komt puur omdat ze zo een enorme hoeveelheid klanten hebben en dus producten verkopen tov. AMD.

Nvidia's afzet markt is effectief vervijfvoudigd met de AI/LLM hype, tijdens de crypto gekte zijn ze voor zo ver ik weet niet meer kaarten gaan bij drukken, maar dat is echt wel gebeurd met de AI/LLM hype. Die 50% heeft niets met de gamer GPU markt te maken en alles met het AI/LLM gedeelte van de business.

De winst in 2018 was ook al 35%:
Wikipedia: Nvidia
in 2013-2014 was de winst 10-13%:
Wikipedia: Nvidia
Maar ook slechts 1/15e van wat het nu is, zelfs als de prijzen zijn verdubbeld, dan nog zou dat de enorme omzet verhoging niet verklaren.
https://www.macrotrends.n...VDA/nvidia/profit-margins is een wat duidelijker beeld, omdat deze ook het daadwerkelijk net profit margin heeft, en niet alleen gross profit. je ziet vanaf de crypto-hype opeens de net profit steeds hoger komen,

Ik vind 53.4% nog steeds behoorlijk hoog, dat betekent dat ze van hun inkomen ,de helft in hun zak hebben kunnen steken. Dat zijn imo schandalige cijfers.

[Reactie gewijzigd door MrFax op 22 juli 2024 13:48]

De eerste 3DFX kaarten waren bij lange na niet zo achterlijk duur als de high-end GPU's van nu.
Een andere reden dat die GPU's maar ook moederborden bijv. duurder worden is omdat er niet alleen meer performance is, nee, je hebt ook meer stroomvoorziening nodig. Wat betekent meer koper bijv. wat de prijs ook alleen maar opdrijft.
De kaarten gaan ook zo veel langer mee tegenwoordig. Vroeger een keer een Geforce DDR gekocht, dat ding was in '99 iets van 700 gulden en binnen twee had ik alweer wat anders ('nodig'). Als je nu een keer in de 5 jaar een nieuwe midrange kaart koopt zit je goed.
De cijfers die jij aanhaald zijn wereldwijd. Het artikel insinueerd een marktaandeel van 12% voor AMD wereldwijd. Wat ik niet weerleg. Uit diverse bronnen is echter af te leiden dat het marktaandeel van AMD in regio Europa groter is en in zich in de regio van 18-28% bevind (zie ook bijvoorbeeld pricewatch top 10 waarvan er 4 AMD poducten zijn en de 2 populairste zijn AMD). Wat nog steeds klein marktaandeel is natuurlijk maar toch al iets meer prijszettingskracht geeft. Dat hogere marktaandeel lijkt mij niet onlogisch want de Europese consument is iets meer prijsbewust (zeker ten opzichte van de Amerikaanse). De rage in AI zal wel wat afkoelen op termijn maar ik zou niet meteen lagere prijzen verwachten.
De cijfers die jij aanhaald [sic] zijn wereldwijd. Het artikel insinueerd [sic] een marktaandeel van 12% voor AMD wereldwijd.
Nee. Het artikel wat ik aanhaal betreft percentages verkoop wereldwijd in één jaar tijd, niet marktaandeel.

Verder is het onderwerp wereldwijd, niet regiogebonden. Dat AMD het in Europa marginaal beter doet houdt in dat die het elders slechter doet.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 13:48]

Dat artikel van Toms is juist wel marktaandeel, immers marktaandeel is het aantal verkopen verdeeld in percentages tussen de partijen in een bepaalde markt gedurende een bepaalde periode, het artikel van Tom gaat ook niet over het laatste jaar, maar het laatste kwartaal (Q1 2024), wat de gebruikelijke periode is voor het meten van marktaandeel in de IT.

Gedurende Q1 2024 verkocht AMD dus +-12% van de dedicated GPU's (on die GPU's zitten niet in deze cijfers), Nvidia +-88% en Intel minder dan 1%

Ter referentie, in Q4 2023 was dat nog 19% AMD, 80% Nvidia en 1% Intel. AMD is dus de duidelijke verliezer in Q1 2024.

Hier de press release van het rapport dat Toms aanhaalt: https://www.jonpeddie.com...-a-return-to-seasonality/

[Reactie gewijzigd door Dennism op 22 juli 2024 13:48]

Nou AMD baseert hun prijzen verre weg op die van Nvidia, het is gewoon dat die nieuwere GPU's echt veel duurder zijn om te produceren. Als dat niet zou zijn, dan zou AMD hun kaarten echt veel goedkoper in de markt zetten om zo een veel groter aandeel te krijgen en dan uiteindelijk nog dezelfde winst.
Mooi hoe dat werkt he. Droom ervan dat Nvidia ooit nog eens keihard failliet gaat en zelf voor een grijpstuiver doorverkocht wordt. Helemaal lijp hoe gierig men daar is en nog gestoorder dat mensen het blijven shillen.

[Reactie gewijzigd door Chrono Trigger op 22 juli 2024 13:48]

Kijk eens naar de steam survey : https://store.steampowere...e-Survey-Welcome-to-Steam

Hoeveel extreem dure kaarten zie je daar? De 4080 is amper 0,84% van de kaarten daar. Zelfs minder dan de 0,99% die een 4090 heeft. De meest populaire kaarten, op volgorde, laptops niet inclusief : 3060, 1650, 3060 ti, 2060, 3070, 1060, 3050, 4060, 1050 ti, 4070, 1660 Super, 3080, 4060 ti. Daarna zit je onder de 2% per kaart. En het duurt 12 kaarten voor je er één van boven de $600 vind.

De duurste 4000-series kaarten verkopen gewoonweg niet goed. Het is de midrange die wint.
Niet zo vreemd wat nu midrange is qua prijs was 8 jaar geleden de absolute top prijs voor videokaarten. Ja we zijn meer gaan verdienen, maar GPU prijzen zijn gestoord omhoog gegaan tot het punt dat ze amper meer verkopen.
Daar ga ik mee akkoord. Mijn punt is dat Nvidia beseft dat ze hun prijzen niet nog hoger kunnen leggen, zeker na ze de prijs van de 4080 Super $200 lager maakte dan de 4080.
De meest populaire kaarten, op volgorde, laptops niet inclusief : 3060, 1650, 3060 ti, 2060, 3070, 1060, 3050, 4060, 1050 ti, 4070, 1660 Super, 3080, 4060 ti. Daarna zit je onder de 2% per kaart. En het duurt 12 kaarten voor je er één van boven de $600 vind.
Je vergeet 1 ding, het meeste van die 3080/3070/4070 zijn gekocht in een periode waarbij deze nog duurder waren dan $600...

Steamcharts van een jaar geleden:
https://web.archive.org/w...e-Survey-Welcome-to-Steam

Wellicht dat zelfs Entry-level en Mid-Range vechten voor de titel...
Ik vergeet dat niet, het is gewoon zo dat dit absoluut niet mijn argument ondermijnt. Je bent zot als je denkt dat entry-level zo duur gaat worden.
zelfs 4070/80 is snel zat voor de meesten. want laten we niet vergeten dat gamen op ultra en 4k echt niet nodig is voor een goede ervaring.
Daar gelaten, gamen op 4k is wel een mooie ervaring.
Klopt deels. Ligt erg aan het type beeldscherm. Alleen resolutie zegt weinig.
Klopt, maar het zorgt wel voor een betere ervaring.
En eerlijk is eerlijk: de RTX4090 is al dusdanig snel dat ik liever een prijsverlaging zie dan een compleet nieuw product dat nog sneller is.
Het gaat niet om de RTX..90 die kaarten van twee ruggen die 500W opzuipen worden niet door het plebs gekocht.

Het gaat er om dat er vooruitgang is, ergens inde 5000 serie kaarten is er een kaart die efficiënter, goedkoper en sneller/gelijkwaardig is aan een 4090 maar voor minder dan wat een 4090 kost. Doe mij maar een 5070 met 4090 performance, 220W stroomverbruik voor 800€ en nieuwe features die enkel voor de 5000 series beschikbaar zijn.

[Reactie gewijzigd door nullbyte op 22 juli 2024 13:48]

Ik deel je mening hoor. Ik heb liever een goedkopere kaart (5070/5080) met de performance van de 4090 voor een aanzienlijk lagere prijs dan een NOG snellere kaart die weer €2000 kost.

Dat bedoelde ik ook met dat ik liever een prijsverlaging zie.
Kunnen we gewoon nog even door sparen. Want heel betaalbaar zal het niet worden. ALsik de geruchten moet geloven.
Ga er maar vanuit dat de 5090 op 2500€ gaat zitten, en de 5080 rond 1500/1600€.

De tijd dat je voor 750€ de absolute top kaart had is volledig voorbij en zal nooit meer terug komen.

Ik ben altijd extreem PC enthousiast geweest, maar de huidige GPU prijzen zijn mij echt TE dol sinds de 30x0. Het is ook 1 van de redenen dat ik het lekker bij 1440p houd, en niet op 4K. Vooralsnog een 3090 waar ik het nog steeds hopelijk nog een jaar of 2 mee kan volhouden op 1440p
Er is ook een groot verschil met vroeger.
Nu is alles 1 gpu. In het verleden had je voor high end 2 gpu's en de ultra high end zelfs meer.
Een 980ti was bij introductie €750. Dus dan had je voor €1500 aan gpu's in een systeem. Er was ook nog de optie van de Titan X van €1300. Dus dat was €2600.
Als je daar naar kijkt is het een stuk beter te vergelijken met de 4080ti en 4090.

Dan is de enkele 980ti van toen meer te vergelijken met een x080(s) of x070 ti(s).

Wat mij vooral stoort is dat de onderkant van de markt weg is. Een 960 was €210 en daar kon je prima op gamen. Zelfs een 950 van €175 was nog best aardig. En die had in ieder geval alle nieuwste features.
De laagste nvidia kaart van de huidige generatie kost €330.
De RX 6600 van mijn vrouw kostte 200€ en daar valt prima op te gamen op 1080p
Eens mijn 6600XT toert nog wel even verder op 1080P. Ik upgrade pas als er voldoende vooruitgang is (voor een 30% verbetering koop ik geen nieuw 350 euro kostend product, en een nieuwe 8GB kaart wil ik al helemaal niet meer, dit zal toch minimaal 16GB moeten zijn anno 2024 en later). We zullen zien als de 8600XT of de 5060(TI) komt maar mogelijks zal ik die generatie niet eens upgraden wegens onvoldoende technische vooruitgang.
Die RX6600 koste gewoon geen €200 bij release. Dat soort kreten zijn leuk, maar men vergeet even dat ze €600+ waren bij release (midden in de pandemie), voor €600 koop je nu ook een 4070 Super... Je gaat nu 3.5 jaar oude kaarten van het minder populaire merk vergelijken met kaarten die dit jaar niet eens uitkomen van het populaire merk.

Note: Ik game tegenwoordig voornamelijk op AMD integrated graphics... ;)
Steam Deck, Xbox of Playstation? ;)
4800u (mini pc) en de custom AMD APU (Steam Deck). Met af en toe streaming via GeForce Now.

Iets als een 4090 of straks een 5090 vind ik interessanter voor LLM of andere zware reken taken die gebruik kunnen maken van de CUDA cores. Maar momenteel nog genoeg andere projectjes waarmee ik bezig ben en AI/LLM diensten neem ik voorlopig wel af bij anderen...
Ah dat is inderdaad een mooi alternatief. Toegegeven, de spellen die mijn GPU werkelijk doen zweten kan ik ook op 1 hand tellen. Dan is zoiets echt een mooie optie! Zeker gezien hoe compact en mobiel het ook nog eens is.
Nu is alles 1 gpu. In het verleden had je voor high end 2 gpu's en de ultra high end zelfs meer.
Er is geen ultra high-end.

De definitie van het woord "end" houd in dat het aan het einde van een reeks zit. Er komt niets na een reeks. Dit is Nvidia marketing. Niemand wil een smak geld uit geven voor een xx70 kaart en dan lezen dat ze slechts een mid-range kaart hebben. Dus Nvidia noemt dit "High-end" en de rest erboven "enthousiast".

Je kan alles wat niet letterlijk vast ligt een naampje geven. Dit zijn marketing praatjes, niks meer, niks minder.

Dit is de reden dat er voor de benaming van sommige producten wel wetgeving is. Zo mag b.v. champagne alleen zo genoemd worden als het echt uit die streek komt.

[Reactie gewijzigd door nullbyte op 22 juli 2024 13:48]

Uiteraard bestaat er wel zoiets als "(ultra) high end". En inderdaad zit dat aan het eind van een reeks. Het is gewoon een oordeel. Hetzij een prijs, hetzij een prestatie (performance). Maar altijd afhankelijk van de tijd waarin het oordeel gegeven wordt.

Inderdaad stelt de wet hier geen restricties voor. Dat mijn opa (ik ben inmiddels gepensioneerd, dus dat was een paar jaar terug) een huis kocht van 70k mag best beoordeeld worden als 'high-end'. Dat je inmiddels voor dat bedrag nauwelijks een slaapkamer kan kopen (zeker niet in de grote steden) doet daar niets aan af.

nVidia heeft (even afgezien van de Super en Ti aanduidingen) een redelijk simpele aanduiding, de xx60 is instap, de xx70 midrange, de xx80 is high-end en de xx90 is voor "degene die absoluut het beste wil wat de huidige stand van de techniek kan doen".

Als je een xx70 kaart koopt en verbaasd bent dat je slecht een mid-range kaart koopt, dan denk ik dat je beter af bent als je voortaan gewoon 'Struisvogel' in je naam zet.

Er is (gelukkig) geen wetgeving die aangeeft vanaf welk prestatie- of prijsniveau we iets "high end" of "ultra high end" moeten noemen. Want dat verandert regelmatig.

E zijn wel wetten die regelen dat "een heel brood" 800 gram (aan meel) moet bevatten. Dat een product geadverteerd als (gemaakt in) "Parma" inderdaad in Parma gemaakt moet zijn. Of dat een product (gemaakt in) "Champagne" daar ook gemaakt moet zijn. Maar die hebben uiteraard niets te maken met een waarde oordeel over de Champagne uit dorp A, dorp B of uit jaartal xx. En zeggen ook niets over de prijs.
Uiteraard bestaat er wel zoiets als "(ultra) high end". En inderdaad zit dat aan het eind van een reeks. Het is gewoon een oordeel. Hetzij een prijs, hetzij een prestatie (performance). Maar altijd afhankelijk van de tijd waarin het oordeel gegeven wordt.
LOL Nee, er bestaat niet zoiets als ultra high-end in Nvidia kaarten. Omdat jij deze kreet gebruikt zou het bestaan? Ik coin nu even de term, super duper ultra high-end. Zo die bestaan nu ook, effectief zit de high-end nu in het midden met nog 6 ranges er boven. Nvidia benoemt nergens Ultra-high end, hoogstens "enthousiast".

Nogmaals, dit is Nvidia marketing praat.
Neen. Ik heb de kreet niet uitgevonden. We reageren op een bericht van eldunari die deze term gebruikt. (Als ik alle namen en websites moet noemen die deze term ook gebruiken wordt dit wel een heel lang bericht).

nVidia gebruikt de woorden "entry level", "mid range", "high end" en "ultra high end" ook nergens op hun web-site. Zoals je zelf al geconstateerd hebt. Het kan daarom geen nVidia marketing zijn. De termen worden gebruikt door journalisten (en o.a. ook door computergebruikers).

En ja, als je een gradering hebt (goed, better, best) in drie categorieën dan heb je een probleem als je vier gradaties krijgt. Kun je bijvoorbeeld kiezen uit (goed, better, nog better, best) of (goed, beter, best, superbest). En als dan "superbest" door de meerderheid gehanteerd wordt dan kun je uiteraard wel volhouden dat er niets hoger is dan "best". En als niemand (anders dan jij) de term/categorie "super duper ultra high-end" gebruikt dan wordt dat gewoon geen bestaande term. Hoe graag je dat ook wilt.
SLI bestaat nog steeds .. maar een RTX4090 heeft al 4 slots nodig ..

dus als je er 2 steekt heb je 8 slots nodig, dat is niet bepaald in de standaard "case" terug te vinden .. :)
Met waterkoeling nemen ze slechts 1 a 2 sloten in.
Heeft u een opstelling in SLI ? Ben wel benieuwd naar de specs van 2 GPU's RTX4090's samen .. :)

*
Ik sprak dus over het gewoon luchtgekoelde type.
Zie trouwens eentje die maar 3 slots nodig heeft, dan komt dus op 6 in totaal in SLI :

Gigabyte GeForce RTX 4090 WINDFORCE V2 24G
uitvoering: Gigabyte GeForce RTX 4090 WINDFORCE V2 24G

.. maar deze is dan nagenoeg weer geen OC versie .. 8)7
Driver support voor SLI is vrijwel dood.
Dat is best mogelijk aangezien bijna niemand dit nog gebruikt tegenwoordig en diegenen die dit doen gaan al niet in de plaatselijke computerstore langskomen. Tenzij het yuppies zijn .. :D
Maar mGPU is ervoor in de plaats gekomen. Wordt alleen niet heel veel gebruikt.
Ehh nah, prove it 😀
SLI bestaat nog maar is het al lang niet meer waard. Het was altijd al wisselvallig maar nu spendeer je nog steeds twee keer zoveel maar zijn de prestaties vaak zelfs minder.
Vroeger was het je geld ook al niet waard, maar er waren redelijk wat mensen die er gebruik van maakten. En CrossFire zelfs nog meer, weet nog dat veel vrienden toen krap bij kas zaten en een mid-range upgrade deden op hun mid-range ATI kaart en enkele jaren verder er weer eentej bijstaken die ze dan kochten of van iemand anders kregen die een nieuwe build liet bouwen of zelf in elkaar stak.

SLI heb ik zelf maar 1 keer geprobeerd, en dat was louter omdat een goede maat net dezelfde GPU van Nvidia had gekocht en dus gingen we hiermee aan de slag. Een CrossFire opstelling heb ik zelf eenmaal gehad met AMD GPU's, die heb ik eerst deels moeten ontmantelen door systeemproblemen en een veel te hoog energieverbruik tot er uiteindelijk niks meer van die CrossFire opstelling overbleef. Die laatste build gebruik ik trouwens nog steeds .. :)


.
Crossfire had in enkele generaties op de lagere kaarten meer dan 2× winst in de frames, dat was het echt wel waard. De eerste 2 a 3 generaties dat die het deden was het een en al drama met bios en drivers maar toen dat eenmaal gefixt was ging het als een tierelier.

Mijn laatste SLI van Nvidia was met de 7950×2 of zoiets, dat was zo'n 2 in 1 sandwich kaart, maar dat is al een tijdje terug, toen was er nog zat support voor.
CrossFire werkte inderdaad en zo kon je oude GPU's ook blijven gebruiken en nog steeds deel laten uitmaken van je build.

Ik heb altijd al gewisseld tussen Nvidia en ATI (AMD) .. prijs/kwaliteit en wat je net nodig hebt verhaal..
Mijn eerste was wel een 3dfx Voodoo 2 - 8MB .. :)

Deze dan ?
uitvoering: Asus Geforce 7950 GX2 1GB DDR3 (PCI-e, 2xDVI) EN7950GX2/2PHT

.. :)
Dat was em inderdaad. Lang lang geleden. Mijn eerste kaart weet ik zo 1 2 niet maar wel het systeem. DOS inladen was denk ik al meer leerzaam dan Sesam straat spelen maar goed.
Vroeger was slim echt wel de uitzondering, veel meer dan dat een 4090 nu een uitzondering is. Dat is ook niet vreemd: sli werkte nooit echt lekker: in enkele games had je goede schaling, maar bij de meeste games helemaal niets, en bij sommige games werd de performance zelfs veel slechter door tearing en microstutters.

Een enkele 4090 daarentegen is gewoon simpel: hij is een heel stuk sneller dan een 4080, en dat is gegarandeerd. Dat is een veel beter aanbod dan twee 4080s of 4070s met sli aan elkaar koppelen.
Er is nooit een tijd geweest dat gamers meerdere GPU's "nodig hadden". Maar een heel kleine groep gebruikte SLI/Crossfire, en alle games waren speelbaar op een enkele kaart. Multi-GPU-opstellingen konden misschien wat extra frames of pixels duwen in een game als Crysis maar het nut was beperkt.

Een 4080 of 4090 nu komt beter tot z'n recht dan een SLI-opstelling toen deed: vanwege de 4k-resolutie en ray-tracing kan al die kracht prima worden ingezet in hedendaagse games. Met echt visueel voordeel en om redelijke frame-rates te kunnen halen in bijvoorbeeld Cyberpunk op hoge settings.

Dus het lijkt mij toch logischer om één kaart te vergelijken met één kaart. Een 980ti was een beest van een GPU voor die tijd, en was - gecorrigeerd voor inflatie - veel en veel goedkoper dan een topkaart nu is. Nvidia heeft prijzen verhoogd op een veel rapper tempo dan de inflatie. Dit heeft te maken met hoe goed hun producten zijn, maar ook met vuile marktpraktijken om zo groot te kunnen worden.

We kunnen het relativeren hoe we maar willen, maar GPU's zijn gewoon enorm veel duurder geworden per generatie, van de onderkant tot de bovenkant. Het is niet gek dat steeds meer gamers hier moeite mee hebben. In een wereld met fatsoenlijke handhaving van mededingingsrecht en concurrentie was het niet zo gegaan.
De GTX 690 was sub €1000 geloof ik met 2 gpu's op een kaart. Zelfde met de HD7990...
In de bedragen die je nu noemt, zie ik slechts inflatiecorrectie toegepast zijn om eerlijk te zijn, plus een beetje. De xx50 van nvidia vergelijken met de 4060 is best lastig vind ik, dus ik hou het even op de vergelijking met de 960 waarvan je stelt dat die 210 euro was in 2015, en de huidige laagste aanbieding 330 nu in 2024.

Mn snelle bron: https://indeflatie.nl/inflatie-afgelopen-10-jaar/

Dan zou die 960, met inflatiecorrectie, nu 274,57 euro zijn geweest. En dan vind ik de vergelijking met een 4060 trouwens ook een stuk eerlijker voelen, dit verschil van 55 euro ongeveer. Die 4060 heeft wel die rt cores als meerwaarde, bijvoorbeeld.
De gaming GPU afdeling van Nvidia is nu bijzaak voor ze.. Het maakt ze weinig tot niks uit als er minder gaming GPU's verkocht worden, daarom produceren ze ook niks meer voor de echte budget markt.. Ze richten zich nu alleen nog op de highend en midrange markt met hun (AI) innovaties etc..
Voor 1440p is een kaart van €500-€600 ook afdoende hoor.

Edit: YouTube: RTX 3090 vs RX 7800 XT - Test in 10 Games | 4K
3090 vs 7800xt. Dat is geen upgrade voor jou natuurlijk. Maar als je een nieuwe PC bouwt vind ik dat goede prestaties voor een (redelijk) acceptabele prijs.

[Reactie gewijzigd door MulMonkey op 22 juli 2024 13:48]

Je kunt met een 3060 nog games als Cyberpunk en Horizon spelen.

Niet vergeten dat games worden gemaakt voor consoles! Zet gewoon RT uit en DLSS aan.
Acceptabel prijs is helaas voor iedereen weer een ander waarde.

Voor jou is een 10tje anders van waarde als een 10tje voor mij of een tientje voor iemand in de minima.

Ja 10 euro is en blijft 10 euro van waarde, maar de echte waarde is afhankelijk hoe goed iemand verdient.

Dus voor jou is 10 euro misschien een euro waard voor jou gevoel, voor mij blijft het 10 euro, voor iemand in de minima is diezelfde 10 euro gevoeld 100 euro waard.

(Ik val jou hier niet persoonlijk aan maar wou dit over het algemeen aankaarten)
Snap ik. Wel een beetje een dooddoener.

Ik bekijk het meer van waar we vandaan kwamen. Vergelijkbare prestaties van een 3090 nu voor €500-€600 is een hele vooruitgang gezien waar de GPU markt vandaan moest komen tijdens de tekorten.
Wat te denken van de ryzen 8 serie met iGPU.
Met de chiptekorten en GPU tekorten of belachelijke prijzen was ik blij toen mijn 1060 3GB (heb een 2e als 6GB versie) de brui gaf en ik toch nog een ryzen 5600G had liggen.
Voor een iGPU meer als snel zat toen.
Mijn vader had ooit een baan waarin hij 25 cent per uur verdiende.
Mijn ouders kochten een rijtjeshuis voor 90k gulden.
De tijden dat je voor 2 cent een brief kon versturen is ook voorbij, maar ik heb de postzegels nog.

Dat heet inflatie. Deal with it 8-)
Nou, de huidige prijzen alleen toerekenen aan inflatie gaat wel heel ver.

Gooi je de prijzen van de snelste consumentenkaarten van 2013, 15 en 17 in een inflatiecalculator dan kom je zo rond de 900-1000 euro uit.

Denk eerder dat Nvidia gezien heect wat mensen in de coronatijd voor die kaarten willen betalen + de grote vraag naar AI wat de prijzen zo opdrijft.
Inflatie heeft weinig te maken met de verhoogde prijzen van Nvidia GPU's. De prijserhoging staat absoluut niet in verhouding tot de inflatie.

Er zijn andere redenen:

- De GPU markt is een oligopolie, sommige mensen realiseren zich nauwelijks dat er concurrenten zijn.
- Nvidia heeft verruit het grootste stuk van de markt.
- Er is markt voor, men betaalt de vraagprijs blijkbaar.
- Nvidia verkoopt nauwelijks aan gamers maar aan miners (2018) en nu aan AI (2021). Gaming is een druppel op een gloeiende plaat.

Nvidia: Zint de hoge prijs je niet? Dan koop je toch een low-end kaart? We maken er wel wat minder, de prijzen gaan in ieder geval niet omlaag.
Inflatie is 1 ding maar in 8 jaar tijd is de prijs aan de bovenkant van de markt met 400% en zijn de midrange kaarten ook gewoon met 200% gestegen. Ik denk niet dat je loon stijging ook maar in de buurt van die inflatie cijfers kan komen.
Inflatie is abnormaal en de hoofdoorzaak zijn Centrale Banken die oneindig geld blijven bijdrukken en de rente manipuleren.
Heeft je vader in Albanië/Roemenië/o.i.d. gewerkt, of is het gewoon 'een sterk verhaal'?

In 1969 was in Nederland het minimumloon al 606,70 gulden per maand, dat is heel veel meer dan "25 cent per uur" (ongeacht of je hebt over gulden of euro).
Rond 1950 was het gemiddelde inkomen minder dan 300 gulden per maand. Gemiddeld, dus ook mensen die minder verdienen. Als 16 jarige kan 25 cent per uur best kloppen. Mijn ouders kochten kun huis rond 1960 voor een bedrag rond de 14.000 gulden. Deze is recent verkocht voor zoiets als 350.000 euro. En ja, allemaal in Nederland.

Dus nee, klinkt niet als een sterk verhaal.
1950 is vrijwel zeker niet de tijd dat de vader van hooibergje 'als 16 jarige aan het werk was'... Dat weet ik vrij zeker omdat hooibergje jonger is dan ik en mijn vader in 1950 nog niet eens geboren was! :+

Dus ja, klinkt weldegelijk als een sterk verhaal. Het 'ietsjes aandikken' van zowel goede als slechte dingen van 'vroegah' daar zijn veel mensen heel goed in. ;)
Ik ken de tijd nog dat je voor 200 euro een topkaart had.
Was dan wel in de pentium 4 tijd...
Een paar maanden eerder in 2001 had je nog in guldens moeten betalen
Dat was pentium 3.
in 2016 toen de rx480 voor €200 uitkwam waren er toch al lang geen guldens meer ?
We hebben het over de Intel Pentium 4 CPU uit 2002 Wikipedia: Pentium 4
Ga er maar vanuit dat de 5090 op 2500€ gaat zitten, en de 5080 rond 1500/1600€.
Ik snap echt die doom & gloom niet hoor. Waarom denken mensen dat de prijs zo hoog gaat liggen? Nvidia heeft de prijs van de 4080 Super tov de 4080 net verlaagd omdat de 4080 amper verkocht. Nvidia beseft dat RTX 4000 lang niet zo populair is als het kon zijn. Ik zie die absurd hoge prijzen absoluut niet gebeuren. Maar echter dichter bij de huidige prijzen.

En de kans is groot dat de 5080 trager zal zijn dan de 4090. Nvidia gaat echt niet evenveel vragen voor een tragere kaart aan de prijsklase.

Ik weet dat Nvidia een gigantische market share heeft, maar het is absoluut de midrange die domineert. De dure 4000-series kaarten verkopen echt niet goed. https://store.steampowere...e-Survey-Welcome-to-Steam

[Reactie gewijzigd door MGsubbie op 22 juli 2024 13:48]

Ga er maar vanuit dat de 5090 op 2500€ gaat zitten, en de 5080 rond 1500/1600€.
Counter: Heb je zo een kaart nodig? Nee ...

Hier ga ik weeral anecdotal. Heb hier een 6800 2de hands... 340 Euro. Ding draait 7D2D op 1440p 144fps, met 60W power gebruik (undervolt 885). Het draait zowat ieder game op 1440p met een minimaal stroomgebruik, BUITEN games dat slecht geoptimaliseerd zijn, en die gaan slecht draaien zelf op 80/90 whatever monster kaarten.

Je kan een goedkope 6600 kopen en letterlijk jaren genieten van de 50.000+ titles dat op 1080p of 1440p (oudere) draaien. En bij de nieuw games, ja, ge moet de setting lager zetten voor hogere resoluties maar vaak is het verschil niet zo merkbaar.

Iedereen met hun "ik wil gaming op 4K" ... Je bent een uitzondering, niet de algemene markt. En daarom word je ook extra gepluimd door AMD/Nvidia. In de praktijk zie ik gewoon geen games waar je enorme verbeterend graphics hebt, waar je zegt "dit is een crysis" moment. Die tijd is al lang voorbij, en als mensen een beetje water bij de wijn doen, en beetje spelen met de graphic settings, doe je makkelijk 100, 150% gains op FPS.

Wat ik zeg: Koop geen high end kaarten, en na een tijdje zal men leren bij Nvidia / AMD, dat ze de markt kapot maken. Koop je een steam deck en je hebt jaren plezier. Koop je een lagere GPU of de goedkope 2de handse GPU. En die zotten dat een 4090 of whatever kopen, dat is hun probleem. Als ze echt denken dat 4K vs 1440p het waard is, awel, dat ze hun geld daaraan uitgeven.

In de praktijk, is de drempel naar gaming op lagere / goedkopere systemen enorm aan het verlagen (iGPU gaming zoals stream deck, mini-pc enz), is langzaam naar de 1080p aan het gaan. En ik zeg ook, wees selectief met welke games je koopt... Koop geen rommel zoals Starfield dat slecht geoptimaliseerd is (voor de graphics dat het draait), en studios moeten eens leren deftige optimalisaties te doen want vaak is er met gemak 50 tot 200% fps winsten te vinden in veel games maar tijd steken in optimaliseren is zo een "kost" dat bedrijven niet willen maken en "de klant zal wel een sterkeren GPU kopen" attitude. Tot de markt begint te krimpen / mensen meer en meer naar indi games / steam deck like iGPU enz draaien. En dan is het "ooooeps"...

Aka, stem met je geld. En je zal leren dat er veel manieren zijn om geld uit te sparen zonder eigenlijk veel compromissen te maken.
4k en soms zelfs 1440p laat mijn RTX 4090 soms wel zweten ook dan moet ik soms DLSS inschakelen om richting de 120 fps uit te komen. Maar goed het is een dure videokaart daar voor laat ik weer een dure vakantie. Ik ben ook niet zot dat ik het er voor over heb.
4k en soms zelfs 1440p laat mijn RTX 4090 soms wel zweten ook dan moet ik soms DLSS inschakelen om richting de 120 fps uit te komen.
Het probleem is, welke games ... Het probleem met zo een statement is, dat men mensen pushed om hogere GPUs te kopen, omdat X games niet goed draaien, maar de 50k andere perfect op een goedkopere kaard draaien op 1440p of 1080p.

We hebben al lang een probleem met games dat uitkomen en gewoon geen optimalisatie ondergaan hebben ( al te vaak Console ports ). Of waar men gewoon de klak naartoe gesmeten hebben.

Dom voorbeeld, zie je zelf op indi games. Mechabellum draait op 1080p 40fps (nauwelijks) op een 780m iGPU (alles laag). Neem ik World Of Warships, dat draait op 80fps 1440p, met mix van medium/hoog, terwijl het ene spel eigenlijk minder units draait dan zelf Supreme commander (waar je 1000de units op scherm kan hebben).

Gewoon het verschil tussen een geoptimaliseerde games vs well, raw dumpen van de game. Je kan een 4090 kopen maar ja, dan smijt je ook veel geld buiten gewoon omdat de developers de boel niet optimaliseerde. In de praktijk als je een 4090 koopt, beloon je game devs dat niet optimaliseren want "de klant zal wel een sterkere GPU kopen als ze 1440 of 4K willen spelen".
Is de groep die een RTX 4080, 7900 XTX of zelf een RTX 4090 niet te klein om speciaal daar games voor te optimaliseren? Volgens mij zitten de meeste gamers met nog kaarten van 5 jaar geleden. Een RTX 4090 neem ik bijvoorbeeld ook alleen om grafisch veeleisende opties aan te kunnen zetten zoals pathtracing of voor een hoge framerate.
Zit ik dan met m'n 1080ti.
Ik was altijd een voorloper. Maar op de een of andere manier heb ik het gevoel niet veel meer te missen.
Scheelt wel dat ik amper nog FPS speel.

(De kids hebben wel een Fortnite waardige PC)

[Reactie gewijzigd door joene1972 op 22 juli 2024 13:48]

Want Fortnite draait niet goed genoeg op een 1080Ti? :?
Ik speel het niet maar volgens mij is dat toch een hele lichte game juist... Al die free to play competitive games zijn gemaakt om nog op een aardappel te draaien zodat ze zoveel mogelijk publiek bereiken en de tryhards honderden fps kunnen halen.
Ja, je hebt helemaal gelijk hoor. Ze spelen net zo lief op mijn PC.
Ik denk dat het ook meer een grapje was.
Fortnite is grafisch 1 van de zwaarste spellen, ja had het ook niet verwacht.
Fortnite alles op max is zelfs op een rtx 4090 aardig zwaar in 4k
Zit ik dan met m'n 1080ti.
Ik heb zelf een ~7 jaar oude game-PC gebaseerd op een GTX 1080. Dat is mijn streaming backup voor spellen die mijn Steam Deck native minder goed draait (zoals Helldivers 2). Ik zie nog steeds geen reden voor grote upgrades.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 13:48]

Speelde met mijn 1080ti gewoon de spellen die ik nu nog speel op 1440 met een prima framerate (BF 1 en V) plus alles op high, zal met 2042 iets moeilijker worden hoewel ik graphics daar wel wat minder van vindt.

Nu een 3080 en ja iets meer fps maar vind het die 1000 die ik daar voor neer heb gelegd eigenlijk niet waard.
Fortnite krijgt zelfs mijn 4070 en 6700XT op de knieën met alle toeters en bellen aan 8)7

Ja de meeste spelen natuurlijk op de laagste instellingen, maar ik hou van pracht en praal :Y)
Ook gehad, dat was een uitstekende kaart, maar ik zou vrijwel direct DLSS missen in bijna alles dat ik speel. Voor oudere games, aardappel multiplayer meuk als fortnite, minecraft en Counter Strike zal het prima gaan. Voor Alan Wake 2, iets minder.

[Reactie gewijzigd door nullbyte op 22 juli 2024 13:48]

Heb hier 3 pc’s. 1x Apple MacBook Pro M1 8/256 model (voor onderweg in de vrachtwagen voor films, e-mail, Minecraft en wat oude SNES spellen)
Is gewoon zuinig.

Mijn 2e pc in de woonkamer is een AMD Ryzen 5 1600x, 16GB DDR4 @ 2933 Mhz, 1tb SSD (Sata) en een Geforce GTX 1060 6GB. (Win10)

Mijn “gaming” pc is een Ryzen 7 5700x, 32GB DDR4 @ 3200MHz, 2x1TB SSD NVME, gepaard met een Radeon 6700XT 12GB. (Win11)

Echt tijd voor games heb ik ook helaas niet meer en eenmaal thuis rust ik liever goed uit.

Misschien nog een laatste gaming PC in 2026?? 2027 als de geforce 6xx0 uit zou komen.
Goed voor Geforce now, waarom kopen als je ook kan leasen… plus, alles met een scherm de app en internet wordt een console.
Oh wacht ik render wel eens wat… VR wordt (nog) niet ondersteund. Maar de meerwaarde wordt steeds minder interessant.

Ik bedoel een 4080 voor 200usd per jaar.
En na 5 jaar heb je 1000 euro betaald, en heb je geen kaart die je kan verkopen.
Dan lijkt het me logisch dat je na 2 jaar overstapt op de nieuwe generatie 'natuurlijk', toch?
En wat denk je dan te krijgen voor die kaart 2/3 van de prijs? Ik ben ook voor kopen. Maar wees realistisch kijk bij vraag en aanbod kost nu 900 euro misschien gekocht voor 1400. 15 maanden oud dat is dus 33 euro afschrijving per maand. Bizar hoe “laag” geforce now is.. maar aan de andere kant ze kunnen die servers natuurlijk ook inzetten voor berekeningen terwijl er niet gegamed wordt. Ik ben niet pro cloudcomputing maar het wordt wel verdraaid aantrekkelijk met 16,66 usd per maand met halfjaar abbo. Alleen kleven er teveel nadelen aan..
Maar ook;
Geen (hoge) aankoopkosten/afschrijving
Geen garantie gezeur
Om de zoveel tijd een upgrade "voor niks"
Geen verkoop gezeur
GPU Performance ongeacht lokatie of device

Begrijp me niet verkeerd, ik zit zelf in het koop kamp, maar kan me ook voorstellen dat Geforce Now aantrekkelijk kan zijn.
Een use case voor mij zou zijn dat Geforce Now goedkoper is dan op 3 lokaties een 4080 kopen en inbouwen (zou ik geen laptop willen).
Na 5 jaar zit je 2 generaties verder voor (hopelijk) hetzelfde geld. Voor 1000 euro heb je ook niet 5 jaar lang een even goed presterend systeem.

Ik ben absoluut niet voor you'll own nothing and be happy maar GFN heeft, mits de games die speelt er op staan en je verbinding in orde is, een killer deal.
Geforce now
Latency, ik heb elk voordeel nodig in Multiplayer. Ook die 10ms extra latency van Streaming naar een datacenter is en blijft ongewenst.

[Reactie gewijzigd door nullbyte op 22 juli 2024 13:48]

Misschien mooi op tijd voor de 9700x3d CPU van AMD om er een hele nieuwe PC op te bouwen. Anders had ik het in delen gedaan. Eerst mijn 3070 vervangen in mijn 'oude' PC, daarna de rest van de componenten vervangen.
Ben benieuwd welke voeding (wattage) we hiervoor gaan nodig hebben en hoeveel ruimte we in onze "case" moeten vrijmaken om deze te installeren .. :)
Ik zie ze het nog uitstellen tot de release van GTA6 op PC. Zullen de specs niet mals zijn en kan NVIDIA hiervan gebruik maken.
2025+2jaar wachten = 2027 zoiets, dus RTX 60-serie met SUPER ofzo.
Misschien moeten we dat dan maar doen, alleen blijf je dan achter op de AI hype als je lokaal zaken wil uittesten.
Ik ben benieuwd naar de prestaties. Ik heb nu een 4090 maar met VR loop ik zelfs daarmee al heel snel tegen beperkingen aan. Die heeft 16384 cores trouwens, maar ongetwijfeld worden die van de 5000 serie ook sneller.

Jammer dat hij pas laat komt maar inderdaad ze verdienen veel meer aan de industriële AI chips dus ik had het al wel verwacht.

Eerst de bitcoin hype die de gamers dwars zat, nu dit weer... Het is ook altijd wat.
De 4090 heeft inderdaad 16384 cudacores waarmee hij maar liefst 60% meer heeft dan de 4080 Super. Toch weet de 4090 dat potentieel niet helemaal goed te benutten in de meeste games (gpu-intensieve taken uitgezonderd) door de geheugenbandbreedte die een bottleneck vormt. Ik zie dat ook bij mijn 4090 als ik alleen de gpu overklok, dat geeft amper een prestatiewinst. Verhoog ik echter de snelheid van de VRAM dan nemen de prestaties duidelijker toe. De 4090 was mooier in balans geweest als Nvidia het snelle L2-cache op 84 MB had gezet, dan zou het potentieel van het hoge aantal cudacores ook beter benut worden. De 5090 krijgt volgens de geruchten 128 MB L2-cache plus 50% hogere geheugenbandbreedte, alleen al daarmee zal deze waarschijnlijk minimaal de helft beter presteren dan de 4090.
Meer cache en bandbreedte maakt niet zo veel uit voor de bezetting van die GPU's. De 4090 is gewoon veel te breed met 128 clusters, ze krijgen het werk niet dusdanig verdeeld dat er ook werk voor alle clusters is. Meer cache/bandbreedte verhelpt dat niet.

Ze mogen verder dan ook wel met 16384 "CUDA Cores" adverteren, het zijn er feitelijk 8192 FP32 ALU's, met daarnaast nog eens 8192 FP32/INT32 ALU's die zo'n 30% van de tijd FP werk mogen doen (het belangrijkste voor graphics), maar de overige tijd gewoon INT werk moeten doen. Dat is hun andere bezettingsprobleem.

De 4090 specifiek is gewoon een bizar inefficiënt ding, waarbij een groot deel van de chip niet benut kán worden doordat ze hem niet aan kunnen sturen.
De 4090 is gewoon veel te breed met 128 clusters, ze krijgen het werk niet dusdanig verdeeld dat er ook werk voor alle clusters is.
Dan zou je dat (juist) in GPU intensieve taken (die beperkt geheugenbandbreedte vragen in tegenstelling tot games) moeten terug zien, maar het tegendeel is waar. Kijk maar naar de verschillende resultaten van de Aida-test in de review van de 4080 Super hier op tweakers, daar zie je dat de 4090 meerdere keren rond de 50 tot 55% sneller is dan de 4080 Super. Dus de bottleneck van die werkverdeling waar je het over hebt lijkt niet van toepassing te zijn:
review: RTX 4080 Super - Drie keer is scheepsrecht

[Reactie gewijzigd door Degrader op 22 juli 2024 13:48]

Ik had het specifiek over het verdelen van game workloads. Games vragen niet zo heel veel bandbreedte tijdens het renderen van een gemiddeld frame; dat gebeurt juist in de laadschermen en in texture streamen.

Wat je in games wél wilt is lage latency naar de data voor de ALU's, waarbij een grotere cache dat slechts tot op zekere hoogte op kan vangen. In Nvidia's geval zit de L2$ vrij ver weg en schiet die latency heel rap omhoog zodra je over de 6 of 8 MB (weet niet meer precies hoeveel) heen gaat.

Game workloads zijn niet uniform; het is sowieso een mix van FP en INT waardoor Nvidia's "16384" dus geheel niet klopt vergeleken met Turing of eerder. Sterker nog, een Turing GPU met 8192 CUDA Cores (waarmee ze toen nog op de FP32 ALU's doelden en de INT ALU's niet mee telden zoals ze nu wel doen) op deze kloksnelheden zou waarschijnlijk even snel, zoniet sneller, zijn. Vervolgens zijn die workloads niet geheel onafhankelijk, waardoor je maar beperkt parallel kan werken. Die sweet spot ligt tussen de 60 en 80 wavefronts van 32-breed, dat is waarom dingen als een 4080(S) of 7900 vaak zo dicht op de 4090 zitten, niet vanwege de bandbreedte.

Uitzondering daarbij is RT, waarbij we nog in de ontwikkelingsfase zitten. Breder helpt daar vooralsnog wél, ook omdat de RT hardware niet of nauwelijks verbeterd is. Op papier zijn de RT cores in Ada maar liefst 4 keer zo snel dan die van Turing, maar in de praktijk komt dat er niet uit omdat ze ze niet van data kunnen voorzien. De L2$ is al groot genoeg, maar zit te ver weg; daar hebben ze eerder meer L1$ nodig...of gewoon daadwerkelijk vooruitgang in de RT implementatie.
Ik betwijfel het wat je zegt. De bottleneck bij de 4090 lijkt toch echt gerelateerd te zijn aan de bandbreedte en dus ook aan de cache. Kijk maar eens naar de 1440p en 4K-benchmarkresultaten op Medium van Cyber Punk 2077 zonder raytracing. Op de medium-instelling is de geheugenbandbreedte minder snel een bottleneck en wordt het potentieel van de grote hoeveelheid cuda-cores veel beter benut: de 4090 is daar 50 tot 75% sneller dan een 4080 in 1440p respectievelijk 4K: https://tweakers.net/revi...recht-cyberpunk-2077.html
Op 1080p loop je tegen een CPU bottleneck aan, die bij 1440p verdwijnt. Het relatieve verschil in prestaties is daarna identiek tussen 1440p en 2160p, in beide gevallen is de 4090 +- 30% sneller. Kijk je vervolgens naar een 4070 Ti Super (66 SM's) tegenover een 4080 (76/80 SM's, 45-64 GB/s bandbreedte verschil en 16 (!) MB meer L2$) is het verschil 25%, wat vrij dicht in de buurt van het verschil in ALU's zit. Dat krijgen ze nog gevoed :)

Chips & Cheese heeft hier al meerdere malen op verschillende manier op in gehaakt, Ada kan gewoon niet volledig bezet worden tenzij je je workload specifiek er op toe spitst - doe je dat, dan is het ding wel absurd snel. Maar als je Turing, Ampère en Ada met elkaar vergelijkt zul je zien dat die laatste twee (die nagenoeg identiek zijn) niet alleen geen vooruitgang hebben geboekt qua effectiviteit van hun rekeneenheden, ze zijn er zelfs op achteruit gegaan in de zin dat ze niet meer doen, maar wel meer capaciteit hebben. Hun occupancy is sinds Turing niet veranderd...en TU102 had 68/72 SM's ;)

Nvidia's frontend is al heel lang nauwelijks veranderd en ze doen bizar veel werk aan de driver kant om de workloads op te splitsen, maar dat kan zoals ik zei slechts tot op zekere hoogte omdat graphics simpelweg niet uniform zijn. Van elke SM ligt er per kloktik gemiddeld gewoon zeker 50% stil. Één enkele INT op zorgt er al meteen voor dat je een tik verliest op die helft van de "CUDA Cores" omdat je die ene INT op moet doen; tegelijkertijd kan dat niet naar een andere SM omdat de andere ops er van afhankelijk zijn :)
Het gaat om de Medium-instellingen, op 1440p en 4K, daar is de 4090 in 1440p 75% sneller dan een 4080 en in 4K 50%.
Welke beperkingen heb je dan? Ik heb een quest 2 en draai half life alyx (toch een van de zwaardere vr games) gewoon op 120 fps met zelfs supersampling op 120% op een 4080.
Alyx is relatief licht. Spellen als flight sims vragen het uiterste van hardware. Ook omdat die vaak totaal ruk zijn geoptimaliseerd.
Alyx wel ja maar ik kan flight simulator 2020 nog niet eens op volledig medium settings draaien, het gaat extreem hakkelen en vervormen als ik het te hoog zet.
Misschien ook vanwege de UEVR mod die meer vraagt van UE games als dat ze echt native VR support zouden hebhen?
Ik zeg het al langer maar pc gaming word echt onbetaalbaar met die prijzen tegenwoordig.
Je hoeft niet op 4K ultra raytraced te spelen. Bovendien bespaar je erg veel op de games in vergelijking met consoles.
Hier een filmpje van Linus Tech tips van 3 maanden terug over een PS5 "killer" PC

YouTube: It’s time to kill the Playstation 5
Er gaat niets in de markt veranderen omdat de consument ook niet gaat veranderen. Ik zit de posts hier een beetje door te lezen. En net als bij elke andere post over Nvidia zie ik keer op keer voorbij komen dat Nvidia geen concurrentie zou hebben. Toch game ik al een jaar of 8 op AMD hardware op 4K en ultra settings. En die setups schroef ik voor 30 tot 50% minder kosten in elkaar dan mogelijk was bij het andere kamp.
Gamen ga je nog wel even met AMD doen, maar ze zullen toch iets aan hun AI basis moeten gaan doen als ze nog relevant willen blijven.

Op dit item kan niet meer gereageerd worden.