Gerucht: Nvidia GB202-gpu voor RTX 50-serie krijgt 384bit-geheugenbus en GDDR7

De komende Nvidia GB202-gpu, die naar verwachting wordt gebruikt in de GeForce RTX 50-serie, krijgt mogelijk een 384bit-geheugenbus en gebruikt GDDR7-geheugen. Dat meldt een bekende leaker. Eerder gingen geruchten rond dat die gpu een 512bit-geheugenbus zou krijgen.

Bekende Nvidia-leaker kopite7kimi meldt op sociale media dat de GB202-gpu een 384bit-geheugenbus krijgt. Deze leaker deelt regelmatig correcte informatie over toekomstige Nvidia-videokaarten. Eerder ging het gerucht rond dat Nvidia de komende flagship-gpu zou voorzien van een 512bit-geheugenbus, maar de leaker komt daar nu op terug. De X-gebruiker zegt een 'empirische fout' gemaakt te hebben, door de L2- en geheugencontrollerratio van de huidige Lovelace-architectuur toe te passen, wat leidde tot een onjuiste aanname dat de GB202-gpu een 512bit-bus krijgt.

De nieuwe gpu zou ook GDDR7-geheugen ondersteunen. Volgens een eerdere roadmap van Micron wordt dat geheugen in de eerste helft van volgend jaar geproduceerd. Het geheugen zou volgend jaar een bandbreedte van maximaal 32Gbit/s per pin bieden, waar dat bij het huidige GDDR6X maximaal 24Gbit/s is. In combinatie met een 384bit-geheugenbus, zou de bandbreedte van de GB202 met GDDR7-geheugen ruim 1,5TB/s bedragen.

Volgens eerdere geruchten krijgt de GB202-gpu 192 streamingmultiprocessors. Dat zou neerkomen op een maximum van 24.567 CUDA-cores, een toename van 33 procent ten opzichte van de huidige AD102-gpu, die wordt gebruikt in de RTX 4090. Dat wil echter niet zeggen dat er RTX 50-videokaarten met zoveel cores uitkomen; videokaarten worden vaak geleverd met een deels uitgeschakelde gpu voor betere yields. De huidige RTX 4090 heeft bijvoorbeeld 16.384 CUDA-cores, terwijl de gebruikte AD102-gpu er in theorie 18.432 CUDA-cores heeft.

Naar verwachting introduceert Nvidia zijn RTX 50-serie volgend jaar. Een exacte releasedatum is echter nog niet bekend. De RTX 30- en RTX 40-series werden in september 2020 en 2022 aangekondigd, maar het is niet bekend of Nvidia een soortgelijk releaseschema aanhoudt voor zijn komende gpu's.

Gpu GB202 (RTX 5090?) AD102 (RTX 4090)
Geheugenbus 384bit 384bit
Geheugen GDDR7 GDDR6X
Bandbreedte 1536GB/s
(bij 32Gbit/s-GDDR7-geheugen)
1008GB/s
(bij 21Gbit/s-GDDR6X-geheugen in RTX 4090)

Door Daan van Monsjou

Nieuwsredacteur

16-11-2023 • 13:39

177

Lees meer

Reacties (177)

Sorteer op:

Weergave:

32Gbit/s per pin
...
24.567 CUDA-cores
Goeie genade! Wat een technologie!

Ik heb alleen niet de goede hoop dat deze technologie erg betaalbaar gaat worden. Was er een tijd terug niet een gerucht/nieuws dat AMD's volgende generatie geen high-end kaarten gaat bevatten? Als dat zo is heeft Nvidia straks vrij spel.

Met Nvidia's standaard manier van releasen heb ik het idee dat RT 50 niet zomaar een verbetering gaat zijn over RT 40, niet zoals RT 40 dat was over RT 30. RT 30 was geniaal vergeleken met wat daarvoor kwam, maar RT 40 was slechts een verbetering daarop, met de uitzondering van de 4090. Dan lijkt het mij dat RT 50 nog wel eens wat kan worden.

Oh en dan hopen dat Nvidia deze keer genoeg VRAM in die chips stopt...
Om even advocaat van de duivel te spelen, alleen de overstap van 3000 naar 4000 was erg teleurstellend, volgens mij geldt dat niet (of heel veel minder) voor alle jaren/generaties daarvoor. Beetje flauw om dan de je verwachtingen alleen op de laatste stap te baseren?

En wat betreft geen high-end, met wat de 'nieuwe normaal' is qua prijzen kan ik (en toch zeker zo'n 70% van de markt) zal daar niet treurig om zijn, xx80 en xx90 equivalent kaarten zijn voor de lucky few. Als er maar kaarten van rond de €400/500 uit gaan komen: de prijs van een console, dat is een 'normaal' budget.

Maar ik moet het nog zien of de prijzen zo hoog blijven, in verwacht (hoop) dat de volgende generatie Intel kaarten serieuze concurrentie op gaat leveren en met drie spelers moet dat toch wel wat met de prijzen gaan doen.

En ja, tegen die tijd zal het eindelijk wèl wenselijk zijn dat er meer dan 8 GB VRAM op kaarten zit (net weer een AAA titel die gewoon zonder problemen op 100 fps op 1440x3440 haalt met m'n 8GB kaart)

[Reactie gewijzigd door Alxndr op 22 juli 2024 17:06]

De RTX2000 reeks viel toch ook tegen voor de realistische gevallen?

Raytracing en DLSS zijn wel de goede richting. Maar eigenlijk kon je er weinig mee zeker in het begin en met de lagere kaarten RTX2060 bijvoorbeeld. Pas bij de RTX3000 reeks en de nieuwere DLSS versies zijn die ideeën een stuk bruikbaarder geworden

Ik ben zelf van GTX970 naar een RTX3060TI gegaan. Pas toen had ik echt het idee dat het echt waard was

GTX1000 reeks was een te kleine stap. En een de RTX2000 reeks was wel een revolutie. Maar niet echt een bruikbare revolutie tenzij je echt een RTX2080 TI kocht.
Zelf ben ik van 670 naar 1060 naar 3060 Ti gegaan, dus de generaties daar tussenin heb ik dan misschien toch iets minder van meegekregen? Maar als het zo erg was als nu met de 4000 serie zou ik het met toch wel herinneren zou ik denken.

Persoonlijk zie ik Raytracing nog steeds een beetje als een gimmick, ik zet liever eerst alle andere instellingen zo hoog mogelijk, en laten we eerlijk zijn met een xx60 kaart haal je geen leuke fps op ultra.

Gezien je dezelfde kaart hebt, gebruik jij RTX wel (veel/vaak/altijd)? En heel wat anders, heb jij ooit gemerkt dat 8 GB VRAM weinig/niet genoeg is?
Ik vind zelf DLSS meer de killer dan raytracing. DLSS gebruik ik eigenlijk altijd als het kan.
Bij raytracing heb je wel vaak als nadeel dat een spel er niet van te voren al voor gemaakt is. Je ziet soms ook andere dingen

Die 1060 was dacht ik redelijk vergelijkbaar met de 970

Die 8GB limiet heb ik eigenlijk nog weinig last van gehad. Maar ik zet ook wel eens iets omlaag. En heb erg weinig spellen gespeelt het laatste jaar en wat ik gedaan heb was vooral Total Warhammer 3 en nog paar spellen met echt oudere engines. Waarbij je beide niet kunt gebruiken.
De limiet van 4/3,5GB van die 970 moest je trouwens niet overschrijden dan werd het wel echt traag. Dit heb ik wel eens geprobeerd met een extreme texture pack bij dacht ik skyrim.

Cyberpunk 2077 was wel mooier met Raytracing trouwens. Maar ik heb eigenlijk 1 dagje rond gebanjerd en zitten spelen met instellingen rond launch day. Maar niet echt serieus gespeeld ik was van plan te wachten tot de bugs opgelost waren. Maar ik ben eigenlijk niet meer begonnen. Het leuke van raytracing was wel dat je soms dingen zag die je anders niet kon zien. Bijvoorbeeld een lichtgevende streep om een hoekje

Control vond ik eigenlijk nog het beste met raytracing en DLSS toen, daar maakte DLSS raytracing wel redelijk goed mogelijk. En stond het eigenlijk altijd aan

Metro Exodus Enhanced Edition was ook goed. Die was speciaal aangepast. Dat is ook nodig om de juiste hoeveelheid verlichting te krijgen in veel gevallen
https://www.shacknews.com...tion-ray-tracing-features
Ik denk dat het raytracing pas echt groot wordt als het de standaard wordt. Want dan wordt de verlichting erop gemaakt

Ik heb trouwens een echt GSync scherm dus als mijn frame rate wisselt tussen bijvoorbeeld 40 en 70 Hz heb ik daar weinig last van. Als hij maar boven de 30 Hz blijft. Als dit doet op andere monitor is het ineens heel irritant.

Mijn wall of Shame met niet gespeeld of niet uitgespeelde spellen is best groot geworden
Misschien binnenkort weer eens iets gaan spelen nu ik dit type krijg ik er echt weer zin in
Mee eens. Voor mij is dlss echt een must, voor oa cyberpunk, cod, tombraider en world of tanks. En die WOT is echt weird op medium settings op 5k klokt ie 180-200 op mijn samsung 49' inch 5k 240hz scherm met maar een 4080 rtx en ik weet niet hoe ik hem lager krijg (alle settings geprobeerd) maar krijg hem niet lager dan 180hz. Toch weer gaan googelen. En mooi als die 5080-5090 over 1-2 jaar uitkomt. Kan niet wachten op native rtx op 120hz (denk niet dat ie dat gaat halen)
je zit heel duidelijk volledig in de Nvidia marketing mood _/-\o_ Gsync, dlss must....

en aan al je comments overal te lezen heb ik de indruk dat je niet meer zo mee bent met huidge beschikbare hw oplossingen vna gpu en scherm...

[Reactie gewijzigd door d3x op 22 juli 2024 17:06]

Ik ben zeker niet helemaal mee met de laatste trends. Ik heb ook nog echt die oude Gsync.

Maar ik zie zelf geen nadelen in DLSS. Je krijgt meer FPS en je hebt eigenlijk geen merkbaar kwaliteits verlies tenminste als je een beetje de hogere instellingen kiest op 2560x1440 monitor. Raytracing is eigenlijk niet te doen op mijn 3060TI zonder DLSS

AMD heeft ook wel gave dingen. Ze hebben vooral als voordelen dat hun standaarden meer open zijn

Maar als ik nu een nieuw systeem zou kopen zou ik Nidia kopen. Zeker het echte raytracing komt er steeds meer aan bij hun.
https://www.youtube.com/w...b_channel=TwoMinutePapers

[Reactie gewijzigd door Darksteel83 op 22 juli 2024 17:06]

Als je denkt dat een 3060ti voldoende is voor 2560*1440 met voldoende fps, tsja dan geef je nu net aan wat er mis is met de verwachting in de markt... Waarom bestaat er een 70-80-90 als de 60 al zogezegd de hogere midrange is....

RT is een keuze afh type spel.

NVIDIA is zeker goede keuze, maar als je er al vanuit gaat zonder op die moment te bekijken dan ben je ....
Ik haal dus ook vaak 50-70 fps met de nieuwere spellen. Met een oudjes 144 fps/Hz.

Ik heb de 3060TI op 1e dag gekocht dat hij er was. Voor €469. Het heeft echt jaren geduurd voordat hij weer goedkoper was door corona en crypto.
Een 3060TI is eigenlijk een 3070 waarvan wat extra cuda cores zijn uitgeschakeld.

De RTX3060 kwam pas later.

De 3060TI en de 3070 hebben 8GB geheugen
De 3060 heeft 6 of 12 GB wegens een smallere geheugen bus.

De 2560*1440 monitor had ik daarvoor al. Die heb ik ook nog met de GTX970 gebruikt. Dan was G-Sync wel behoorlijk nodig.

Die GTX970 en de RTX3060TI waren toen wel echt de beste keuzes die ik toen kon maken.

Misschien had een RTX3070 ook nog gekunt. Maar voor RTX3080 is mijn voeding te onvoldoende. En ik denk dat die toen ook al boven de 1000 waren en niet te krijgen.

Wat heb je zelf voor hardware dan?
Beide van mijn game systemen hebben 6800xt gekocht via AMD website tijdens de gpu crisis :)

Dus waar voor mijn geld en een degelijke kaart om veelal 1440p richting 144hz te zoeken met degelijke settings
Dat is ook een mooie kaart. Ik had alleen denk ik issues gekregen met mijn voeding.

En gezien ik al een G-Sync monitor had was AMD eigenlijk niet echt een optie.

AMD en free sync is ook prima trouwens. Maar dat ondersteunt mijn monitor dus niet.

Veel oudere spelen speel ik trouwens ook op 144 Hz of nog net iets beter op 143 Hz als je dat in kunt stellen dan blijf hij in zijn G-Sync range.
Ik vind het er prachtig uitzien in raytracing overdrive mode in CP2077 bijvoorbeeld. Heb wel een 4090 :)
De RTX2000 reeks viel toch ook tegen voor de realistische gevallen?

Raytracing en DLSS zijn wel de goede richting. Maar eigenlijk kon je er weinig mee zeker in het begin en met de lagere kaarten RTX2060 bijvoorbeeld. Pas bij de RTX3000 reeks en de nieuwere DLSS versies zijn die ideeën een stuk bruikbaarder geworden

Ik ben zelf van GTX970 naar een RTX3060TI gegaan. Pas toen had ik echt het idee dat het echt waard was

GTX1000 reeks was een te kleine stap. En een de RTX2000 reeks was wel een revolutie. Maar niet echt een bruikbare revolutie tenzij je echt een RTX2080 TI kocht.
Een 1070 was 56% sneller dan een 970. De 2070 was 33% sneller dan de 1070. De 3070 was 38% sneller dan de 2070. De GTX 1xxx reeks bracht dus de grootste verbetering.

Raytracing gebruik ik zelf tot heden eigenlijk nog altijd niet echt, tegenwoordig heb ik een RTX 4070. DLSS gebruik ik in min of meer elke game waar het in zit.
In games zonder raytracing en DLSS klopt dat helemaal.

Maar toch vind ik die 2070 wel een revolutie met de toevoeging voor raytracing en DLSS. Maar alleen wel een revolutie die er te vroeg was. Waardoor je hem eigenlijk weinig kon gebruiken.

DLSS was ook pas vanaf de 2.1 of 2.2 versie echt een verbetering. DLSS 1.x vond ik echt lelijk toen ik eens mee heb zitten spelen. Toen waren al wel de 2.x versies uit. DLSS is wel echt top. Mogelijk op de RTX4070 nog wat meer dan op de RTX3060TI met de frame tussenvoeg optie. Die heb ik eigenlijk nog nooit gezien in de praktijk
Helemaal eens. Raytracing is echt wel een mooie feature em voor mij zeker geen gimmick (het kan echt een game veel meer immersive maken), hoewel pas sinds de 3080ti en 3090 echt bruikbaar op acceptabele framerates (60+), en bij de 4080 en 4090 kom je weer een beetje in het 144 fps/hz gebied (op 1440p) wat toch wel een beetje de sweetspot is qua scherpte en smoothness en performance.
Heb je ook een G-Sync scherm?

Ik heb zelf een Dell S2716DG met de orginele G-Sync erin waardoor je ook een speciale Nvidia chip erin hebt. Deze G-Sync werkt vanaf 30 Hz tot 144 Hz. Dus ik heb er eigenlijk nooit echt last van als iets onder 60 duikt. Zolang het maar echt boven de 30 fps/Hz blijft en liefst boven de 40-50.

Ik stel de zwaarste spellen dus zo in dat gemiddeld iets van 60 fps/Hz halen. Maar het is niet een minimum met dit scherm. Meer fps/Hz is wel beter wanneer mogelijk.

De G-Sync compatible schermen die later kwamen die kunnen vaak niet zo laag in hun 30 fps/Hz zonder issues te geven.

Ik speelde meestal wel vrij rustige spelletjes en single player trouwens
Ik vind minder dan 144hz voor gewoon office en desktop gebruik al minder prettig, laat staan computerspelletjes.

Of beter gezegd, vanaf 90hz is het eigenlijk vaak al wel ok genoeg als reactietijd niet relevant is. Maar het verschil in smoothness tussen 60hz en 90hz is behoorlijk groot.

[Reactie gewijzigd door PjotterP op 22 juli 2024 17:06]

Om even advocaat van de duivel te spelen, alleen de overstap van 3000 naar 4000 was erg teleurstellend
Vind ik erg meevallen hoor.

Dat je nu bijvoorbeeld Cyberpunk compleet in raytracing kan draaien is behoorlijk ongeevenaard.
De enige echt goeie vooruitgang was de 4090, en als jij Cyberpunk in Overdrive er zo goed vind uit zien kan ik me alleen maar bedenken dat je met een 4090 speelt

De rest van de kaarten was de vooruitgang gewoon erg minimaal en dus voor vele een zware tegenvaller.. met de 4060(ti) als hoogte punt van slechte vooruitgang
Ja ik heb een 4090 inderdaad.

Maar het is ook dat de kaarten qua branding generfd zijn. De 3080 was qua specs heel erg dicht op de 4090 (en de 3080 Ti was echt bijna een 3090). De 3080Ti was iets van 95% van een 4090, terwijl er tegenwoordig een heel groot gat tussen zit, je komt niet hoger dan 70%.

Dit is gewoon pure marketing, niet echt een tegenvaller van de techniek vind ik. Ze hebben gewoon de nummers van de kaarten hoger ingeschat dan ze bij de vorige generatie hebben gedaan.
Imho hebben de gpu producenten het lastig extra performantie te halen uit het ontwerp. Enkel een hogere dichtheid en hoger energieverbruik lijken nog iets aan de stats te doen. De sprongen die we in het Riva en vroege GeForce tijdperk zagen, liggen inmiddels al even achter ons.
Dat verklaart imo ook waarom een midrange 4000 kaart niet kan tippen aan een high-end kaart van de vorige generatie.
De stap van 1000 naar 2000 was ook belabberd. Beperkte prestatie verbetering en hogere prijzen.
een 2080 ti is echt wel een hele stap snller dan een 1080ti ook al was de 1080ti een fantastische kaart
De prijs van een 2080ti was ook navenant hoger. Dus prijs/performance was het niet zon verbetering.
Dat klopt, maar nu komt een deel van het eerlijk verhaal: een groot deel van de mensen kan dat zeker (terecht) iets schelen, en NVIDIA gaat natuurlijk voor maximale winst, maar er is ook een groep mensen, waaronder ikzelf, die het niet erg vindt om meer te betalen als het ook echt sneller is. Want ook dan bereikt de kaart nog steeds een nieuw plateau dat de vorige kaart niet kon bereiken.

Ik kom nog uit de tijd dat computers duizenden guldens kostten. Om over RAM upgrades maar niet te spreken. Als je ziet wat een moderne GPU als een RTX A6000 of GeForce RTX 4090 kan, dan is mij persoonlijk het dat geld wel waard. Kortom, ik ben bereid om voor 20% meer performance ook 20 a 25% meer te betalen. Dat is dan qua 'value for money' niet echt vooruit gang (en soms zelfs achteruitgang!) , maar wel vooruitgang in termen van 'peak performance'.

[Reactie gewijzigd door PjotterP op 22 juli 2024 17:06]

de prijs ook hahaha.
De hele 2 serie was al een te dure sale.
toen kwam de 3 serie en de crypto gelul en corona dat heeft Nvidia stinkend rijk gemaakt. { ze waren al rijk }
waarom denk je dat de high end 1000 euro duurder is?
Nvidia heeft bloed geproefd en denken..... als ze dit al WILLEN betalen waarom niet.

Zal mij ook niet verbazen als de 5070 1200 euro
5080 1700 euro
5090 2250 euro

Zijn genoeg mensen die het al normale prijzen vinden 8)7 .

[Reactie gewijzigd door noway op 22 juli 2024 17:06]

Tja, mooie technologie. en aan de andere kant zien we devs die ontwerpen met upscaling in mind, dus krijg je met upscaling, magie en andere elventechnieken met een beetje geluk 60 fps met deze prachtige 5000 serie kaarten. en dan nog ziet het er ruk uit.
Welke games zien er dan ruk uit volgens jou die niet zonder upscaling gedraaid kunnen worden?
Uh Starfield. Kijk naar de laatste patch 30 fps erbij bijna met Nvidia kaart.
Je Hij deed alsof alle (nieuwe) games daar last van hebben, en dan kom je maar met 1 game aanzetten :Y)

Ik vroeg trouwens niet om 1 voorbeeld, die is altijd wel te vinden (de bekende uitzondering op de regel). Ik vroeg eigenlijk gewoon om (alle) games die er volgens jou last van hebben...

Dus nee mij heb je niet overtuigd, maar ik game dan ook gewoon zonder upscaling op een 7900XTX (4k en UWQHD) terwijl er al sneller kaarten zijn en het nieuwsartikel dan ook over een veel sneller kaart gaat :)

*edit zie nu pas dat je niet degene bent waar ik het aan vroeg :)

[Reactie gewijzigd door watercoolertje op 22 juli 2024 17:06]

Gelukkig is het niet mijn (en onze) taak om jou te overtuigen. Het is een hele duidelijke trend die gaande is, waar devs zich verschuilen achter magie en nepframes-injectie om de performance van hun brakke games nog enigzins acceptabel te laten lijken. en dat gaat alleen maar erger worden.
...achter magie en nepframes-injectie...
Erm... Wellicht dat je de principes van 3D rendering (oa. in games) niet begrijpt, maar het zijn allemaal 'nepframes' die je ogen/brein voor de gek houden. Dat de ene frame nepper is dan de ander zit alleen maar tussen je oren.

Nu kan het zijn dat de implementatie vrij ruk is van een nieuw 3D truckje, maar dat is me absoluut nog niet opgevallen bij recente games. Het is wat anders bij bv. video waarbij bepaalde mensen extra frames injecteren om zo film/serie/animatie op een (veel) hogere framerate te laten lopen, het probleem daar is dat men vrij bagger hobby spul gebruikt die niet goed de tussen frames genereert. Wat ik qua techniek heb gezien bij 3D games is dat een heel ander verhaal, daar worden de tussen frames zo goed als perfect gerenderd, alleen op een andere plek in de videokaart/proces. Natuurlijk zullen er altijd mensen zijn die zeggen dat ze het verschil wel zien, maar straks ga je me nog vertellen dat je 5G gesprekken opvangt als je geen alu-hoedje draagt... O-)

Upscaling... Tja, dat is nogal een breed scala, daarmee gooi je FSR 1.0 in hetzelfde hoedje als DLSS 3.0, one is not like the other.... Het kan zichtbaar zijn, maar wat ik er van heb gezien een hele goede compromis tussen kwaliteit en performance.

Ik ben het met je eens dat krachtige hardware developers 'lui' maakt, maar dat is ook deel te wijten aan de gamers. Men wil al maar mooier, sneller, tegen dezelfde of lagere prijs. Maar hoeveel tijd/geld koste een Asteroids developen op de Atari 2600 en hoeveel tijd/geld kost het developen van een Starfield? Even ter vergelijking, met inflatie zou zo een 1981 cardridge nu het dubbele kosten van een Starfield @MSRP....

Aan de ene kant heb je een Starfield, maar je heb ook een Diablo IV en een Baldur's Gate 3 (met legio andere spellen) die prima draaien op een Steam Deck handheld (effectief een 3.5 jaar oude iGPU)... We hoeven allemaal niet die UE5 games te spelen, er is legio goede games, zeker op de PC die helemaal nooit die performance nodig hebben.

Ik heb D4 ook gewoon laten liggen totdat deze op Steam uit kwam en Steam Deck supported was, Starfield niet gekocht omdat het pas een week later op Geforce Now beschikbaar kwam (en ik alweer in andere games zat), momenteel helemaal geen behoefte om een Starfield te kopen/spelen. Als maar genoeg mensen dat doen, dan veranderd er vanzelf wel wat, het issue is dat niet genoeg mensen dat doen. Maar er zijn nog zat developers die (uiteindelijk) wel een goed/mooi spel leveren wat werkt op beperkte hardware.
Even ter vergelijking, met inflatie zou zo een 1981 cardridge nu het dubbele kosten van een Starfield @MSRP....
En het doel van die vergelijking? Met inflatie zou je inkomen van 1981 ook 3 keer zo hoog zijn.
En er is een goede reden waarom de prijzen van games amper boven de €70 uit komen. Dat is namelijk het door onderzoek van uitgevers, developers, studios bepaalde bedrag wat mensen zo'n beetje maximaal uit kunnen/willen geven voor een game.
Die prijs wordt dus niet bepaald door inflatie of ontwikkelingskosten maar door marktonderzoek. Bovendien staat de prijs van games compleet los van die van de hardware.
Ik ben het met je eens dat krachtige hardware developers 'lui' maakt, maar dat is ook deel te wijten aan de gamers. Men wil al maar mooier, sneller, tegen dezelfde of lagere prijs.
Ja en nee.
Natuurlijk is er altijd een trent geweest naar mooiere, betere graphics. Net als bij alle andere technologische ontwikkelingen. Maar dat is ook altijd afhankelijk geweest van wat de hard- en software kon leveren.
Er was gewoon een patroon van steeds betere hardware die na een introductieperiode voor hetzelfde geld geproduceerd kon worden als de generatie ervoor. De games die het maximale vroegen van de beste hardware waren 3 of 4 jaar later door iedereen op dat niveau te spelen met hetzelfde budget.
Het is ook niet vreemd dat er dan een verwachtingspatroon ontstaat.

Hoewel het een natuurlijke ontwikkeling lijkt is er een overduidelijk element van planned obsolescence in. Betere hardware leidt tot de ontwikkeling van mooiere games wat leid tot de verkoop van betere hardware wat leidt tot mooiere games, enz..
De specifieke hardware voor ray tracing bijvoorbeeld draagt daar alleen maar toe bij.

Die ontwikkeling van steeds betere graphics is langzaam maar zeker veranderd naar meer realistische graphics. En de technieken daarvoor plus de toename in beeldpuntjes eisen in sommige games ondertussen zo veel van de hardware dat het ondoenlijk is om dat niet zonder 'magische trucjes' op het scherm te krijgen en al zeker niet voor een budget dat nog steeds zowat het dubbele is van wat het 'normaal' zou zijn geweest zonder het mining gedoe, de scalpers, Corona.

En ondertussen stomen de ontwikkelingen op softwaregebied gewoon door. Dat we games die op UE5 draaien niet hoeven te spelen is natuurlijk een waardeloos argument. Alleen al omdat mensen bepaalde games gewoon willen spelen ongeacht op welke engine die draaien.
UE5 neemt overduidelijk ook afstand van precies datgene waar bijv. een Starfield last van heeft. Een overduidelijk ouderwetse engine die, ondanks modernisatie, gewoon niet mee kan en de beperking om daarmee op oudere hardware te kunnen draaien.

Ik ben van mening dat het niet perse hyperrealistisch moet en dat per definitie alle toeters en bellen aan moeten staan om een game er goed uit te laten zien. En gezien de hardware die de gemiddelde PC gamer heeft is dat misschien wel een wens maar niet een realistisch gegeven voor velen.
Maar er is wel een gevoelsmatige ondergrens voor wat bereikbaar moet zijn met bepaalde hardware voor een bepaald bedrag.
En het doel van die vergelijking? Met inflatie zou je inkomen van 1981 ook 3 keer zo hoog zijn.
En er is een goede reden waarom de prijzen van games amper boven de €70 uit komen. Dat is namelijk het door onderzoek van uitgevers, developers, studios bepaalde bedrag wat mensen zo'n beetje maximaal uit kunnen/willen geven voor een game.
Die prijs wordt dus niet bepaald door inflatie of ontwikkelingskosten maar door marktonderzoek. Bovendien staat de prijs van games compleet los van die van de hardware.
Het doel van die vergelijking is en wat je zelf ook al aangeeft, het gros van de mensen willen niet meer €140 uitgeven aan een computer spelletje. De ontwikkelkosten bepalen niet wat een spel kost, maar bepalen wel of een spel überhaupt wordt gemaakt. Daar komt bij dat als je een plan moet maken voor 6 jaar, dan kan je ervan uitgaan dat dit na 5 jaar geen overeenkomst meer heeft met de realiteit. Te veel tijd, teveel geld, teveel mensen. dat een game bv. 20% uitloopt is nog steeds 20% maar dat is opeens een jaar+ en tientallen milljoenen, zo niet honderden miljoenen in een aantal situaties. Dat zijn niet tijden en hoeveelheden geld die zelfs grote studios hebben liggen.

Wat betreft hardware. Het is toch bijna te gek voor woorden dat men tegenwoordig ontwikkeld voor een 4090, kijk naar iets als Immortals Of Aveum. Het is geen slecht spel, maar er is een reden waarom het slecht verkoopt...

Als ik weer een volle workstation had gebouwd dan zou ik er ook een 4090 in hebben gezet, ik zit niet te juichen om dat soort geld uit te geven, maar ik zou het wel doen. Maar gezien de huidige prijs range qua PC hardware zitten veel ontwikkelaars veel te hoog te mikken imho. En dat merken of gaan ontwikkelaars merken in verkopen. Iets als GeforceNow scheelt wel een hoop, maar dan moet je je game daar wel op uitbrengen...
Het is toch bijna te gek voor woorden dat men tegenwoordig ontwikkeld voor een 4090
Op ontwikkelen weet ik niet, maar het is wel zo'n beetje de enige kaart waarmee je in sommige games alle toeters en bellen aan kunt zetten en dan nog een acceptabele framerate overhoud.
Immortals Of Aveum
Ik had er van gehoord. Heb even de system requirements bekeken op Steam en die blijken idd behoorlijk fors voor 1440p/30 fps. Geen idee off het daar aan ligt dat de verkopen tegen vielen of gewoon omdat het een vreemd genre is van een nieuw gevormde studio en ik er ook helemaal geen nieuws meer over heb gezien.

Maar met m'n RTX3080 hoef ik bijvoorbeeld niet te proberen in Cyberpunk 2077 de nieuwe ray tracing opties aan te zetten, want dat loopt gewoon niet.
En dat is inderdaad lichtelijk frustrerend voor een kaart die tegen de €1000 kost.
En dat merken of gaan ontwikkelaars merken in verkopen.
Aan de andere kant lijkt het ook mensen over de streep te trekken om toch een duurdere kaart te kopen.
Aan de andere kant lijkt het ook mensen over de streep te trekken om toch een duurdere kaart te kopen.
Daar tegenover staan juist weer de mensen die helemaal geen kaart kopen en het wel welletjes vinden met videokaarten van €1000+... Een 4090 is de afgelopen maand weer eens met 15-25% gestegen naar boven de €2000.
Tja, maar dat is omdat je dan nu de 4090 Met 15% korting Kunst kriegen Tupfens Black Friday Week… Woepie !
Ah ja, Bethesda, de meesters van "laten we de gamers een beetje uitdagen met een onvoltooide, superbuggy, en totaal ongeoptimaliseerde release." Geweldig voorbeeld van gameontwikkeling, toch? :) Dat dit jouw maatstaf is.. bijzonder.

[Reactie gewijzigd door deniz280 op 22 juli 2024 17:06]

En het dan ook nog hun meest gepolishde game noemen.
Ik heb Bethesda en hun engine (niet de bugs,, hoewel ik daar in het verleden nooit veel last van heb gehad) lange tijd verdedigd omdat ik van mening was dat die door de jaren heen ge-updatete engine gewoon voldeed voor de games zoals die bedoeld waren.
Toen ik jaren geleden las dat ze hun engine rigoureus aan het moderniseren waren voor een nieuw i.p. waarin al die nieuwe mogelijkheden en oude ideeën gebruikt zouden gaan worden waren mijn verwachtingen navenant optimistisch.

En toen kregen we Starfield.
Niet alleen heeft Todd 'the liar' Howard niet begrepen wat het exploreren in de vorige games speciaal maakte, dat 1000 procedureel gegenereerde planeten totaal niet interessant zijn voor 99% van de gamers en dat de hoeveelheid side quests en 'inhoud' niet perse het spel beter maken, maar is van de aanpassingen in de engine op wat grafische verbeteringen na verdomd weinig terug te vinden.

Het excuus dat alle voorgaande Bethesda games ook bla bla bla gaat gewoon niet meer op.
Tijden zijn veranderd. Games en gamers zijn veranderd. Op een bepaald moment moet je je gewoon realiseren dat je niet meer mee kunt.
Het simpele feit dat zowel de oude als de jonge gamers het spel massaal hebben laten vallen in een paar weken tijd en weer door zijn naar de volgende game is sprekend genoeg.
Starfield, remnant 2. Die schieten er wel uit. Maar dit wordt het nieuwe normaal, optimalisatie wordt niet meer gedaan de komemde paar jaar. Let maar op.
Optimalisatie staat al een hele tijd niet meer in de top 3 van prioriteiten. Alles moet snel op de markt komen zodat er geld verdiend kan worden. Is een product op de markt, dan kan het een en ander nog met patches gefixt worden, maar ook dat is niet altijd zeker. Als er een grote fanbase is, die elke nieuwe versie toch wel koopt (ik noem maar Call of Duty als voorbeeld) dan steken ze vaak meer tijd en moeite in zaken die via microtransacties aangeboden kunnen worden (skins bijv) dan aan fixes en patches
Toch zijn de games zo als Call of Duty en Battlefield meestal wel de games die aardig goed runnen, ook op verouderde systemen... Ik denk eerder aan een bepaalde space game waar wij het wel eens over hebben die net Gen12 renderer heeft toegevoegd en mogelijk Vulkan binnenkort na 10+ jaar. :)
crysis was niet 1080p/ultra 60fps speelbaar toen het uitkwam duurde jaren voor de hardware krachtig genoeg was.
Dit horen we al jaren (decennia zelfs) omdat computers ook al die tijd sneller/beter worden en meer capaciteit hebben. En het zal deels ook wel waar zijn dat ze minder rekening houden maar niet zo overdreven als je stelde dat games zonder scaling niet meer over de 60Hz komen en er niet uit zouden zien...

Ik draai hier trouwens remnant 2 prima zonder scaling en die game ziet er ook niet ruk uit zoals je stelde.

Gelukkig zijn er ook veel langzamere kaarten waar gameontwikkelaars toch rekening mee (moeten) houden, anders verkleinen ze hun eigen afzetmarkt, dat houdt de boel wat in balans dat ze toch een beetje op de resources moeten letten :)

Je kan elk spel zonder scaling draaien, en je bent niet verplicht alles op 4k te spelen en tegelijk alles op ultra icm 250Hz.

[Reactie gewijzigd door watercoolertje op 22 juli 2024 17:06]

Nee hoor, want dit soort upscaling meuk is er nog niet "jaren". dit is een trend van de laatste tijd.

Leuk dat jij het zonder upscaling draait, maar ik neem geen genoegen meer met sub-par framerates in deze tijd.

Ik wens je veel succes verder om Starfield zonder upscaling boven 60 fps te houden . - even opgezocht , een 4090 , red je het net mee. een kaart die 1500 euro kost... well done, devs.

[Reactie gewijzigd door Visgek82 op 22 juli 2024 17:06]

Tja, lang vóór upscaling had je anti-aliasing die vaak zoveel FPS vrat dat ik het echt enorm lang niet heb gebruikt. Maar alle screenshots waren natuurlijk wél met. Dan heb ik eerlijk gezegd een stuk minder problemen met upscaling waar ik het verschil amper zie en er wel veel(in mijn ogen meer dan genoeg) voor terug krijg.
appels met peren vergelijken.

Je vergelijkt een techniek van vroeger die iets mooier maakt ten koste van performance. Daar is voor devs niet achter te verschuilen.

Upscaling en in zeker zin frame injection maakt iets lelijker ten gunste van performance. in het geval van upscaling zie je dat in de details vaak terug, in het geval van verzonnen frames zie je dit terug aan extra input lag. Hier heb je dan weer een ander magisch sausje voor nodig wat die input lag vermindert. Maar het is nog steeds meer input lag dan er geweest zou zijn zonder hocus pocus.

[Reactie gewijzigd door Visgek82 op 22 juli 2024 17:06]

Niet helemaal anders. Vroeger 'moest' je kiezen tussen een lagere resolutie met AA of een hogere zonder. Beide (dus AA én hoge resolutie) gaf het mooiste beeld, maar de laagste framerate. In veel gevallen vond ik dat onspeelbaar, dus ík koos voor de resolutie (zonder AA dus).

Nu kan je kiezen tussen native of upscaled en daar vind ik de afweging vrij makkelijk. Als er DLSS/FSR beschikbaar is gebruik ik het bijna altijd. Met het AA verhaal knaagde het altijd.

[Reactie gewijzigd door MN-Power op 22 juli 2024 17:06]

Idd mensne hebben geen idee nu dat het vroeger gewoon veel erger was en dat je veel meer met settings moest spelen om een speelbaar spel te krijgen.
Nu zagen ze dat ze geen 144fps halen op 4k in de nieuwste games met een budget kaart.
Deze trend is langer gaande dan jij suggereert. Veel van de AAA games op ps4 waren upscaled. Spider-Man, Horizon, Last of Us, Kill zone, God of War (zowel 2018 als de nieuwe) en veel COD games. Niemand die daar toen over struikelde en al deze games zouden veel slechter uit zien als ze geen upscaling gebruikten. Daarbij is upscaling dus een net-win geweest.

Het verschil met nu is dat er veel meer game studios zijn en vele zijn veel minder ervaren en hebben minder budget. Games zoals Remnant, Robocop, Lies of P, kena: bridge of spirits, Stray, callisto protocol. Dat zijn geen AAA games, meer AA of soms zelfs A. Voor al deze studios geldt ook, als ze geen upscaling gebruikten hadden ze een game die er minder mooi uitzag. Het is niet dat ze lui zijn geweest, het is dat het kleinere studios zijn met minder resources. Heel vaak als men zegt dat games er vroeger net zo goed uit zagen dan vergelijkt men het meteen met AAA-developers zoals Naughty Dog of Guarilla Games. Vroeger waren er ook veel minder mooie spellen gemaakt maar die is iedereen gewoon vergeten.
je bent niet verplicht alles op 4k te spelen en tegelijk alles op ultra icm 250Hz.
Waarom geven we dan €1000+ uit aan een GPU?
Dat doet dus ook niet iedereen. Sterker nog, de meesten niet.
Lol de jeugd die de tijden van crysis nooit gekend hebben
Natuurlijk. Waar denk je dat de 82 voor staat? Hint, niet de dag en niet de maand.
Dan zou je moeten weten dat dat 4-5 jaar later dan het uitkwam maar vlot op 1080p/ultra te spelen was.
Denk dat dit nu nog niet op 4k/250fps te spelen is, als je wil doen dat slechte optimalisatie recent is ...
Mooi 1 voorbeeld :)

Prima verder.
Zo zijn er vele hoor , vroeger was het zelfs doodnormaal dat reviews beeldkwaliteit vergeleken nu willen ze zelfde niet meer alle features testen.
Niet op in gaan is gewoonveen troll opmerking.
Dat ligt dan toch echt aan de devs die het zo moeten maken, want je kunt hele mooie games laten draaien met de huidige technologie, laat staan RTX 50 series.
Dat klopt, maar dat doet niets af aan mijn mening.
Upscaling geeft soms betere kwaliteit dus alles "ruk" noemen os onzinnig.

Ik weet dat er een hele hetze is van beeldpuriteinen maar dat werkte gewoon goed.
In heel specifieke gevallen kan dat. In veruit de meeste gevallen is het resultaat teleurstellend.

En ik ben geen purist, ik snap alleen niet dat men genoegen neemt met minder terwijl dat met de huidige tech niet nodig is.

[Reactie gewijzigd door Visgek82 op 22 juli 2024 17:06]

Nee dat komt redelijk vaak voor, gelijk beeld zeker op de hoogste instelling.

EN hoe is een gelijk beeld en meer fps (of hogere graphische settings) "minder" ?
Jij vind dat. Ik niet. Het is voor mij vaak duidelijk te zien, en dus slechter.

Maar goed, ieder zijn ding. Ik ben er wel klaar mee.
Ik kan gerust zeggen dat dat onzin is.
Als je dlss op de hoogste kwaliteit zet is het zo goed als altijd beter of hetzelfde laat staan dat je dat tijdens gameplay zal zien.

Natuurlijk de laatste versie van dlss niet versie 1.0 die je ooit zag
Prima. Dat is dan jouw waarheid, de mijne is toch echt anders. En nu ben ik klaar met deze zinloze discussie.
De mijne en elke reviewer die dit test maar idd zinloos dat is wel al duidelijk.
Je kunt wel met linkjes komen maar ik ben er klaar mee. Ik zie het verschil en dat is voor mij genoeg. Jammer dat jij daar blijkbaar niet tegen kunt of niet kunt accepteren.
Gewoon zodat anderen zelf een oordeel kunnen vellen, ik besef goed dat sommige mensen gewoon blind kunnen zijn door hun eigen vooroordelen. Wat ik zelf heel grappig vind trouwens.
Het feit dat jij niet kan accepteren dat mensen anders denken of een andere mening hebben is grappig , ja.

Maar ik ga nu niet meer reageren , ik heb ook geen youtube filmpje nodig om mij te vertellen wat ik wel of niet zie. blijkbaar heb jij dat wel nodig , en dat is prima.

Bespaar jezelf de moeite om hier nog op te reageren, want een antwoord krijg je niet meer.
"wat baten kaars en bril als de uil niet zien en lezen wil"

Nog een prettige avond ;-)

[Reactie gewijzigd door k995 op 22 juli 2024 17:06]

Dat is natuurlijk objectief onzin. Als de kaart bij benadering frames moet gaan gokken zonder de "source scene" is het logisch gezien onmogelijk.
Een paar youtubers als bron aanvoeren is natuurlijk het grootste zwaktebod van deze discussie.

Leg het mij technisch maar eens uit hoe het precies de goede pixels gaat berekenen, en niet een benadering.

Ik accepteer geen youtube links naar andere nobodies, en geen marketingmateriaal/speciaal gemaakrlt om dlss in een goed daglicht te zetten. Jij stelt dit zeer stellig, dus ik neem aan dat je minstens mijn technische kennis bezit.

Jouw uitspraken doen me denken aan CSI's "enhance" scenes.
dlss is meer dan frame generation.

Dlss is ook super resolution, of het in lagere resolutie renderen en dan upscalen.
Met dat upscale kan je ervoor zorgen dat bepaalde artefacts (uit de game engine) eruit gehaald worden en er dus een mooier beeld ontstaat.

Het is ook enhanced raytracing wat hetzelfde doet voor raytracing of reflex wat latency naar beneden haalt.

Geen reden om zoals de vorige zo gefrustreerd en vijandig hierover te zijn.

Dus neen dat is geen onzin, dat is gewoon aantoonbaar en zelf te zien als je wil.
Ik kan geen kaas maken van wat je hier zegt. Wat heeft upscalen met artifacts te maken en leg eens uit waarom upscalen zelf niet voor artifacts zorgt.
Ik zeg nergens dat upscalen ook geen artifacts kan creeren echter kan het ook een beeld beter maken door de overduidelijke (zoals bepaalde flikkeringen) weg te nemen.

Zie

https://www.youtube.com/watch?v=O5B_dqi_Syc&t=579s

Leggen het goed uit met voorbeelden en dit is 7 maand geleden en dlss 2.5, 3.5 bouwt hierop verder en maakt het enkel nog beter.
Maar als DLSS in ieder geval voor input lag zorgt, en daarnaast ook nog kans op artifacts toeneemt, waarom zou iemand dat dan willen? Ik zie in ieder geval geen verbeteringen in kwaliteit die een shader niet zou kunnen bieden, en dat kost factoren minder aan prestatievermogen.
Je haalt zaken door elkaar.
Dlss is verschillende zaken,

super resolutie doet input latency dalen (door hogere framerate)

Reflex is speciaal gemaakt om louter lagere latency. Als dat dus belangrijk is dan is dlss heel goed voor jou.

Waar jij het over hebt is frame generatie, dat zorgt idd voor extra latency.

En nee "een shader" kan dat niet doen die zorgt voor een ander beeld tegen
Meestal een performance vermindering. Dlss werkt heel anders en beter dan een shader.
Na wat rondgekeken te hebben moet ik zeggen dat DLSS me nog steeds zorgen baart. Blijkbaar zijn de artifacts in v3 nog erg genoeg dat HUD elementen gewoon onleesbaar worden, dat kan toch niet :/

https://www.techspot.com/article/2639-dlss-3-revisit/

Dan liever optimalisatie artifacts, Z-fights en andere onvolkomenheden die met een patch verholpen zijn.

[Reactie gewijzigd door nst6ldr op 22 juli 2024 17:06]

Mooi marketingverhaal, maar ik zie nog steeds niks dan lege woorden. Je spreekt alsof je de technische details weet, maar je loopt gewoon youtube nobodies na te praten.

Persoonlijk heb ik nog nooit gelijk of beter beeld gehad met dlss, en als programmeur zijnde snap ik ook niet hoe dat zou moeten kunnen. Het is niet VEEL slechter, maar zeker niet beter of gelijk.

Het wordt duidelijk dat je geen idee hebt waar je over praat, of dat je naar specsavers moet. Visgek had gewoon gelijk.
En weeral zo agressief, raar dat je je zo opwind voor dit.

https://www.youtube.com/watch?v=O5B_dqi_Syc&t=579s

Je snapt toch dat een game engine niet perfect is? Dat er daar ook issues/artefacts in voorkomen? issues die je met programmatie kan wegwerken?
Dat je dat als "programmeur" niet snapt lijkt me heel straf.
Waarom probeer je me de hele tijd als agressief te framen? Geveinsde superioriteit is geen alternatief voor kennis.

Het is duidelijk dat je de materie niet snapt en niet volwassenen genoeg bent om je ongelijk toe te geven. Ik sluit me aan bij Visgek: ik hou dr mee op, het lijkt op tegen een muur praten.

Tot slot zou ik je graag meegeven dat je je echt niet hoeft te schamen als je het een keer mis hebt, fouten leer je van. Aan de andere kant kom je gewoon dom over op mensen die de kennis wel bezitten, alsof je een wiskundige ervan probeert te overtuigen dat 1+1 TOCH ECHT 3 is.
Omdat je gewoon heel agressief reageert. Ik gaf je perfect aan dat dlss wel degelijk een beter beeld kan geven. Zet die ooglappen eens af en
Kijk die bron die ik gaf . Toont het meer dan genoeg aan.

Want idd er is niks mis met dat je verkeerd bent omdat je de techniek erachter niet snapt en dat je meestapt in de hetze van sommige tegen dlss
Was er een tijd terug niet een gerucht/nieuws dat AMD's volgende generatie geen high-end kaarten gaat bevatten? Als dat zo is heeft Nvidia straks vrij spel.
Afaik bestaat het gros van de markt voor grafische kaarten uit midrange gpu's. Het high-end spul is leuk voor de marketing en de marges, maar is een minderheid van de verkopen.
Zelfs als AMD niets concurrentieel kan brengen in het high-end segment, kunnen ze nog steeds een pak geld verdienen in lagere prijsklasses. Nvidia zal daar (en dus op het grootste deel van de markt) daarom geen "vrij spel" hebben.
Probleem is dat mensen vaak kijken naar welke toko de snelste kaart heeft, en er dan vaak onterecht vanuit gaan dat alle andere kaarten van die toko ook sneller zijn dan de concurrentie

Het Halo product hebben is echt een prachtige marketing tool... daarom doet nVidia er ook altijd alles aan om die kroon te behouden.. de rest is minder belangrijk
Betaalbaar, pfff. Het gaat tegenwoordig ook nergens meer over. Ik wissel nog wel eens van hardware als enthousiasteling en kan vrij rap sparen (realistisch: ik heb geen koters en we zijn twee-verdieners), maar ook ik hoest niet gewoon even 2800 Euro op voor een 4080/4090 of de 9700XTX die cherrypicked silicon hebben.

Laat ze eerst maar eens weer "normaal" doen, maar sinds wij hebben laten zien tijdens corona het er voor over te hebben? Tja.
Voor 2800 euro kan je die alldrei kopen denk ik :-)
Een 4090 is toch al snel 2400 euro hedentendage.
1800 en dat zal volgende week nog dalen
Heb je naar de laatste prijzen gekeken? het is gestegen van 1800 naar 2400.
https://www.alternate.be/...-kaarten/GeForce-RTX-4090

2400, waar ik deze zomer nog 1900 heb betaald.
Ik gaf 2 voorbeelden van 1900 en in die winkel staat die ook aan 1950 en trouwens 1 aan 4000
Welke voorbeelden jij geeft maakt weinig uit hoor :)

Ik heb de GYGABYTE OC GAMING 4090 voor 1899 gekocht op 20/09/2023 en die staat nu aan 2399. Dat is toch een werkelijke, actuele stijging van 500 eurootjes zelfs, excuseer.
Er zijn meer kaarten dan doe hoor die 1800 kosten
Ja het is goed kereltje. Koop jij maar een 4090 voor 1800 die volgende week nog zal dalen. 8)7

Hier kom je nogal wat figuren tegen soms.
Wel heb je denk ik een nucleaire reactor nodig om die kaart zijn stroom te kunnen geven. Ben bewnieuwd hoeveel hij nodig gaat hebben.
Jaja, 24.567 CUDA cores. Ik weet nog dat mijn 6800LE 8 pixel shaders had 4 vertex shaders: https://www.techpowerup.c...0running%20at%20350%20MHz.
AMD wil hun low-end/mid-range kaarten verder specialiseren, Nvidia gaat straks richting de 1700-2000 voor high-end. Why? zijn maar handje vol mensen. AMD gaat de low en midrange markt veroveren door daar in te zetten, daar waar het grootste gros zit. AMD is op zoek naar winst optimalisatie en niet naar concurrentie op high-end markt, geven ze het op? Je zou het zo kunnen zien, maar het zijn zeker weloverwogen strategische keuzes die ze maken.
Ik ben van een gtx1080ti naar een 4070ti gegaan, en 2 generaties overgeslagen, en dan is het absoluut een enorme stap vooruit.

Voor mij was juist van de 1080 naar de 2080 toen een erg kleine stap (ook eigenlijk de gtx1080ti te goed was voor zijn generatie, nog nooit zo lang met een gpu gedaan)
Dat wordt een TDP van 600 Watt en PCI-e Gen4 heeft denk ik niet meer genoeg bandbreedte voor deze kaart.
Voor zowel de CPU als GPU geldt in mijn optiek is dat ze echt iets aan die hitte opbouw van die chips moeten doen. Met mijn AMD 5950 en Nvidia 3090 stijgt de temperatuur in mijn woonkamer met 1 of 2 graden. Voordeel is wel dat ik mijn CV niet aan hoef te doen om de kou uit de ruimte te krijgen.
PCIE-4 niet genoeg bandbreedte? Lijkt me sterk, PCIE-3 is pas sinds de 4090 een bottleneck (en dan kost het nog maar 3%) en pcie4 heeft het dubbele aan bandbreedte...

https://www.techpowerup.c...i-express-scaling/28.html

Zelfs oudere PCIE-versies lijken nog prima mee te komen, al wordt de loss elke generatie wel groter (maar maar 30% loss op 5 versies!
Niet echt on-topic maar PCI-E vind ik nou echt een standaard waarop weinig aan te merken is, zeer veel bandbreedte, backwards en zelfs forwards compatible, werkt praktisch altijd, geen onduidelijkheid zoals bij USB, zeer universeel. Goed bezig die lui :)

[Reactie gewijzigd door Navi op 22 juli 2024 17:06]

Dat wordt een TDP van 600 Watt en PCI-e Gen4 heeft denk ik niet meer genoeg bandbreedte voor deze kaart.
Lijkt me sterk, de beschikbare PCIe-bandbreedte loopt al een lange tijd ver vooruit op de daadwerkelijk benodigde bandbreedte. In alle benchmarks van oude PCI-e-versies de afgelopen jaren is te zien dat zelfs high-end videokaarten eigenlijk nauwelijks tot geen prestatieverlies hebben op een één of twee generaties oude PCIe-versies. Mid-range en low-end kaarten presteren meestal nog goed op twee of drie generaties oude PCIe-versies.

Wat betreft hitte en verbruik heb je meer dan gelijk, met name de topmodellen worden steeds verder opgevoerd om bovenaan de prestatiegrafiekjes te staan. Bij zowel GPU's als CPU's. De simpele oplossing is dan gewoon om niet het topmodel te kopen...

[Reactie gewijzigd door bwerg op 22 juli 2024 17:06]

Werd ook van de RTX4080 gezegt maar in praktijk is die kaart zuiniger dan de 3080.
Nochtans vebruikte de 40xx kaarten minder stroom dan hun voorgangers.
Door de nog steeds toenemende vraag naar chips voor AI heb ik weinig hoop dat de Nvidia 50-serie voor fatsoenlijke prijzen op de markt gezet gaat worden.. Daarom zakt de 40-serie ook helemaal niet in prijs, ze kunnen infeite vragen wat ze willen en nemen de mindere verkoop voor lief.. Waarschijnlijk zelfs bewust, hoeven ze minder te produceren en kunnen ze die capaciteit gebruiken om zich te richten op de AI-markt.. Na de Crypto hype is de opkomst van AI helaas weer iets wat voor hogere GPU prijzen zorgt.. Waar een RTX 4080 rond de 900 euro had moeten kosten betaal je daar nu meer dan 1200 voor en heb je voor die 900 euro slechts een 4070Ti die maar net iets sneller is dan een RTX 3080 die in 2020 nog rond de € 800 kostte..

Ook het feit dat AMD (en Intel) niet in de buurt komt van Nvidia's topmodel helpt ook niet.. Er is voor de RTX 4090 infeite gewoon geen concurrentie.. Ook qua features zoals DLSS, Raytracing en Frame Generation heeft Nvidia nog een voorsprong..

Toch hoop ik nog steeds op een RTX 5080 straks van hooguit rond de 900-1000 euro eind 2024 begin 2025 als opvolger van mijn RTX 3080.. Hopen mag altijd.. En anders moeten we meer neerleggen, het is niet anders..

[Reactie gewijzigd door Inflatable op 22 juli 2024 17:06]

Prijzen kunnen hetzelfde blijven zolang de performance 2x - 3x beter is, maar Nvidia moet het iets beter aan pakken dan met de RTX 40xx kaarten waarbij de RTX 4060 Ti een budget kaart is met een midrange prijs.
Als de performance van een RTX 4060 (Ti) wat beter zou zijn zou ik er een kopen om mijn GTX 1060 !!! te vervangen, nu moet ik 400 euro voor een 8GB kaart met een krappe geheugenbus neerleggen en al heb ik bakken met geld dat doe ik gewoon niet, speel wel op mijn PS5
Wel een ps5 kopen waar de spellen duurder zijn en je moet betalen om online te kunnen spelen.

Maar 400 euro voor een videokaart die 2x zo snel is als je huidige kaart is teveel?

Een vriend van mij had twee jaar geleden een 3060ti gekocht voor 950 euro en dat was inderdaad veel teveel maar 400 euro voor een 4060ti met de inflatie van de laatste jaren is helemaal niet zo gek.

De 1060 6bg was ook ~300 euro bij introductie.
Het gaat er meer om dat ik gewoon niet meer wil uitgeven aan een videokaart, ik kan ook zo een 4090 bestellen maar vind dat gewoon zonde, bovendien is een 4060ti gewoon zo langzaam gemaakt/beperkt dat ik hem maar gewoon oversla.
Welke resolutie speel je dan nu dat een 1060 dat aankan maar een 4060 ti niet?
Terwijl ze als hem voor 300-400 euro verkopen maken ze er nog winst op.
De RTX 30- en RTX 40-series werden in september 2020 en 2022 aangekondigd, maar het is niet bekend of Nvidia een soortgelijk releaseschema aanhoudt voor zijn komende gpu's.
Op z'n vroegst tweede helft 2024 is aannemelijk aangezien Nvidia binnenkort een RTX 40 Super serie wil introduceren.
512-bit zou echt raar zijn.
Nvidia's ontwerp gebruikt al 10+ jaar lang een chip met maximaal 12 geheugenkanalen.
Ieder kanaal is 32-bit, dus max 384-bit.

Ik ben benieuwd wat ze kwa geheugen hoeveelheid gaan doen.
De huidige 4060 met 8GB, daarvan blijkt dat 8GB echt weinig is, zeker als je ook fancy dingen wilt, zoals RT.
Niet voor niets hebben ze een 4060 met 16GB uitgebracht.
Dan krijg je wel het rare scenario dat een 4070 slechts 12GB heeft. (minder dan de goedkopere 4060 met 16GB)

Gaan ze dan geheugen verdubbelen?
5060 met 16GB, 5070 met 24GB, 5080 met 32GB en 5090 met 48GB?

Schijnt dat GDDR7 niet alleen in 16Gbit chips komt, maar ook met 24Gbit.
Dan kan je ook ineens deze opties krijgen:
5060 met 12GB, 5070 met 18GB, 5080 met 24GB en 5090 met 36GB?
Soort van 1,5x de huidige geheugen hoeveelheden....

[Reactie gewijzigd door GarBaGe op 22 juli 2024 17:06]

En de prijs zullen we dan ook al afronden zeker en ipv 1,5 ronden we naar boven af x2 :)

We zullen wel zien, ze brengen nog een 40xx super uit. Dus denk dat het eerder voor 2025 zal zijn, of alleen nog de 5090 ofzo einde 2024.
Eigenlijk zouden ze dit ook met apparatuur moeten doen. Om de 2 jaar een nieuwere, betere versie aankondigen en op de markt brengen. Zou ook heel wat e-waste schelen.
De fabrikanten doen dit alleen maar omdat de consumenten het willen, en kopen. Als je e-waste tegen wil gaan moet je de consumenten overtuigen minder snel nieuw spul te kopen, dan volgen de fabrikanten vanzelf.
Ik ken maar weinig mensen die elke 2 jaar upgraden.

De meeste mensen die voor 3000 zijn gegaan zijn grotendeels mensen die nog gebruik maakte van 900 en 1000 kaarten, 4000 een mix van 900, 1000 en 2000 kaarten. Deze zal dus wss voor mensen zijn die nog 1000 en 2000 kaarten gebruiken.
Niet helemaal ik ben van 1080 naar 4080 gegaan, de 3 serie bewust overgeslagen gezien die kaarten best luid waren, en de 1080 heeft een nieuwe eigenaar gekregen die er blij mee is.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 17:06]

Ja, dat klopt. Bijna 10 jaar lang maakte ik gebruik van mijn GTX 980, maar vorig jaar ben ik overgestapt naar een compleet nieuwe, op maat gemaakte pc met een gloednieuwe RTX 3080.
Je vergeet nog [/einde sarcasme] :-)

Verder heb je wel helemaal gelijk, je zou maar 10 jaar met je smartphone doen... dat is helemaal niet goed voor de aandeelhouders... euh bedoel milieu

[Reactie gewijzigd door Sicos op 22 juli 2024 17:06]

Bij smartphone,s zijn er geen noemswaardige wijzigingen meer terwijl videokaarten nog steeds verbetering laten zien, de laatste noemswaardige verbeteringen bij smartphone,s was OLED scherm.

Ik zelf doe wel 5 jaar met een videokaart voordat ik iets nieuws neem, vermoedelijk pas weer als er nieuwe console,s komen.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 17:06]

Heb zelf met een Galaxy S7 gedaan tot April dit jaar... Zelfde met mijn GPU, dit was een GTX 1070 van 2016 die ik gebruikt heb tot Mei dit jaar en ingerolen heb voor een RTX 4090. Ook hier hoop ik weer 7+ jaar mee te doen!
"Ingerolen". Mijn pa heeft de 1070 gehad, ik heb een 4090 gekocht.
ja helemaal correct hoor.
Ik heb niet echt het gevoel dat de transitieperiode van de 3xx naar 4xx al uberhaubt goed op gang is, buiten de prijzen en schaarste natuurlijk, buiten natuurlijk Nvidia's methode met de lancering van de 4xxx kaarten.

Ergens best scheef in het hele plaatje van milieu, e-waste en consorten, om maar in zo'n tempo door te blijven pompen met het idee dat mensen wel weer upgraden.. Natuurlijk doet niet iedereen elke 2 jaar een upgrade, maar gezien de zeer beperkte beschikbaarheid van de 40xx had ik toch het idee dat er wel genoeg waren die zo'n ding wilde hebben (en dan laat ik de markt 'sponsored' maar even buiten beeld).
Er is helemaal geen schaarste.. Het probleem met de 40-serie is dat ze te duur zijn, sommige modellen veel te duur zelfs, waardoor ze amper tot geen verbetering bieden in prijs/prestatie-verhouding t.o.v. de vorige generatie.. Nvidia lijkt met de mindere verkopen echter niet te zitten, want door de hogere prijzen maken ze alsnog genoeg winst en ze richten zich op dit moment sowieso toch meer op AI gerelateerde chipproductie..
nVidia verdient hun geld nu voornamelijk met AI, die accelerators zijn feitelijk gewoon GPU's en ze zijn niet aan te slepen, ik denk dat daar een nog veel grotere slag uit wordt geslagen dan uit de crypto gekte van twee jaar terug.
Dat zei ik al.. Het lijkt erop dat Nvidia het wel best vindt dat de gaming GPU's minder verkopen.. Wat ze alsnog verkopen levert meer op door de hogere prijzen en ze houden zo meer productiecapaciteit over voor de AI-markt.. De gaming GPU markt wordt een niche markt zolang ook AMD niet echt heel concurrerend is, vooral in het highend waar ze niks hebben wat in de buurt komt van een RTX 4090.. Nvidia kan daardoor tot op zekere hoogte vragen wat ze willen.. €1800+ voor een RTX 4090, €1200+ voor een RTX 4080, het slaat eigenlijk nergens op, maar ze komen ermee weg.. En dat lijkt dus helaas voorlopig nog wel zo te blijven..
Wat mij verbaasd is dat het nog verkoopt ook. Dat zijn prijzen waar je vóór de gekte een complete high- tot ultra high-end pc voor in elkaar zette.
Tijdens de corona/crypto crisis betaalde mensen nog veel absurdere prijzen.

Denk dat 2080 ti voor 2500-3000 euro verkocht werden.
De crypto crisis is geen reguliere marktsituatie, mind you.

Al hebben ze er duidelijk wel wat van geleerd...
Ik kon tijdens covid zelfs mijn 2080TI opsturen, 1000 euro ontvangen en de belofte om een 3080 te krijgen wanneer hij beschikbaar zou zijn.

Toch maar mooi gelaten, zonder gpu zitten tijdens covid leek me de absolute hel.
Dit krijg je bij gebrek aan goede concurrentie. AMD doet het aardig, maar is niet in staat om het high end segment op scherp te zetten. Intel heeft nog een lange weg te gaan. Het is maar de vraag in hoeverre Intel mee wil/kan gaan. Nvidia is een ijzersterk merk.
Ik denk dat de e-waste echt wel mee valt. Mijn oude GTX970 is overgenomen door een Tweaker die hem weer ging gebruiken voor een PC voor zijn kind.

Wij hadden vroeger een 486 met 40 MB geheugen omdat ik dat overal mee kreeg als ik weer eens een PC had gefixed. Hij was begonnen met 4 MB.
Toen had je alleen veel vaker een nieuwe computer nodig. Echt wel na 3 jaar en het liefst al na 2 jaar.

Mijn huidige desktop is uit 2015 en ik heb alleen de GPU vervangen en er extra SSDs erbij gezet.
Zie het nut eigenlijks niet, krijgen ze straks dezelfde problemen met de high-end 30 series waar de Vram absurd heet werd.

Kunnen ze weer helemaal opnieuw koeling ontwerpen.
De hete VRAM in the 30 serie was voornamelijk op de 3090. Destijds waren er geen 2GB VRAM chips, en er passen geen 24 chips op 1 kant van de PCB. Daarom zat de helft van de chips op de achterkant van de PCB, en daar is de koeling veel minder goed. Vanaf de 3090ti is dat opgelost omdat toen wel 2GB chips beschikbaar waren en dus allemaal goed gekoeld kunnen worden door de normale GPU koeler.

Waarom denk je dat dit in de 50 series weer een probleem gaat worden?
3080 (ti) word ook bloedend heet, snap dat het met de 40 serie op gelost is. Hoewel die nog geregeld in het tech nieuws komen met gesmolten kabels(4090).

Blijft een gok, dus afwachten.

Maar krijg wel wat de indruk dat Nvidia wat te agressief is met elke keer nieuwe technologie introduceren, en mogelijk nieuwe standaarden aan toe te voegen. Niet dat kwa idee een slecht iets is. Maar wel wat meer R&D kan gebruiken voor betrouwbaardheid e.d.
3080 (ti) word ook bloedend heet, snap dat het met de 40 serie op gelost is. Hoewel die nog geregeld in het tech nieuws komen met gesmolten kabels(4090).
Dit heeft niets met de koeling van de kaart te maken. Maar een probleem met de contactweerstand van de stekker. En dat die i.c.m. de bijgeleverde converter enorm uitsteekt waardoor hij door het zijpaneel van de kast scheef gedrukt wordt.
En is VRAM temperatuur bij de 3080 en 3080ti een inherent probleem van de VRAM configuratie op kaarten? En zo ja welk probleem precies, en waarom denk je dat dit bij de 50 series ook een probleem gaat zijn

Of is het een probleem met koeler ontwerp op sommige kaarten? En zo ja waarom denk je dat dit bij de 50 series ook een probleem gaat zijn.

Of een ander probleem? Maar welk probleem dan?

[Reactie gewijzigd door cnieuweboer op 22 juli 2024 17:06]

4090 heeft geen probleem met gesmolten kabels meer toch?

Onder full load (Cyberpunk met Ashtonishing detail en RTX Overdrive op 4k) wordt ie amper 60 graden dus dat hebben ze wel goed geregeld.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 17:06]

Vraag me af of het jammer is gezien naar mijn idee een grotere bus ook kon helpen met de bandbreedte voor hogere resoluties...
Verder ben ik geneigd te wachten totdat er 32GB VRAM videokaarten uitkomen, 24GB voelt niet echt als een grote upgrade t.a.v. de 6 jaar oude 1080Ti met toen al 11GB.

En dan nog iets, waar blijft DisplayPort 2.0?
Zonder DP 2.0 schaf ik denk ik geen GPU aan, gewoon iets meer toekomstgericht zodat je ook 4K op hoge refreshrates kan doen zonder compressie.
Tis leuk maar je hebt er weinig aan (voor games dan), ik draai de nieuwste games nog prima op een 2080 Super met 8GB VRAM. (hoge settings, 1440p)

[Reactie gewijzigd door Navi op 22 juli 2024 17:06]

Er zijn al genoeg titels die de 8GB VRAM voorbij gaan, het nadeel dat je dan krijgt is dat het VRAM met het RAM gaat swappen en dus stutters en/of texture pop-ins gaat krijgen.

8GB VRAM was 5 jaar geleden leuk voor nieuwe videokaarten maar begint nu wel gedateerd te raken, zelf speel ik ook op 1440P maar ik heb toch wel meermaals de 9GB overschreden, waarbij Hogwarts Legacy misschien wel de kroon spant met ~10GB verbruik op Ultra zonder ray-tracing, en dan hebben we het nog niet eens over hogere resoluties.

Voorbeeld van Hogwarts Legacy:
https://i.imgur.com/thZBMrr.png

En dan zijn er nu al spellen zoals Forza Motorsport die zelfs al 16GB VRAM aanbevelen:
https://support.forzamoto...Forza-Motorsport-PC-Specs

M.a.w. 24GB wordt al snel krap als je de videokaart minstens 6 jaar gebruikt, zeker met de hoge bedragen waarvoor ze tegenwoordig gaan, en ik ze niet doorverkoop wegens hergebruik in oudere machines.

Niet vergeten dat de nieuwe generatie consoles dit versneld zullen gaan opdrijven omdat die meer geheugen bevatten dan de eerdere generaties, vergeet niet dat de PS5 nieuwer is dan onze videokaarten, ontwikkelaars zijn lui en we zien steeds meer spellen met hoge kwaliteit textures mede waardoor de spellen onderhand richting de 200GB gaan zoals Call of Duty.

Dus tja, de 1080Ti voldoet nu nog voor wat ik erop speel, maar als ik 2K+ neer moet tellen voor een nieuwe moet het dat ook echt waard zijn en geruime tijd meekunnen, de 1080Ti was in zijn tijd een parel van een GPU en dat heeft zich dik terug betaald.

En ik zie liever framerates van 100+ gezien een 165Hz scherm.
Pas op windows task manager geeft niet effectief gebruikte geheugen. Je kan dat dus niet gebruiken om te zien of je boven die 8gb zit.

En de ps5 heeft 16gb ram waarvan 13.5 voor games beschikbaar is , voor zowel cpu als gpu dus

Xbox 10+2 gb sneller/trager waarvan 10 beschikbaar voor games.

DUs veel boven de 8 gaan die echt niet gaan. Tel daarbij dat die een bandbreedte hebben dat gelijkaardig is aan wat een 4070 heeft en dat die consoles nog 4-5 jaar gaan meegaan dan is 8gb nu echt niet compleet obsolete zoals sommige willen beweren.
Ik heb het over VRAM en dus videogeheugen op de videokaart, wat GPU-Z toont, maar Hogwarts is inderdaad ook een beste RAM gebruiker. Inmiddels zit er 128GB RAM in het systeem en die wordt regelt volledig gevuld aan cache, want vrijwel alle bestanden die de spellen inladen komen erin terecht dus feitelijk wordt het dan grotendeels een RAM-disk wat altijd sneller is dan opslag, maar heb je een snelle NVMe SSD zul je dat praktisch waarschijnlijk niet veel merken als je niet genoeg geheugen daarvoor hebt.

Mijn punt dat ik wil maken is dat de nieuwe generatie consoles een drijfveer zijn om hogere grafische kwaliteit aan hun spellen toe te voegen doordat er meer beschikbaar is, en dus de basis van het spel op een hogere lat komt te liggen dan ten tijde van de generatie dat onze videokaarten uitkwamen in de tijd van de PS4.

Laten we GTA V als voorbeeld nemen, in 2013 uitgekomen, ten tijde van de Xbox 360 en de PS3, die systemen hadden erg weinig aan resources maar desondanks 2 jaar later op de PC waren de requirements een heel stuk hoger en wordt er behoorlijk veel aan RAM/VRAM verbruikt op hogere instellingen:
https://www.youtube.com/watch?v=kg2NwRgBqFo

Als ik in GTA V een 8K resolutie instel en dan nog 2.5x framescaling eroverheen, als de GPU het qua kracht al zou aankunnen, was de indicatie zo'n 32GB VRAM dat benodigd zou zijn. :+

Nog zo'n voorbeeld is Red Dead Redemption 2, kan behoorlijk veel vergen op de PC qua resources, maar kwam van origine uit op de PS4, welke 8GB GDDR5 heeft waar de PS5 eigenlijk dus is verdubbeld:
https://www.youtube.com/watch?v=9S6UcxIsAEM

De huidige generatie consoles zegt niet veel over de requirements die je op de PC voor de kiezen zal krijgen, die lat komt gewoon hoger te liggen dan de consoles wil je alle pracht en praal aan grafische kracht zien, zeker gezien omdat developers vaak lui zijn om optimalisaties door te voeren maar ook zeker omdat hoge kwaliteit textures gewoon veel ruimte in beslag nemen.

Ik denk overigens dat de geheugen indicatie in Taakbeheer prima is, Broncontrole geeft voor de hoeveelheid die op dat tabblad wordt weergegeven het getal aan hoeveelheid geheugen dat door het proces gebruikt wordt dat niet door een ander proces gebruikt kan worden en dus exclusief in bezit is van dat proces.
Je eigen bronnen tonen aan dat je fout zit.
Ten eerste is dat vram allocated daar niet used.
En GTA V in 4k Ultra zit op 5.5 gb allocated, of 8gb is ruim voldoende. Neen we gaan echt niet 8k gaming beginnen zien voor midrange kaarten, beetje absurd.

Zowel gta v & rdr2 op ps4 was in 1080p, en verbruikte zo'n 4gb bij release, dat doet het nu nog steeds op 1080p hoor, of je moet al texture packs ed gaan instaleren.

PS5/xboxs is max 4k en low end/mid range kaarten gaan echt niet dat aankunnen in nieuwe games.

https://www.techpowerup.c...rtx-4060-ti-16-gb/23.html

Kan je zien dat de 4060 ti 8gb en 16gb in 4k amper verschil uimaakt omdat dit weinig effect heeft, effectief zit die meestal onder 8gb
Hier op 4K Ultra zit GTA V eerder boven de 6.4GB, en dan heb ik niet veel bijzonders open staan, nou ja, het is 1440P met 1.5x framescaling gezien 1440P monitor maar effectief zo goed als 4K.

Zo'n 1.7GB VRAM zonder en na het laden van GTA Online:
https://i.imgur.com/tkdJsfO.png
https://i.imgur.com/EquhfSG.jpg

Ik ga dan ook niet vanuit de situatie dat zoals reviewers die enkel een kaal OS draaien en dan het spel dit als representatief te zien voor de praktische realiteit waar men meerdere zaken open heeft staan, een aantal browser tabs doet al een redelijke aanslag op je VRAM en dat is met Windows 10 een stuk meer geworden dan Windows 7 zonder DWM vroeger.

Laten we wel wezen, ten tijde dat GTA V uitkwam op consoles was de tijd dat de 780Ti uitkwam met 3GB VRAM, ofwel de Titan met 6GB, en die 3GB bleek achteraf toch geen lang leven beschoren, voor GTA V eigenlijk ook te weinig, terwijl hij wel de kracht had prima te draaien op 1440P.

Toen kwam de Fury X uit in 2015, en daar was ook constant geclaimd dat de 4GB door zijn snelle geheugen prima was en dus geen 8GB VRAM nodig was om titels op 4K te draaien. Dan mag jij raden hoe snel de Fury X daarna uit het beeld is verdwenen, alsof hij nooit bestaan heeft.

Ik heb de discussie rondom VRAM al vaak zat gevoerd maar elke keer blijkt gewoon dat de kaarten met meer VRAM gewoon langer fatsoenlijk blijven draaien. Tegen het limiet aanzitten is wegens micro-stuttering e.d. gewoon niet fijn, het is ook niet meer van deze tijd dat enkel het spel gedraaid wordt en geen enkele andere software in de achtergrond.

En vooral als je een beetje met mods wilt spelen zoals texture packs dan ben je snel door je budget heen, neen geef mij maar gewoon een pak meer.

Dan was GTA V en RDR2 misschien ook niet het beste voorbeeld gezien Rockstar wel enigszins weet wat ze doen tegenwoordig, het is ook meer om een punt te maken dat het spel meer zal verbruiken op de PC dan de consoles waar ze oorspronkelijk op uitkwamen, bij de PC komen er vaak dus ook extra instellingen bij.

Hogwarts Legacy draait ook nog maar op Unreal Engine 4, terwijl UE5 straks de scepter gaat zwaaien.
Ondanks dit is na een paar minuten rondvliegen op 1440P al meer van 10GB VRAM in gebruik totaal terwijl ik op 1.6GB idle zat:
https://i.imgur.com/VDlyjbh.png

Gelukkig heb ik G-sync dus de framerate is met een controller wel prima zo, in sommige omgevingen nog boven de 100fps. Had ik echter een 8GB GPU gekocht in 2017, dan had ik nu in de problemen gezeten met het swappen van geheugen, even terzijde dat de reguliere 1080 mogelijk wat kracht te kort komt.

Dat praktische verbruik baseer ik m'n lange termijn keuzes op.
GPU-Z raportreert vram allocated, hoe meer vram je hebt hoe meer die zal opladen 'omdat die het ooit nodig kan hebben' dit impacteerd de eigenlijke performance amper (zeker omdat bandbreedte ookgeregeld omhoog gaat)

Wat je vergeet is dat de resolutie ondertussen gestegen is. Die stijging is nu redelijk gestopt. 4k schermen zorgen voor kleine genoege pixels dat grotendeels 8k overbodig is en dus zie je dat ook in de verkopen van 8k schermen. Die zijn er al jaren maar amper intresse en game monitoren zijn er niet.

Een kaart met 8gb vram kan de meeste huidige games aan, en er is amper/geen verschil tegen kaarten met 16gb . En als het dan toch verschil geeft maakt het meestal niet uit omdat 8gb kaarten budget/mid range zijn die nieuwe 4k games met slechte optimalisatie/port amper/niet kunnen draaien. Zie de last of us hierboven, 22 vs 27 fps, beide onspeelbaar dus, die extra vram maakt niks uit.

https://www.techpowerup.c...ce-rtx-2060-12-gb/30.html

2060 die een 6gb en 12gb versie heeft, weeral zelfs jaren later amper verschil tussen de 6gb en 12gb versie zelfs in 4k , enkele %'en die komen omdat de 12gb versie meer cores/sm's heeft.

VInd geen review meer recenter die de beide vergelijkt maar anno 2023 lijkt die budget kaart van bijna 5 jaar geleden nog mee te kunnen en word die 6gb pas nu een issue.


https://www.youtube.com/watch?v=mCi42hjc6lE

Laat zien hoe je echt usage meet, en dikwijls is dit 1 a 2 gb onder wat de standaard tools reaporteren.

Een 8gb kaart uit 2017? de 1070 bijvoorbeeld

https://www.youtube.com/watch?v=hjnXyn0_mCk

Die is dus nog perfect bruikbaar . Nogmaals op 1080p is 8gb echt genoeg, pas als je hoger gaat dan kom je in de problemen maar dan kunnen die oude kaarten toch de fps niet meer aan dus dat maakt weinig uit.
Ik zou eerder willen dat USB-C terug kwam, jammer dat Nvidia dat de nek omgedraait heeft, ik ben nu gedwongen om mijn scherm via de moederbord aansluitingen te laten lopen waardoor ik G-Sync niet meer heb.

(ITX systeem wat regelmatig verhuist wordt).

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 17:06]

Beetje OT maar wanneer beginnen de verkoop partijen met BF of is dat met videokaarten niet zo aanwezig?
Meeste Black Friday campagnes starten morgen. Dus vrijdag 17 november, een week voor de "echte" black friday.

edit: Of daar veel video kaarten tussen zitten geen idee, we gaan het zien.

[Reactie gewijzigd door T_elic op 22 juli 2024 17:06]

volg de prijzen van de 4080 en 4090 al een maand of 2
De 4090 kaarten zijn de laatste 2 weken bijna €400 duurder geworden.
Kunnen ze lekker stunten met BF :+
4080 is (nog) stabiel

[Reactie gewijzigd door jumjum op 22 juli 2024 17:06]

Had dit niet te maken met export-restricties naar China? Dacht laatst iets op Yt(?) gezien te hebben dat er een gigantische hoeveelheid kaarten heengaat i.v.m. dat de 4090's na de restrictie niet meer geleverd mogen worden (veelal AI toepassingen).

Aangezien ze daar bereid zijn om meer te betalen zul je dat terugzien in de prijs. Als dat [prijsstijging door export-restrictie] het geval is, zullen de prijzen na de restrictie en 40X0 Super launch (afhankelijk van timeframe) waarschijnlijk weer snel dalen.
Ja, helaas zijn er best wat partijen die dit doen. Maar volgens mij ging de ACM boetes uitdelen bij foute kortingacties dus hopelijk valt het dit jaar mee.

Dat gezegd hebbende, controleer voor je een artikel koopt geowon even de prijsgeschiedenis van het product op tweakers en je hebt redelijk inzichtelijk of het echt een actie is of een nep actie.
Ja ik verschoot er nogal van, had me deze zomer een 4090 (1899 euro voor de kaart) systeem gebouwd omdat ik nog wel eens schaarste kon voorzien naar volgend jaar toe, maar dit had ik niet verwacht.

Best lekker vind ik.
In Nederland kennen wij geen black friday, het is een slecht aftreksel wat overgewaaid is uit Amerika, spul wat nu straks weer in de aanbieding komen zijn wel vaker langsgekomen dit jaar, heel soms zit er een goede deal tussen maar vaak betreft het oude voorraad waar ze vanaf moeten.

Op dit item kan niet meer gereageerd worden.