Inno3D hint op Nvidia GeForce RTX 50-gpu's met betere DLSS en 'neural rendering'

Nvidia's komende GeForce RTX 50-desktopvideokaarten krijgen mogelijk een verbeterde DLSS-versie. Dat meldde Inno3D, een Nvidia-boardpartner. De fabrikant sprak ook over 'neural rendering', hoewel niet duidelijk wordt wat dat precies inhoudt.

Inno3D noemde de onaangekondigde features op een webpagina over de aanstaande CES-beurs in januari, zo merkte HardwareLuxx op. Het bedrijf is een zogeheten boardpartner van Nvidia, wat betekent dat Inno3D videokaarten maakt op basis van de gpu's van Nvidia. Boardpartners hebben daarom vaak vroegtijdig informatie over de nieuwe generatie videokaarten. De verwijzingen zijn inmiddels van Inno3D's website gehaald, maar VideoCardz publiceerde voor die tijd screenshots.

Het bedrijf sprak onder meer over 'geavanceerde DLSS'. Het lijkt een nieuwe versie van de upscalingtechniek te betreffen die volgens Inno3D 'nog betere beeldkwaliteit en hogere framerates' moet bieden. Mogelijk kondigt Nvidia in januari dan ook DLSS 4 aan, hoewel Inno3D dat versienummer niet concreet noemde.

Het bedrijf vermeldde ook dat het details gaat delen over videokaarten met 'neural rendering-mogelijkheden'. De fabrikant daarbij dat die functie moet 'revolutioneren hoe graphics verwerkt en weergegeven worden', zonder daar verder over uit te wijden. Verder noemde de videokaartmaker 'verbeterde raytracingcores', betere AI-upscaling voor videocontent en optimalisaties voor het lokaal draaien van generatieve AI.

De GeForce RTX 50-serie is nog niet officieel geïntroduceerd door Nvidia, maar een aankondiging wordt al langer verwacht tijdens de CES. De gpu-maker houdt op 7 januari een keynote tijdens die elektronicabeurs. Volgens geruchten werkt Nvidia aan verschillende videokaarten, waaronder de RTX 5090, 5080, 5070 Ti en 5070. De gpu-maker zou die videokaarten allemaal willen introduceren in het eerste kwartaal van 2025. Onlangs gingen ook geruchten rond over een RTX 5060 en 5060 Ti.

Inno3D RTX 50-aankondiging CES 2025
Inno3D over Nvidia's aankondigingen tijdens de CES. Bron: Inno3D, via VideoCardz

Door Daan van Monsjou

Nieuwsredacteur

18-12-2024 • 07:48

108

Lees meer

Reacties (108)

108
108
27
2
0
72
Wijzig sortering
Mooi dat er een opvolger komt, maar er is nog maar 1 game die de 4090 echt op z’n staart trapt en dat is Indiana Jones. Met DLSS zit je dan ook op een comfortabele 100+ fps met alle toeters en bellen aan op 4K.

Misschien dat de hardcore VR gebruikers echt op een 5090 zitten te wachten, maar verder kan ik het me niet voorstellen.
Voor het lokaal draaien van LLM's, andere AI, foto/video upscalen is 32GB VRAM ook heel handig.

Persoonlijk zou ik niet raar staan te kijken als de 5090 gewoon weer 24GB VRAM heeft net als de 4090. Ze willen hun zakelijke/professionele GPU's niet teveel in de weg zitten natuurlijk. (voorheen Quadro genoemd en die gaan nu al tot 48GB VRAM)
Persoonlijk zou ik niet raar staan te kijken als de 5090 gewoon weer 24GB VRAM heeft net als de 4090.
De geruchten hebben het steevast over 32GB gekoppeld aan een 512-bit geheugenbus. Als de 5090 weer 'slechts' 24GB zou krijgen, zou dat betekenen dat de geheugenbus ook weer zou blijven steken op 384-bit en dan is het vrijwel onmogelijk om veel sneller (lees 60-70%) te zijn dan de 4090.
Maar hoeveel mensen draaien lokaal llm's ? momenteel dus en doen foto/video upscalen ? Dat is echt een minimaal percentage. Hier op tweakers ligt dat misschien wel wat hoger.

Deze kaarten zijn in eerste instantie bedoeld voor grafisch "geweld". De rest is voor NVidia bijkomstig. Dat mensen dit kopen voor andere dingen mee te doen is mooi meegenomen, maar daar hebben ze liever dat mensen de kaarten voor dat gebruik kopen. Maar als je dat perse wilt doen daar heeft NVidia ook een range voor. Enja dat kost meer geld, maar als dat zakelijk is dan kan de kost er wel van af (bij de meeste bedrijven toch). Als "hobbyist" tsja dan zal je moeten kiezen wat je wilt, en elke hobby kost geld.
De GTX 5090 krijgt gewoon 512-bits met 32GB VRAM, dat is nu vrijwel bevestigd.
https://videocardz.com/ne...070-series-listed-as-well
De 5090 zal 32gb ddr7 krijgen en de 5080 16gb. Ze maken dus een groot onderscheid tussen 5080 en 5090.

Vrees dat de 5090 bij ons vanaf 2500€ in de schappen zal liggen en zou zeker niet verbaasd zijn dat het in het begin en voor langere tijd ook 3000€ zal kosten.
Cyberpunk ook hoor
4K ultra: 70FPS
4K Ultra Raytracing : 45 FPS
4K Ultra Path tracing : 25 FPS

Je moet dna wel DLSS & FG gebruiken om het speelbaar te krijgen.
Ik speel Cyberpunk dan weer op 1440p ultrawide op een 3060ti met 8GB VRAM op 60FPS, we zijn toch tweakers? Je hoeft niet alles op superduperultra te zetten, sterker nog je ziet het verschil tijdens het spelen zelfs niet.
Oh dat zie je wel.
Heb er nog een boel mods boven en een reshade en dan getweaked om boven de 50 FPS te zittne
en cyberpunk is dan echt prachtig , makkelijk de best uitziende game die ik al gezien heb.
We zijn allemaal verschillend.
En dat "Je hoeft niet alles op superduperultra te zetten" of soortgelijke opmerkingen zoals die hier iedere keer geplaatst worden als het over GPU's gaat zijn net zo irrelevant als de opmerkingen van sommigen die menen dat 'tweakers' allemaal het beste, nieuwste, duurste zouden moeten willen hebben.
Je 'hoeft' een hele hoop niet. Maar we hebben bepaalde wensen en een budget dat we daaraan kunnen of willen besteden.

En die afweging gaat niet over 1 of 2 games. Een hoop studio's hebben de afgelopen 3 jaar hun eigen engines aangepast om met path tracing, DLSS en frame generation om te kunnen gaan of zijn naar Unreal overgegaan en er worden meer en grotere textures in games gestopt t.b.v. de hogere resoluties.
Er zullen het aankomede jaar al behoorlijk wat games uitkomen die daar ook gebruik van maken en zelfs wel eens veel minder geschikt zouden kunnen zijn om nog op een ouder of 'slechter' systeem te draaien omdat de verschillen te groot worden.
Het is voor studio's niet te doen een game nog geschikt te houden voor die mensen die het prima vinden op 1080p met alle moderne toeters en bellen uit te spelen terwijl dat ook nog eens niet in buurt komt van het niveau hoe de ontwikkelaars het spel gespeeld willen zien.
En er zullen best mensen niet blij mee zijn maar er zullen zeker meer games komen die gewoon niet speelbaar zijn zonder DLSS 3.0 of hoger.

Als ik in bepaalde games de voor mij best mogelijke grafische instellingen wil hebben, waarvan sommigen wel degelijk een groot verschil maken, en een 5070Ti of 5080 dat straks voor een realistische prijs beduidend beter kan dan mijn huidige 3080, dan komt er een upgrade.
Niet omdat het 'moet' maar omdat ik het wil en kan.
Het hoeft niet nee, je kunt het ook op minimum specs spelen met een nog lower end gpu. maar het kan wel op alle toeters en bellen gezet worden. Dan heb je daar wel een goede videokaart nodig. De grote verschillen die je vroeger nog kon zien ga je idd niet zo snel meer zien, maar verschil in wel of geen raytracing kan je zien al is het subtiel, maar vraagt wel een flinke boost in power van je gpu.

Stalker 2 met alles aan trekt ook aardig hard aan je pc om goed te draaien met alles aan, al zit dit nog deels in stukje optimalisatie en implementatie. Beetje vergelijkbaar met metro hoe zwaar dit was tov de hardware en optimalisatie.
Zo komen er ongetwijfeld binnen niet al te lange tijd nog meer games die ook steeds meer en beter gebruik zullen maken van de nieuwe hardware. Die krijgen game devvers vaak al veel eerder om te gebruiken voor ontwikkeling van nieuwe games dan ze uiteraard voor ons in de schappen en webshops liggen.
Ik heb raytracing wel degelijk opstaan...
Ja, ik heb dus niet zo'n probleem met DLSS. Zie nu wel inderdaad dat FG wat ruis geeft in beeld, maar dat stoort mij niet zo.

Alles op ultra met pathtracing en DLSS is Indiana Jones visueel voor mij magisch.
Zelfde hier, DLSS quality en FG merk je amper/niet en je haalt tegen de 100% fps meer.
Heb je Indiana Jones wel gespeeld na de Path Tracing patch? Kan me niet voorstellen dat je 100++ FPS krijgt met DLSS Quality zonder FG met alle raytracing opties ingeschakeld op 4K. Of staat je DLSS misschien op "Auto"?
High-end gpus worden ook vaak voor niet game-gerelateerde applicaties gebruikt, waar ze extreem veel sneller resultaten kunnen genereren/renderen. Naar mijn mening ook (bijna) de enige manier om de prijs te kunnen verantwoorden omdat zo'n gpu je dan veel tijd kan besparen en tijd = geld.
En dan nog krijg je artifacting met raytracing. 4K haalt ie maar 30fps, en dan heb je nog een onrustig beeld. De hardware is er nog niet om de techniek te ondersteunen. En zolang ze blijven sandbaggen met verbeteringen gaat dat niet echt snel veranderen.

4K 30fps, 49fps als je upscaling aanzet. Maar juist upscaling ondermijnt weer de rendering resolution, waardoor de raytracing minder resolutie heeft om mee te werken en fuzzier wordt.

Zou me niets verbazen dat de hoeveelheid rays per scene zeker 2-3x omhoog moet om niet zoveel denoising nodig te hebben. En dan moet de fps minstens naar 60. Dus dan heb je het over een 4-6x raytracing performance uplift....

Met deze iteraties duurt dat nog wel even.

[Reactie gewijzigd door Majestici op 18 december 2024 10:39]

Path tracing lost dat grotendeels op en DLSS 3.5 heeft "ray reconstruction" dat raytracing drastisch beter en sneller maakt.

En nee hoor DLSS quality op 4K merk je niet.
Rasterized niet nee, raytracing wel.
niet met ray reconstruction, ziet het er zelfs beter uit
YouTube: Ray Tracing Has a Noise Problem

Nee zelfs dan. We hebben allemaal ogen, de techniek is er nog niet. En zeker als het geforceerd is zoals bij outlaws en indiana jones. Waarbij het zelfs op 4K native nog korrelig is. Dan is het vrij irritant.

Naar mijn mening moet het echt beter dan rasterized zijn, en de hardware moet het ondersteunen.
De software staat ook niet stil. Er worden jaarlijks veel scripties geschreven om ReSTIR sneller te maken. Niet alles daarvan is inzetbaar in productie, maar door combinatie van snellere hardware en snellere software komen we er uiteindelijk wel.

Nu hopen dat Sony niet te vroeg komt met een Playstation 6 want dan zitten we weer 8 jaar met net-niet.
Black myth wukong? Alan wake 2? Thrones en liberty? Ook zijn er mensen die een samsung g9 57 inch hebben en op 7680x2160p gamen.. Genoeg games waar een 5090 nut heeft. Tevens hoef je helemaal niet 'hardcore' vr te zijn. Ik heb vr, en daar gaat de kaart mooi tot zn recht komen die ene x dat ik t speel. Niks hardcore aan. Deze kaart is niet bedoeld voor mensen met archaic hardware.

[Reactie gewijzigd door yelop op 18 december 2024 11:29]

100+??, bij mij wil hij niet hoger dan 60, lijkt wel of hij op max 60 staat, maar in de settings staat hij op max 120 en mijn monitor is gewoon tot 120 htz in staat, zal toch een kijken waar dat aan kan liggen.
DLAA geeft de beste beeldkwaliteit dus daarom is de RTX 5090 welkom. Reken maar dat de RTX 5090 in het begin moeilijk verkrijgbaar is, omdat meer mensen er zo over denken inclusief ikzelf. Daarnaast gaat de nieuwe unreal engine ook weer veel meer vragen van de GPU.
Nouja ik wil een midrange videokaart met midrange prijzen die dat kan...
Wel meer hoor. Games worden slecht geoptimaliseerd tegenwoordig.
Uiteraard zit iedereen hier op te wachten,van dat hele dlss moet je van af willen met een minimale fps van dik 160.
Dat hele dlss gedoe is simpelweg compleet ruk en gebruik ik nu uitsluitend voor als me kaart het niet trekt.
En ind voor vr is een goede 5090 een must maar zonder competitie gaat ook de 5090 een marginale upgrade worden denk.
Een stap zoals vroeger met een 1080 gaat niet gebeuren als amd ze niet bij kan benen
Nieuwe DLSS welke, laat mij raden, exclusief op RTX50 kaarten werkt? Natuurlijk, vanuit bedrijfsoogpunt om je winst te maximaliseren is het prima, aandeelhouders en zo, maar de consument wordt weer genaaid. AMD doet het wat betreft een stuk beter, jammer dat die niet meer concurrerend is op de high end GPU markt.
Nvidia begint toch wel de eigen glazen in te gooien.

Ze willen zelfs jaarlijks een nieuwe GPU uitbrengen. Waarschijnlijk ook met exclusieve driver updates.
Dit terwijl de GPU's zelf nauwelijks meer innoveren, de wet van Moore is dood.

Men wil dus ondanks dat toch elke 2-3 jaar mensen overhalen een nieuwe GPU te kopen. En de echte fans moeten jaarlijks upgraden. Door GPU's met te weinig VRAM uit te rusten en software updates te koppelen aan nieuwe modellen. En dat dan voor 500+ euro. Terwijl het eigenlijk prima mogelijk zou moeten zijn om voor rond de 250-300 euro een GPU te maken die meer dan 5 jaar mee kan.

Korte termijn winst, maar op termijn jaagt dit mensen weg van PC gaming, het is een hele dure hobby geworden. Hopelijk kunnen intel en AMD dit een beetje tegengaan.

Helaas is juist de software van Nvidia zo veel beter dan de rest. Kan mij nog goed herinneren hoe slecht Skyrim draaide voor de DLSS update. DLSS 2 wel te verstaan, zonder framegen.

Ben toch AMD aan het overwegen voor mij nieuwe systeem volgend jaar. Maar als een boer met kiespijn. Behalve DLSS heeft Nvidia ook nog het voordeel van de marktleider: meestal is bij release een game voor nvidia beter geoptimaliseerd is voor Nvidia omdat ze nu eenmaal meer dan 80% van de markt hebben en je loopt ook minder snel tegen bugs en compatibiliteits problemen aan. Met mijn laatste AMD gpu toch af en toe wat gedoe gehad.
Hoe gangbaarder je hardware, hoe minder problemen je zult ervaren.
Dit terwijl de GPU's zelf nauwelijks meer innoveren, de wet van Moore is dood.
Dit is iets wat ik al bijna mijn hele volwassen leven hoor en telkens komen we nog steeds met sprongen in prestaties.

XX80 serie even als leidraad met FP16:
2080 20,14TFLOP
3080 29,77TFLOP (147% generationeel)
4080 48.74TFLOP (162% generationeel, 242% over twee generaties)

Dat is gewoon een imposante toename per generatie, waarbij de 3080 vooral nog een beetje ondermaats was. Feit blijft dat zelfs met die grote stappen per generatie, onze eisen aan prestaties en rekenkracht gewoon sneller toenemen. 4K is enorm kostbaar in rekenkracht en dat vergt echt een sloot aan trucjes om goed te blijven werken met alle bellen en toeters aan. Dat was vroeger ook zo, zeker ook met de invoer van nieuwe technieken en iemand moet de eerste zijn met die optimaal te benutten (en dus goedkopere modellen op de knieen te krijgen), waardoor de eerste paar generaties vaak wel iets van kinderziektes/tegenvallende performance hebben.

En dan hebben we het nog niet over de XX90 serie sinds de 30XX generatie, wat ik absoluut geen gamerkaart wil noemen overigens.

Het enige waar nVidia zijn ruiten mee ingooit, maar waar ze geen fuck om geven, is de hoge prijzen die gerekend worden. Waar de MSRP vaak nog wel een soort van schappelijk is, willen ze in praktijk gewoon voor voor veel te hoge prijzen in de winkels liggen, waarbij je hier in Europa ook nog eens een veel hogere belasting betaalt. Echter, Nvidia geeft geen fuck omdat mensen toch wel betalen. En de concurrentie lukt het niet goed om én in de buurt te komen van de prestaties én goed qua prijs te concurreren. Wellicht verschuift dat wel de komende jaren, maar ik zou er niet direct van uit gaan.

[Reactie gewijzigd door skullsplitter op 18 december 2024 10:22]

Zelfs Nvidia zegt dat Moore's law dood is.
Voor de goede orde, dit is Moore's law:
Moore's law is the observation that the number of transistors in an integrated circuit (IC) doubles about every two years.

Kijk je naar het aantal transistors van de 50 serie dan stijgt dat echt in een veel trager tempo. Ook de stap van 30 naar 40 voldoet niet aan Moore's law.

Dat betekend niet dat chips zich niet meer ontwikkelen en verbeteren, maar wel dat het op een lager tempo gaat. En het aantal transistoren is niet alles, er valt genoeg te verbeteren.

Toch begint het te knellen qua prestatie.
Bijvoorbeeld de laatste generatie AMD cpu's, die vallen echt tegen.
De Nvidia GPU's gaan ergens ook tegen een muur aanlopen.

Het is al zo dat je hardware veel langer meegaat dan vroeger, zit nu al 5 jaar met bijna hetzelfde systeem, vroeger was dat ongekend.

Het is dan ook niet toevallig dat Nvidia al strategiën bedenkt, zoals het koppelen van driver upgrades aan nieuwe modellen en te weinig VRAM gebruiken, die consumenten moeten verleiden om toch nieuwe hardware te blijven kopen, liefst elke 2-3 jaar.
Ik heb vaak reviews bekeken waar je als voorbeeld frames te zien krijgt die op LOW, MEDIUM, HIGH en ULTRA settings staan en zie wel een groot verschil tussen LOW en MEDIUM maar zie nauwelijks verschil in de hogere settings. Bovendien ben je in een game gefocust op alles wat beweegt en de rest zie je toch niet scherp. In de fotografie maakt men juist gebruik van onscherpte, Bokeh genoemd want dat maakt de foto juist mooier.
Afvlakking =/= dood is mijn hele punt, en er worden nog steeds flinke snelheidswinsten geboekt. Dat NVidia dat zegt, heeft deels te maken met de eisen die we stellen, en zij moeten wel hun huzarenstukje DLSS en Framegeneration verkopen natuurlijk. Dus roep je "Moore's law is dead, long live neural network solutions only we provide"
Ben zelf afgelopen jaar gestopt met PC gaming en heb alles de deur uit gedaan. Vond de hobby totaal niet leuk meer. Prijzen zijn absurd geworden en men heeft er zo intens veel om heen verzonnen wat meer mensen aantrekt maar ook de prijzen en duurzaamheid niet goed heeft gedaan. Zogenaamde "influencers" en youtube kanalen met vele "rgb" en "game" reclames helpen hier ook niet bij.

Jaren gedaan met een setup van een 4790K en sinds de overstap naar AM4 bleef ik steeds componenten upgraden door een "gevoel" van noodzaak. Prijzen van fatsoenlijke gpu's zijn extreem gestegen en worden sneller obsolete. Maar ook andere hardware zoals moederborden zijn enorm duur geworden.

Op het laatst had ik een flinke setup met o.a. 4080S, 64gb ram, meerdere SSD's, AIO, 7900X3D etc. voor de prijs van een huidige mid tier/high end gpu had ik eerder een complete game pc.

Ik vond het gewoon niet leuk meer (misschien ook leeftijd) en game nu voornamelijk op de Xbox af en toe.

[Reactie gewijzigd door Tweakriez op 18 december 2024 09:02]

Met alle respect, maar dit doe je toch ook jezelf een beetje aan? Upgraden hoeft niet he. Mijn laatste uitgaves aan de PC waren een jaar of twee terug een upgrade van een 1060TI naar een 6600XT, en een paar weken terug heb ik mijn Ryzen 3600 vervangen voor een 5700X3D. Kan er heerlijk op gamen, PC staat ook in een mooi klein kastje onder de TV. Gisteren samen met mijn vrouw begonnen aan It Takes Two, met twee Stadia controllers die ik voor een paar tientjes op de kop heb getikt - heerlijke controllers vind ik, en die werken uitstekend op PC. Het spel zelf was 8 euro op Steam!

Influencers kan je ook gewoon niet naar kijken, en grafisch hoef je echt niet altijd het beste van het beste om lol te hebben. Er is mega veel aanbod dat hier keurig op draait.
Daar heb je ook zeker een punt mee. Maar feit blijft wel dat componenten schreeuwend duur zijn geworden in dezelfde klasse.
Voor videokaarten zeker waar, toen ik die 1060TI kocht was ik er van overtuigd dat de volgende upgrade sowieso een 4K kaart zou zijn. Haha.
Ik vind alles net veel langer meegaan dan vroeger.
20 jaar geleden kocht ik letterlijk elke 2 jaar een nieuw MB+CPU+MEM.
Toen verdubbelde ik elke 2 jaar ongeveer in kloksnelheid.
1996 Pentium 166
1998 PII 333 -> OC 400Mhz
2000 Athlon 800
2002 AthlonXP 2100+ (1700Mhz)
dan had ik een relatie en kleine kids, dus de frequentie daalt ;)
2007 Core2 Q6600 2.4Ghz -> OC 3GHz
2012 Core i5 4430 3Ghz
grote kids en 1 ex :+ terug begonnen met gaming en eindelijk een upgrade
2022 AMD Ryzen 7700X

Edit: vond dit wel nostalgisch leuk dus heb gegraven in mijn geheugen en de GPU's zijn ongeveer deze:
1996 3DFX voodoo1
1997 Rendition Verite V1000
1999 Geforce 256 DDR
2002 Radeon 9700 -> BIOS flash naar 9700PRO
2007 Geforce 8800GT
2012 Radeon 7850
2013 Radeon R9 270X (swap met de 7850)
2023 Radeon 7900XTX

[Reactie gewijzigd door TMT op 18 december 2024 10:33]

Netjes. Misschien ligt het ook deels aan mij dat ik gevoelig ben voor nieuwe techniek. (Niet voor rgb e.d.) Is daarom ook gedeeltelijk uit zelfbescherming geweest dat ik de pc de deur uit heb gedaan. Ik was meer bezig met upgraden van componenten en veranderen van build als dat ik daadwerkelijk met de pc bezig was als device. Heb nu een laptop en red me daar prima mee eigenlijk. Gamen doe ik af en toe op de Xbox. Ben ook veel meer content nu vaak met simpeler games. Kan me prima vermaken met Stardew valley op de bank bijvoorbeeld :+
In de jaren 2000 (en daarvoor) was een upgrade voelbaar ... Als je gewoon een nieuwe moerderbord kocht met een andere chipset had je al een merkbaar verschil of van 5400 rpm naar 7200rpm of dan scsi of die velociraptors met 10k rpm of die met ssd cache. Ik kocht toen om de 6 maanden een nieuwe (kon in de groothandel kopen zonder btw) en de "oude" verkocht ik voor de prijs van de nieuwe stukken.
Zelfde met een gsm, er was een hele tijd een merkbaar verschil, dat is nu al een pak minder. Voor huis/tuin/keukengebruik gaat een pc zeer lang mee. Voor gaming en andere zware toepassingen is er een merkbaar verschil als je upgrades doet. Maar of het dit waard is, is een andere vraag. Kijk als jij hele dag video's moet renderen dan zal je een merkbaar verschil hebben omdat je een paar minuten telkens eraf kan halen. Maar als je dat eens elke 2 weken doet maakt het dan verschil uit ? Net hetzelfde met een netwerk ... onlangs met iemand een discussie gehad ... die wou perse upgraden in house naar 10gb ... Ik heb nog tokenring gekend en een 33.6 modem gehad. Als ik grote dingen over een netwerk moet sleuren dan weet ik dat op voorhand en dan duurt dat even. Moet je daarvoor nu alles perse gaan upgraden ? Die persoon moved ten hoogste wat vm's naar zijn nas. Van 30-40gb ... als je daar al geen geduld voor hebt, tsja. Maar ik snap best dat sommige zeggen een console is even leuk en daar kan je voor een fractie ook gaming. Alleen shooters met een controller vind ik persoonlijk niks. En ik speel dan ook graag bijvoorbeeld eens WOW. Maar alles is afhankelijk van games die je wilt spelen
Als je hardware kiest die een beetje overeenkomt met wat consoles hebben dan valt het allemaal best mee.

Als je ervoor kiest om met veel hogere settings te gamen (4k, alles op ultra, 60+ fps etc.) ja dan betaal je de jackpot.

Vooral op 4k gamen zonder DLSS of een andere vorm van reconstructie en/of raytracing gebruiken zijn enorme performance snoepers.

Maar heb je dat echt nodig? Ik vind persoonlijk de situaties waarin raytracing echt de performance hit waard is op 1 hand te tellen, in Cyberpunk vond ik het tof, maar die game was echt van de grond af opgebouwd met raytracing in mind.

Daarnaast vind ik DLSS en dergelijke tegenwoordig zo goed, dat op native 4k gamen ook niet echt de moeite meer waard is.

Daarnaast zijn de verschillen tussen high en ultra vaak ook bijna niet te zien. Kijk maar naar wat video's van Digital foundry die doen hier vaak mooie vergelijkingen in. Dan moeten ze het beeld helemaal stilzetten, naast elkaar high en ultra settings en dan vaak 10x inzoomen om überhaupt een verschil te zien. Als je gewoon speelt zie je dat verschil 99% van de tijd echt niet.

Onder aan de streep hou je dan wel alle voordelen van een PC versus een console, zoals de mogelijkheid om te modden, veel goedkopere games, gratis online spelen en alle andere dingen die je met een PC kan doen die je niet met een console kan doen.
Dit terwijl de GPU's zelf nauwelijks meer innoveren
Er zijn vele jaren geweest waar iedere nieuwe generatie GPU's zo'n 30% meer performance had en er softwarematig geen aanzienlijke extra workload was.
We verwachten nu nog steeds die performancetoename, op 4K, met alle licht- en schaduweffecten en nog 100 dingen meer terwijl we ieder grassprietje willen kunnen tellen en 100 NPC's door het scherm lopen/rijden. En we willen renderen, coins minen en AI draaien, enz.
En dan zeggen dat er nauwelijks innovatie is.

Moore wist zelf niet dat hij een 'wet' had toen hij voorspelde dat wat hij observeerde nog wel 10 jaar zo door zou gaan. Tot 1975!
Moore wist zelf ook dat het simpelweg verdubbelen van het aantal componenten op een moment niet meer mogelijk zou zijn. Daarom zijn wel degelijk innoverende bedrijven constant bezig andere manieren te zoeken om vooruitgang te blijven boeken.
Nvidia GPU's houden ook langer hun waarde vast. Dat RTX logo willen toch de meesten wel hebben. Voordeel is dan weer dat AMD kaarten over het algemeen sneller in prijs dalen en je daar een betere deal kan maken. Qua prijs/prestatie is AMD sowieso beter.

Slechtere software van AMD heb ik zelf niet ondervonden. Ik vind zowel de Nvidia als AMD software allebei behelpen. Bij beide moet je echt zoeken om iets te vinden. Gebruikers interface kan echt stukken beter.
Nvidia is in mijn ervaring van zo'n 10 jaar wat wisselend maar voornamelijk wel een stuk stabieler en minder crashes dan bij amd, ik heb nu weer AMD 7800xt en ik merk echt dat die echt elke week wel een keer of wat via onverwachte fout and adrenaline afsluit zonder dat er een duidelijke reden voor is.
Dat maakt nvidia voor mij wel iets waar ik op dat gebied voor zou gaan weer, maar de prijs van amd was bij aanschaf gewoonweg te goed om niet te doen tov aanbod nvidia.
Heb zelf met een 7900xt niet echt noemenswaardige problemen gehad met adrenaline, stond wel geïnstalleerd maar gebruikte het eigenlijk vrijwel niet.

Las wel op een forum dat adrenaline inderdaad voor crashes kan zorgen.

Een oplossing voor dat probleem is een schone Windows installatie en dan kiezen voor de driver only optie voor de Radeon installatie.

Heb dat zelf ook gedaan en mis adrenaline totaal niet. Alle opties die ik wil aanpassen zitten ook in de games zelf.
Thanks voor de tip dat is het overwegen waard dan eens te doen.
Nieuwe DLSS welke, laat mij raden, exclusief op RTX50 kaarten werkt?
Waarschijnlijk wel het zou NVIDIA sieren om het backwards compatible te maken.
AMD doet het wat betreft een stuk beter
Hun benadering FSR vind ik ook vanuit moralistisch oogpunt beter, maar het gaat er natuurlijk om wie beter is, en NVIDIA heeft momenteel een betere interpretatie van upscaling.
Maar zover ik het begrijp ligt het echte probleem bij game developers die gewoon slecht optimaliseren.
Overal lees ik reviews over DLSS vs FSR en iedereen zegt dat DLSS beter is. Persoonlijk zie ik het niet. Ik vraag mij echt af of die testen wel eens ABX worden uitgevoerd. Laat maar eens 100 personen 3 beelden zien, 1 met DLSS, 1 met FSR en een zonder upscaling. ben echt benieuwd wat daar uitkomt.

Raytracing heb ik hetzelfde mee. Ja, als je goed kijkt zie je wel verschil en soms ook dat het beeld echt beter wordt, maar dat is zo weinig dat het voor mij nog een niche technologie is en zeker niet waard om extra Euro's uit te geven.
De laatste versie van FSR heeft zeker wel DLSS in een bepaalde zin verslagen, het heeft getoond betere prestaties winst te behalen dan DLSS, echter niet mensen helemaal overtuigd met name in beeld vertraging en random artefacten in je beeld (beeld klopt hier en daar niet met wat er getoond hoort te worden in sommige frames) met name als je kijkt naar een game zoals Cyberpunk 2077.
Waar als voorbeeld mensen zonder upscaling 50 Fps halen, met DLSS 68 Fps en FSR 71 Fps, gaat het bij FSR met beeldvertraging (ms) en de artefacten fout. Daarnaast was er ook iets met GPU verbruik die enorm hoog lag als je FSR gebruikte.
Maar ook dit is per game, per resolutie weer enorm verschillend.
Heb je Nvidia blijft DLSS het beste
Heb je een andere kaart doet FSR prima mee.
Ik ben dus niet eens dat FSR prima mee doet. Het issue wat jij aankaart (beeldvertraging) is cruciaal.

Framegen doel ik dan vooral op. Framegen bij DLSS werkt zo dat je weinig vertraging merkt als je van sub 60 fps het gebruikt om richting de 60 fps te gaan. FSR is zeer merkbaar te traag als je dit doet. Bij FSR moet je basis frames al 60+ zijn om framegen fijn aan te laten voelen. Dan kan je met framegen bij FSR wel naar 80 a 90, maar dit is zeer onmerkbaar voor een hele groep spelers. Van 40 naar 60 voel je meteen.

Daar ligt het voordeel van DLSS Framegen. Je kan het gebruiken om Raytracing aan te zetten bij heel veel games. Kaarten trekken dit niet dus zullen rond de 40 fps zitten, maar met framegen trek je dit naar 50 a 60 fps. Bij FSR framegen moet je al 60 fps basis hebben, dat gaat hem niet worden. Vooral niet met AMD kaarten.

Ik zie een helehoop gamers zeggen dat AMD de betere bang for buck heeft, maar voor mij persoonlijk (graphics junky) is AMD gewoon geen optie omdat het niet de feel and look kan geven die ik wil hebben.
DLSS vs FSR : DLSS is echt beter en dat zie je ook makkelijk. Met FSR 3 heeft AMD wel wat ingehaald.

Raytracing : hangt af van de game implementatie , path tracing is de nog betere versie en dat maakt ech grote verschillen qua realisme.
path tracing is de nog betere versie en dat maakt echt grote verschillen qua realisme.
Ja is echt een mooie techniek (filmpje) alleen jammer dat de enige GPU die het een beetje goed kan implementeren je een rip uit je lijf kost, misschien game afhankelijk maar als je het verschil niet ziet ben je blind, of het boeit je gewoon niet.
Hoe goed de implementatie is, soms is het echt een verbetering soms is het gewoon anders en niet echt zoveel beter/ de moeite.
bij ray tracing gaat het er om of de game er iets mee doet,

Zodra alles statische is kun je ray tracing aan zetten maar boeit het niemand,

Als je een game hebt met bijvoorbeeld shutters voor de ramen dan word het ineens een heel ander verhaal , als ze dicht zijn is het donker, als ze half open staan zou je de baantjes moeten zien en als je ze dan nog verder open draait zou de kamer dus dynamische verlicht moeten worden aan de hand van het open gaan,

Als dit een soort SWAT game is zou je dus als je met de zon mee van buiten de shutters open doet ook een soort van flash bang effect krijgen etc.
Voor gameplay hoeft schaduw of verblind effect niet gelemaal correct te zijn. Het hint dat er iemand aankomt om hork met licht bron er achter maakt get niet uit of grof is zolang je maar iets ziet.
Dan is RT cerloren dev resources in feature die de gameplay niet beïnvloed. Is fast paced gameplay ook competitief en dan doet meer niet toe. De gfx juist vereenvoudigen geeft je voordeel.
Een puur extreem exploring sandbox game in mooie omgeving speelt het grotere rol.
volgenmij begrijp je het scenario en de voorbeelden en de capability totaal niet zo te lezen.
Sure, er is verschil. Dat zegt niet dat de enige manier om dat verschil te bereiken een natuurkundig correcte simulatie is. Ook met 'fake' technieken kunnen de 'verbeterde' beelden gegenereerd worden.

Ik durf te stellen dat meer realisme zelfs contra-productief kan zijn: soms wil je juist een specifiek stukje werkelijkheid hebben en zitten de realistische lichtstralen en reflecties alleen maar in de weg waardoor je game beleving minder wordt. Puur realisme streven we ook niet na in andere game aspecten, anders was je dood geweest na het incasseren van 1 geweerschot of kon je alleen maar hinken als je van een muur van 2 meter afgesprongen was.
Ik zag pas een vergelijkingsfilmpje van diverse games met het verschil tussen geen raytracing, raytracing en path tracing. Het verschil tussen wel of geen raytracing was overduidelijk, het verschil met path tracing vond ik echt wel moeilijker te zien. Op het eerste gezicht leek het vaak gewoon helderder, waardoor soms details in schaduw wat beter zichtbaar werden, maar alles soms ook gewoon een beetje overbelicht leek. Dat verschilde per scene overigens wel erg. Ik vond de verschillen in de meeste gevallen minder groot dan tussen wel of geen raytracing. Daar zie je echt ineens allerhande prachtige reflecties verschijnen. Path tracing lijkt voor mij vooral invloed te hebben op helderheid en kleurweergave van reflecties?

https://www.youtube.com/watch?v=lixD81ToGcg&t=440s

Voor mij persoonlijk zie ik de verschillen wel als ik er rustig naar kijk, maar als ik gewoon vol aan het gamen ben, ben ik me er veel minder van bewust. Het is voor mij dus een leuke extra, maar ik zou er zeker geen extra dure videokaart voor kopen.
En ik vertel je dat ik het verschil dus niet zo makkelijk zie. Zal best kunnen dat andere mensen het wel zien natuurlijk. Maar zeggen dat het een objectief beter is dan de andere, ik heb daar mijn twijfels over. Ik zie namelijk ook wel verschil, maar of de een beter is dan de ander, dat is niet zo duidelijk in mijn ogen.
Raar maar hangt natuurlijk af welke resolutie/game/GPU
Ik heb FSR geprobeerd in Cyberpunk 2077 en het leek wel of ik naar een interlaced DVD aan het kijken was, terug op DLSS en alles zag er weer piekfijn uit. Op een 3060ti/1440p N=1 maar toch…
Ray tracing maakt het beeld realistischer, of dat ook altijd mooier is is een tweede en hangt ook nog sterk van de game af. Daarbij wordt bij raytracing op dit moment maar een subset van de lichtstralen getraceerd, al het licht en reflecties met raytracing te traceren is vaak te zwaar.
Ik ben zelf altijd voorstander van Radiosity. Die ook warmte afkaatsing van materialen etc. meeneemt. Raytracing is eigenlijk te perfect renderen. Dat is realistisch tot een bepaalde hoogte maar.

Maar weet niet of videokaarten dat aankunnen.
Probleem van RT is dat er heel veel invloed is van buiten het view fustrum.
Het fijne is dat we tegenwoordig Youtube hebben waar er een aantal kanalen zijn die dit haarfijn uit weten te leggen.

Het nadeel is dat we tegenwoordig Youtube hebben waar er een aantal kanalen zijn die om de punten duidelijk te maken 4x inzoomen en de game op 50% snelheid tonen zodat ieder fijn detail letterlijk wordt uitvergroot om het tot discussiepunt te maken.

Ben zelf enorm fan van het werk van Digital Foundry, maar het is makkelijk in dergelijke details te vervallen en het bredere plaatje uit het oog te verliezen. DLSS als techniek biedt objectief bekeken de betere plaatjes. Maar de werkelijke prijs is dat Nvidia inmiddels marktprijzen mag dicteren omdat de massa deze gesloten standaard omarmt.
Raytracing is een beetje als 3D in films, het kan absoluut iets toevoegen, echter is dat zelden echt zo, eerder een checkbox om af te vinken omdat Raytracing nou eenmaal hip is. Maar een game moet eigenlijk wel ontwikkeld zijn met dat in het achterhoofd, het maakt nogal uit welke materialen (met welke waardes) in welke plekken gebruikt worden. Als Raytracing achteraf toegevoegd wordt is dat wel te merken want dan boeit het gewoon erg weinig (dat terwijl het wel een bak meer resources trekt). Of juist te veel, dat alles overdreven glimt en reflecteert.

Beetje zelfde dus als die 3d films waar ze het 3d met wat post processing erin kwakken.

FSR/DLSS vind ik doorgaans niet zo boeiend, het zijn mooie technieken om meer performance uit iets te kunnen persen, maar imo wordt dat te veel gebruikt om slecht geoptimaliseerde meuk enigszins draaiend te krijgen
FSR/DLSS vind ik doorgaans niet zo boeiend, het zijn mooie technieken om meer performance uit iets te kunnen persen, maar imo wordt dat te veel gebruikt om slecht geoptimaliseerde meuk enigszins draaiend te krijgen
Het een hoeft het ander niet uit te sluiten? Een goed geoptimaliseerde titel op veel goedkopere hardware kunnen draaien met 99% van de visuals intact heeft voor mij zeker waarde. Al is het maar omdat het vrij lomp is om honderden watts en peperdure hardware stuk te slaan op marginaal beter beeld.
Het een hoeft het ander niet uit te sluiten? Een goed geoptimaliseerde titel op veel goedkopere hardware kunnen draaien met 99% van de visuals intact heeft voor mij zeker waarde.
Natuurlijk, voor mij ook en als goed is voor iedereen wel. Maar het zou geen vereiste moeten zijn om een spel draaiend te krijgen. Het is net zoiets als gewoon meer RAM hebben, want dat is toch fijn? Meer ruimte meer vrijheid, maar vervolgens gaat iedere app 2x meer RAM slurpen, omdat een moderne computer toch wel genoeg heeft. Imo, veel van dit soort technieken worden uiteindelijk gewoon excuses om slordig werk op te leveren.
Dat wordt al geroepen sinds de jaren 90, maar je gaat moderne game verwachtingen echt niet meer waar maken op de hardware uit die tijd.
We willen tegenwoordig >60fps, 4K resolutie en heel veel kleurtjes en details. En geen prijsverhogingen ;)
Als je het mij vraagt liggen die moderne game verwachtingen veel ste hoog. Ik vind het veel belangrijker dat een spel vlot en vloeiend verloopt. Grafisch pracht en praal komt daarna, nadat je zeker weet dat dit fatsoenlijk loopt. En dit is inderdaad ongeveer sinds de tijd dat het internet groter is geworden en dat games gemakkelijker gepatched kunnen worden (wat dan vervolgens niet altijd gebeurd).

Niet zo zeer tegen Raytracing of DLSS, maar zeker op consoles (waar de hardware fixed en bekend is) is er eigenlijk geen enkel excuus waarom iets niet fatsoenlijk zou lopen, dat is puur aan de developers te wijten. Als je game zonder dit soort technieken al stroopt, dan zijn dit lapmiddelen, excuses om dat maar zo te laten. Wordt het gebruikt om wat meer performance of grafisch pracht (op lagere hardware) uit al een goed lopende game te persen, dan is er uiteraard niets mis mee.

Point being, alle marketing blaat met een flinke emmer zout nemen. Raytracing is zeker geen heilige graal, genoeg games waar het in zit waar je het beter uit kan laten.
Als je het mij vraagt liggen die moderne game verwachtingen veel ste hoog. Ik vind het veel belangrijker dat een spel vlot en vloeiend verloopt.
Ik durf nog wel een stapje verder te gaan: beide aspecten zijn overbodig als een game domweg niet _leuk_ is.
Een realistische weergave kan zeker een bijdrage leveren aan de immersie waarbij een hoge frame rate dat mogelijk minder doet, maar veel marketing is puur op 'realisme' gericht terwijl al lang duidelijk is dat het waarschijnlijk nooit gaat gebeuren dat games zo echt als films aanvoelen (ondertussen zien sommige films er meer als games uit wat weer een ander probleem is, maar dat terzijde).
Wat noem je draaien krijgen
240fps extreemsettings 4K
Of waar publishers op richten 30/60fps medium setting want mainstream bepaald de sales.
Je kan dlls fsr xess ook puur gebruiken voor fps performance voor mainstream. 720 1080 upscale.
Soms ziet game er op low ook goed uit farcry1
Crysis1 niet ,wel medium
Draaiend krijgen noem ik stabiel 30 fps (liefste 60) op minstens 1080, lijkt mij geen gekke eis. Ik beschouw alles erboven voor de enthousiastelingen.
Ik vind het ook niet zo raar dat NVIDIAs DLSS het beter doet. De eerste versie daarvan kwam uit in iets van 2018, 3 jaar eerder dan de eerste versie van FSR. Hoewel AMD redelijk wat kan afkijken, hebben ze qua (ontwikkelings)tijd wel een achterstand.
Die doet het beter omdat met N4 node je meer hardware resl estate hebt om te verdelen over
Shaders tensor RT cores.
Bigchip 4090 heeft geen concurrerende tegen hanger.
Intel dgpu amd dgpu zijn kleiner en minder hardware logic besteed aan RT en AI. Vaak moet een andere logic die taak erbij doen. Zou dan kijken naar nv vs AMD in dezelfde prijsklasse of chip grote.
DLSS op je bestaande 30- of 40-serie blijft gewoon werken.

Bij de overgang naar DLSS 3 kwam FrameGen erbij, waardoor je met een 30-serie kaart in sommige games een optie had die uitgegrijsd was, maar verder werkt DLSS ook gewoon in die games met een 30-serie.
Nieuwe DLSS welke, laat mij raden, exclusief op RTX50 kaarten werkt?
Als het puur software was, zou je het nu al kunnen hebben op je RTX40xx kaarten. Dus of er zit hardware in de 50-serie die hiervoor onmisbaar is, of het is een arbitraire beperking die wellicht met en software-hack te omzeilen is.

De tijd zal het leren.
Ligt er aan hoe je DLSS interpreteert. Bedoel je alleen de image upsampeling? Die is op de 30 en 40 serie hetzelfde. Als je het hebt over frame-gen dat is dan exclusief voor de 40 serie.

Dat wil dus niet zeggen dat de nieuwe DLSS 4.0 exclusief voor de 50 serie gaat zijn.
Nouja, misschien dat die nieuwere versie gebruik maakt van optimalisaties/functies in de RTX50xx hardware zit die gewoon echt niet bij de oudere aanwezig is. AMD doet dat ook niet beter als hun ook iets dergelijks hebben.
De consument wordt helemaal niet genaaid, want de oudere hardware heeft die extra's gewoonweg niet. Je kunt met een oude wifi 4 router toch ook niet ineens wifi5 doen omdat die oude router niet de benodigde verbeteringen aan boord heeft.
Volgens geruchten kondigt de fabrikant in eerste instantie een RTX 5090, 5080, 5070 Ti en 5070 aan
Dat is apart. Begon Nvidia in de laatste paar generaties niet telkens met een kleinere line up, met vooral high end?
Dat is dit toch ook gewoon? De 3XXX-serie kwam met de 3090, 3080 en 3070 in de aankondiging.

De Ti zit er dus alleen als extraatje bij, wellicht om AMD voor te zijn, die ook snel daarna kaarten lanceert.
Zal meer met marge te maken hebben

Je kan de line up ook 5090 5080 5070 5060 5050 en 5040 noemen
Maar door van de 5040/50(low range) 5060/5060ti (mid range)van de maken komt die voor de klant met beperkte kennis in een hogere prijs schaal.

3050 was toen 250 terwijl 3060 350 was.
Nu beginnen ze gelijk vanaf 350 euro dus om marges te vergroten
Uit m'n hoofd kondigde Nvidia de vorige keer de 4090, 4080 16GB en 4080 12GB (uiteindelijk 4070 Ti) tegelijk aan.

EDIT: Inderdaad eerder genoemde 3. nieuws: Nvidia brengt GeForce RTX 4090 in oktober uit, RTX 4080-gpu's volgen ...
Misschien dat ze niet alle 4 tegelijkertijd worden uitgebracht, enkel aangekondigd.

[Reactie gewijzigd door Moortn op 18 december 2024 08:08]

AuteurAverageNL Nieuwsredacteur @Flamesz18 december 2024 08:07
De vorige release was inderdaad in eerste instantie alleen een RTX 4090 en 4080 (en inderdaad een 4080 12GB, maar die werd geschrapt en later opnieuw aangekondigd als 4070 Ti, zoals @Moortn schrijft)

Ik haalde overigens twee geruchten door elkaar: al die genoemde RTX 50-kaarten zouden in Q1 op de markt komen, maar het is voor zover ik weet niet bekend of die allemaal ook meteen tijdens de CES worden aangekondigd. Ik scherp die zin iets aan :)

[Reactie gewijzigd door AverageNL op 18 december 2024 08:08]

Daarom ontbreken ook de 5060-5030 varianten. Als die er komen.

En de Super-varianten ontbreken ook, en een aantal van de Ti-varianten. Dat doen ze natuurlijk expres, om mensen te verleiden een nóg duurdere kaart te kopen.

Vandaag de dag kun je in plaats van de 4060 beter een Arc B580 kopen, en het kan best zijn dat een denkbeeldige 5060 op gelijke voet staat met, en tegelijkertijd duurder zal zijn dan, de B580.
De fabrikant sprak ook over 'neural rendering', hoewel niet duidelijk wordt wat dat precies inhoudt.
Waar dit mogelijk op hint dat dit een techniek is soortgelijk aan wat je op youtube al vindt. 3D Games omgezet naar real-life beelden d.m.v. AI (ofwel een neuraal netwerk). Een mooi voorbeeld is gameplay van Tomb Raider bewerkt met Gen-3 Video:

https://www.youtube.com/watch?v=jLi-Ue6PI8g

Is het in de video perfect? Nee niet volledig, echter geloof ik zeker dat NVIDIA veel verschillende 'reality' modellen kan trainen gespecialiseerd op specifieke scenes, mogelijkheid zou kunnen bieden om je model als ontwikkelaar te trainen op je karakters, en als je van scene wisselt dat je ook het ene model kan crossfaden met het andere model.

Als NVIDIA in staat deze techniek te perfectioneren, dan gaan we echt een enorme stap maken in GPU land.

Ook een interessante zou dan zijn, is het model GPU-fabrikant gebonden, of mag AMD hier dan ook nog gebruik van maken?
Wat ook kan dat ze ermee bedoelen is op basis van de 3D scene (scene graph, i.e. lijst van deze objecten bevinden zich in deze posities) en viewpoint, ze ipv dat te rasterizen of raytracen of pathtracen, dat ze een getrained neural network het beeld laten bepalen dat er uit komt.
Ik hoop echt dat het meer dan dat is en ze de kant op gaan in de video die ik linkte.
Ik heb de video eens bekeken, maar dat ziet er redelijk simpel uit. Dat lijkt me gewoon AI image generation in realistic mode gebaseerd op de originele video frame by frame met wat smoothing, en de onvermijdelijke gigantische hoeveelheid artefacts die daaruit voortvloeien.
Al zegt zijn pinned comment wel "This AI technology does not yet have as a reference the real geometry of the game or other more accurate game information data"
Dit ziet er af en toe echt mooi uit, soms ook heel erg nep/ kunstmatig. Met name de indoor scenes zijn best realistisch. Zou wel gaaf zijn als hier stappen in gemaakt worden met de 5000 serie, meer toegevoegde waarde dan raytracing in veel van de huidige games...
Ik zie niet echt voor me dat dat Tomb Raider filmpje in real time draait op een kaart.
Denk eigenlijk meer dat het om technieken als 3D Gaussian Splatting e.d. gaat.
En een magere 16GB DDR7 RAM voor de 5080...

[Reactie gewijzigd door MaZo op 18 december 2024 08:29]

Wil je 32GB? Dan koop je toch gewoon een 5090! 8)7 En die gaat waarschijnlijk, net als de 4090 tot op de dag van vandaag, vlotjes boven de 2K geprijsd zijn.

Als AMD hun 8000 reeks wat redelijk geprijsd in de markt zet gaan ze hopelijk eindelijk wat meer marktaandeel krijgen.
En ze komen er mee weg ook nog.
Nvidia en AMD doen 100% overleggen over de prijs lol, het is natuurlijk niet toevallig dat de prijs performance vaak maar minimaal uit elkaar ligt en dat jaar op jaar.
32GB is dan ook eerder pro-sumer...
De gulden middenweg van 24GB dan maar.

Maar als je ziet hoe slecht games geoptimaliseerd worden tegenwoordig is 16GB voor een GPU van 2025 die hopelijk 3-5 jaar mee kan eigenlijk gewoon DOA.
Tja, GPUs met veel geheugen vallen tegenwoordig in een ander segment (AI) wat vele malen meer winstgevend is. Nvidia zou wel gek zijn als ze een nu een consumer grade kaart uitbrengen met 32 Gb of 64 Gb aan RAM.

Een Nvidia L40 met 48Gb kost al snel 6.500 euro. Als ze een TI met 32Gb uitbrengen voor 1500 euro dan zit dat gewoon te dicht tegen het AI en proffesionele segment aan.

[Reactie gewijzigd door codeneos op 18 december 2024 08:54]

Ja natuurlijk. Ze willen hun dedicated AI-segment niet nerfen door een RTX5060 met 64GB VRAM uit te brengen.
Ah, "Neural", "AI", mis alleen nog 'Machine learning". Dan hebben we de full package deal.

Maar aansluitend hieraan, als ik de zotac "leak"mag geloven krijgt alleen de 5090 genoeg ademruimte met 32gb gddr7 geheugen en moet zelfs de 5080 het doen met 16gb op een 256bit bus..hetzelfde als hun 5060TI XD die enkele tiers lager zit ... echt weer trieste Nvidia praktijken.
Om dan weer een 5080super te maken met wél 20gb.

( bron: https://videocardz.com/ne...070-series-listed-as-well)
Om te ademen he.

5090 heeft eigenlijk te veel vram voor games, er is niks ( buiten mods om) wat meer dan 16gb vraagt laat staan 32gb. ( Cyberpunk/Hogwarts/TLOU zit rond 14gb op 4k met raytracing) en Indiana Jones rond 16GB zoals mensen al vermelden.
5080 die waarschijnlijk weer stuk goedkoper is maar dan net krap aan niet genoeg ram heeft om het futureproof te maken... En ja die 16gb gebruik je, je koopt immers geen gpu van 1000€+ om op 1080p te spelen.
Dus je word eigenlijk gedwongen om 1 tier hoger te gaan als je op 4k speelt.Wat tegenwoordig steeds vaker voorkomt aangezien de markt voor 4k monitoren dit jaar eindelijk op gang komt met een hele lading OLED modellen die al zelfs 4k240hz doen.
5090 heeft eigenlijk te veel vram voor games, er is niks ( buiten mods om) wat meer dan 16gb vraagt laat staan 32gb. ( Cyberpunk/Hogwarts/TLOU zit rond 14gb op 4k met raytracing) en Indiana Jones rond 16GB zoals mensen al vermelden.
Niks teveel als je de GPU meer dan 5 jaar wilt gebruiken, de 1080Ti had tijdens zijn introductie ook een behoorlijke hoeveelheid, bijna het dubbele van de 980Ti en 3GB meer dan de 1080 (terwijl er in die tijd ook maar weinig games nog waren die echt veel gebruikten buiten eventuele modding zoals Skyrim op 1080P die 6GB vroeg al kan ik mij herinneren dat Watch Dogs 1 ook aardig dicht op de 8GB zat) waarvan die laatste nu toch echt wel in moeilijkheden komt de afgelopen tijd waar de 1080Ti nog prima op Ultra (bijna 8 jaar later!) kan spelen ook vanwege zijn grotere framebuffer, textures vreten in ieder geval geen echte GPU kracht weg.

En zoals je zegt er zijn nu al spellen, zeker met RT, dat je een GPU wilt hebben met 16GB op een degelijke resolutie dus niet 1080P maar eerder 1440P of 4K, dat gaat alleen maar erger worden de komende paar jaar.

En vergeet niet, niet alles draait enkel om één spel te kunnen draaien, achtergrond applicaties nemen zeker met Windows 10 t.a.v. 7 veel meer VRAM budget in, des te meer je multitasking doet des te minder er over blijft om een game ernaast te draaien.

En dan heb je nog mensen zoals ik die soms wel 2-3 spellen naast elkaar open heeft staan en dan is een groter VRAM budget wel fijn zonder dat het systeem onderuit gaat aan VRAM swapping.

Trouwens nu ik erover denk, GTA V is zelfs wellicht een grote verbruiker want als je Ultra op 8K resolute instelt en je gaat dan framescaling op 2.5x zetten ingame dan is de prognose dat hij 33GB VRAM nodig heeft, al is dat maar een prognose. :+

[Reactie gewijzigd door CriticalHit_NL op 18 december 2024 13:27]

Hahaha!
Jaa ik ben met je eens, hoe meer VRAM des te beter hoor.
Ok dat is wel een extreme usecase, en ik verwacht zelf 4/5 jaar leven van een GPU.
Maar kom op, sinds wanneer zijn wij 1000€+ GPU's aan het kopen om met upscaling 60fps te halen...BIJ RELEASE...wat is dat nou.
Meer dat een 4090 voor het gros niet te verantwoorden is en een prosumer product is, en voor veel spellen overkill blijkt tenzij je spellen hebt dit zelfs daar teveel eisen aan stellen als je alles voluit gooit.
Franse mededingingsautoriteit bereidt aanklacht voor tegen Nvidia.

Ben nogsteeds benieuwd naar een update van dit.
nieuws: 'Franse mededingingsautoriteit bereidt aanklacht voor tegen Nvidia'

Kosten me heel wat geld des tijds met G-sync. Had liever een goedkope monitor gehad en geld opzei gelegd voor OLED monitor. Wat egt top Zou zijn is als je oude GPU inleverd dat je flinke korting krijgt en ze de oude GPU kunnen recycelen. Beste is natuurlijk tweedehands maar heb idee dat Nvidia de tweedehands markt als concurrent zien
En dat ook weer lekker exclusief maken voor geen enkel redenen behalve centjes?

Op dit item kan niet meer gereageerd worden.