Nvidia presenteert GeForce RTX 5090, RTX 5080, RTX 5070 Ti en RTX 5070

Nvidia-ceo Jensen Huang heeft de GeForce RTX 50-serie videokaarten gepresenteerd tijdens zijn CES-keynote. De RTX 5090 en RTX 5080 verschijnen op 30 januari; het topmodel gaat 2369 euro kosten. De RTX 5070 Ti en RTX 5070 volgen in februari.

De GeForce RTX 50-videokaarten maken gebruik van een voor gaming aangepaste Blackwell-architectuur, die Nvidia al sinds vorig jaar toepast in zijn datacenter-gpu's. Het productieproces is TSMC's 4NP, dat een bescheiden efficiëntiewinst zou moeten opleveren ten opzichte van de normale TSMC 4N-node die voor de RTX 40-serie werd gebruikt. De kaarten bieden voor het eerst ondersteuning voor PCI-Express 5.0; daarvoor geschikte processors en moederborden zijn al geruime tijd beschikbaar.

GeForce RTX 5090

Het topmodel van de nieuwe generatie is de GeForce RTX 5090. Deze videokaart maakt als enige gebruik van de high-end GB202-gpu, die 21.760 ingeschakelde CUDA-cores telt, bijna een derde meer dan de RTX 4090. Voor het eerst sinds de GeForce GTX 285 uit 2008 past Nvidia een 512bit-geheugenbus toe, die de gpu verbindt met maar liefst 32GB GDDR7-geheugen met een snelheid van 28Gbit/s. Dat komt neer op een totale geheugenbandbreedte van 1,8TB/s, bijna 80 procent hoger dan bij de RTX 4090. Ook de total graphics power (tgp) van de RTX 5090 valt in vergelijking met zijn voorganger hoger uit. Dat is nu 575W, net onder de limiet van 600W voor de 12Vhpwr-stroomconnector.

RTX 5090

GeForce RTX 5080

De RTX 5080 is gebaseerd op de kleinere GB203-gpu, die met 10.752 stuks bijna precies de helft van het aantal ingeschakelde cores heeft van de RTX 5090. Daarmee is het verschil tussen de twee duurste RTX 50-gpu's veel groter dan het verschil tussen de RTX 4090 en 4080 was. Geheel in dat thema heeft de RTX 5080 ook een half zo grote 256bit-geheugenbus en ook de helft van de hoeveelheid geheugen, met 16GB GDDR7. De tgp is 360W.

GeForce RTX 5070 Ti en RTX 5070

De laatste videokaarten die Nvidia vooralsnog heeft aangekondigd zijn de RTX 5070 Ti en RTX 5070. De RTX 5070 Ti is gebaseerd op dezelfde GB203-gpu als de 5080, maar dan met minder ingeschakelde cores. Er zijn er nog 8960 over, gekoppeld aan 16GB GDDR7 met een lagere kloksnelheid dan bij de RTX 5080. Deze gpu heeft een tgp van 300W. De RTX 5070 gebruikt een kleinere GB205-gpu, heeft 6144 cores en ook minder geheugen: 12GB op een 192bit-bus. De tgp van dit model is 250W.

Releasedata en prijzen

De GeForce RTX 5080 en RTX 5090 komen als eerste uit op 30 januari. Ze gaan respectievelijk 1190 en 2369 euro kosten. De RTX 5070 (654 euro) en RTX 5070 Ti (889 euro) volgen in de loop van februari.

RTX 5090 RTX 4090 RTX 5080 RTX 4080 RTX 5070 Ti RTX 4070 Ti RTX 5070 RTX 4070
Architectuur Blackwell Ada Blackwell Ada Blackwell Ada Blackwell Ada
Procedé TSMC N4P TSMC N4 TSMC N4P TSMC N4 TSMC N4P TSMC N4 TSMC N4P TSMC N4
Gpu GB202 AD102 GB203 AD103 GB203 AD104 GB205 AD104
Cores 21.760 16.384 10.752 9728 8960 7680 6144 5888
Boostclock 2,41GHz 2,52GHz 2,62GHz 2,51GHz 2,45GHz 2,61GHz 2,51GHz 2,47GHz
Geheugen 32GB GDDR7 24GB GDDR6X 16GB GDDR7 16GB GDDR6X 16GB GDDR7 12GB
GDDR6X
12GB GDDR7 12GB GDDR6X
Geheugenbus 512bit 384bit 256bit 256bit 256bit 192bit 192bit 192bit
Snelheid geheugen 28Gbit/s 21Gbit/s 30Gbit/s 22,4Gbit/s 28Gbit/s 21Gbit/s 28Gbit/s 14Gbit/s

Bandbreedte geheugen

1792GB/s 1008GB/s 960GB/s 716,8GB/s 896GB/s 504GB/s 672GB/s 504GB/s
Tgp 575W 450W 360W 320W 300W 285W 250W 200W
Interface PCIe 5.0 x16 PCIe 4.0 x16 PCIe 5.0 x16 PCIe 4.0 x16 PCIe 5.0 x16 PCIe 4.0 x16 PCIe 5.0 x16 PCIe 4.0 x16
Releasedatum 30-1-2025 12-10-2022 30-1-2025 16-11-2022 2-2025 5-1-2023 2-2025 12-4-2024
Adviesprijs 2369 euro 1959 euro 1190 euro 1469 euro 889 euro 910 euro 654 euro 669 euro

Door Tomas Hochstenbach

Redacteur

07-01-2025 • 05:02

439

Lees meer

Reacties (439)

439
435
161
4
0
207
Wijzig sortering
Geen enkele prestatie per watt verbetering dus. Hard pass, met bijna 600w heb ik er een airconditioning unit bij nodig in de zomer. Idioot gewoon.

Het productieproces is TSMC's 4NP, dat een bescheiden efficiëntiewinst zou moeten opleveren ten opzichte van de normale TSMC 4N-node die voor de RTX 40-serie werd gebruikt.


Meanwhile 28% meer power voor 32% meer cores maar lagere clock dus ongeveer om het even...

[Reactie gewijzigd door computerjunky op 7 januari 2025 05:48]

precies iedereen gaat hier blijkbaar aan voorbij.
Ik zit niet te wachten op 5% meer performance maar wel op 50% daling in stroomverbruik ...
Ik blijf dit toch echt niet snappen.
We zitten op Tweakers toch? Niet het energiebesparingsforum?

Vroeger was iedereen in de andere richting aan het voltmodden voor meer juice en maximale performance, nu is het enige dat je leest ‘stroom’ en niet ‘wat is de performance’ want er zijn nog geen benchmarks.

Bij een 5090, who cares? Is zoals een Ferrari kopen en dan klagen over het brandstof verbruik. Efficiëntie vind je nergens bij highend performance toch?

Als je echt wil kan je altijd voltmodden met aanzienlijk minder verbruik en slechts enkele percentages minder performance. Ik doe het echter zelf liever in de andere richting :) Overclock > downclock als echte tweaker.

[Reactie gewijzigd door JacobsT op 7 januari 2025 09:26]

Ik blijf niet snappen waarom men altijd maar weer het verbruiksvermogen van een auto met een grafische kaart vergelijkt. De een draait op benzine, de ander op stroom. Tot zover je vergelijking.

En als we dan toch met jou mee zouden gaan, oke. Op basis van het vermogen van de 5000 serie zou dat bekenen dat je niet alleen een nieuwe kaart maar ook een nieuwe psu nodig hebt en wellicht een nieuwe kast, want ja...die billen van die kaarten zullen echt niet kleiner worden.
De vergelijking is heus niet zo krom.

Wie koopt er nu een 5090 en vraagt dan wat het stroomverbruik is?
Net zoals je een Ferrari niet koopt voor de zuinigheid? Je weet dat het verbruik hoog gaat zijn.

En je zegt het ene op stroom, het andere op benzine. Wel, stroom kan hernieuwbaar opgewekt worden. Voor benzine is er geen hernieuwbaar alternatief. (you get my point).

Mijn kast van jaren geleden kan prima zo een knoert huisvesten. Als je een nieuwe kast gekocht hebt met het oog op gamekaarten steken, dan hou je daar toch rekening mee? Dat je in een micro ATX/ITX kastje geen knoerten van GPU's kwijt kunt, dat lijkt me de logica zelve. Die mini novelty builds, dat is pas ecologisch niet nuttig. Zelden kan je daar zaken van overdragen. Kleine SFX PSU, die dan waarschijnlijk niet toereikend is voor toekomstige vermogens. Koelers moeten er in blijven passen, ... Er zijn nu zelfs ITX bordjes met externe printplaatjes via mobo headers omdat ze het gewoon niet meer kwijtraken op main PCB uit plaatsgebrek voor de huidige generatie CPU's van AMD.

Mijn 1200 Watt PSU van ergens 2015-16 gaat dit ook gewoon prima doen moest ik er eentje willen aanschaffen. Ik koop elke 10-ish jaar een deftige kast en deftige PSU, die kan ik bij eventuele upgrades overdragen. Je moet dat niet altijd 'net genoeg' kopen voor je huidige build. Als je koopt met wat headroom op overschot, dan kom je niet in de problemen en kan je vrijwel alles gewoon transfereren naar je nieuwe build.

Heb zo zelfs nog een oude Lian-Li van ergens anno 2008 in gebruik.

[Reactie gewijzigd door JacobsT op 7 januari 2025 17:15]

Mensen hier worden ook een dagje ouder. Eigen huis, een gezin en je betaalt ook je eigen stroomrekening die de laatste jaren gevoelig duurder is geworden. Dan ga je anders tegen dit soort dingen aankijken dan als gamende tiener op de slaapkamer van je ouders, toen boeide de stroomrekening niet zo veel toch :+ ?
Ik ben toch ook anders niet meer bij de jongste en ik bekijk het niet zo.

Lijkt me dat het bij het laag en middensegment perfect moet kunnen voor meer punch bij lager verbruik maar voor de maximale performance, wat hadden ze dan verwacht? Is ook geen duidelijkheid over performance/watt dus die kaarten kunnen zelfs aanzienlijk efficiënter zijn dan een 4090.

Echter, wie kocht een 4090 en zou upgraden naar een 5090 met dezelfde performance enkel en alleen omdat ze 40-50% zuiniger zijn? Vrijwel niemand.
Tijden veranderen en zo ook de absurde energie prijzen. Dan zouden ze wat aan het stroomverbruik moeten doen.
De 5000 reeks is dus eigenlijk een veredelde 4000 reeks, nog steeds 4nm procedé, en amper extra vram (terwijl 12GB vram nu al in 2024 af en toe bottleneck was, vooral als je een LLM wilt draaien (AI)).
De 4000 reeks zal financieel intersanter zijn, nu dat die goedkoper worden en zo goed als bijna hetzelfde is.

Vermoedelijk is er druk om elke 2 jaar een nieuwe generatie uit te brengen, en was er eigenlijk deze iteratie geen technologische vooruitgang, dus hebben ze proberen de aandacht af te leiden naar alle extraatjes.
Als je al een kaart hebt met 12GB vram, dan kan je beter wachten op de 6000 reeks, hopelijk word die wel energie efficienter, want deze nieuwe generatie is nog hongeriger geworden.

[Reactie gewijzigd door sebastienbo op 7 januari 2025 12:11]

De 4000 reeks zal financieel intersanter zijn, nu dat die goedkoper worden en zo goed als bijna hetzelfde is.
Behalve dat ze de productie al helemaal gestopt hebben dus nu is er in de 40 series al weer een schaarste en dus hoge prijzen omdat er wel meer mensen dachten dat ze dan liever voor de vorige gen gaan.

Is toch mooi om geen concurrentie te hebben?
Ze moeten helemaal niks :) Zij willen gewoon de beste prestaties. Als voor jou energieverbruik belangrijk is, dan is een high end card misschien niets voor jou
Je kunt het ook andersom beredeneren: de 5090 is al veel duurder in de aanschaf, maar als deze zuiniger zou zijn is er een voordeel in de TCO (total cost of ownership) waardoor de hoge aanschafprijs beter te verdedigen valt. Als het energieverbruik hoger is vertaalt zich dat in significant hogere kosten tijdens de gebruiksduur. Er zijn nu dus eigenlijk 2 prijsverhogingen voor de klant.

Als de prestaties dan niet helemaal aan de verwachtingen voldoen, kan ik me voorstellen dat men het gevoel heeft dat Nvidia je het vel over de oren probeert te trekken.
Absurde energieprijzen is vooral een Nederlands probleem helaas.
Valt ook wel weer mee hoeveel winst te behalen valt op energiekosten. Mijn RX 6800 verbruikt tijdens het gamen ongeveer 200W (zoals aangegeven in de AMD software) tegen een energietarief van ongeveer €0.25 per kWh. Daarmee komt het verbruik van de GPU neer op €0.05 aan stroom per uur. Denk dat de performance voor de meesten veel belangrijker is dan de paar cent die je per uur bespaart bij de aanschaf van een GPU.
Echter, wie kocht een 4090 en zou upgraden naar een 5090 met dezelfde performance enkel en alleen omdat ze 40-50% zuiniger zijn? Vrijwel niemand.
Met de huidige energieprijzen, heb je hem dan met 2 jaar terugverdiend. Die zie ik dus nog wel gebeuren met 40-50%.

Maar het is vaker iets als 5% en dat boeit niet echt.
500 euro over 730 dagen is 68,5 cent aan elektra per dag. Dat is 2,74kWh. Dat verdeelt over 225Wh (de besparing per uur bij 50% zuiniger) is 12 uur. Denk niet dat er veel mensen zijn die 12 uur per dag echt gamen. De meeste volwassenen die zo'n kaart kopen hebben er een baan voor nodig. Denk dat je een uur of 2 gemiddeld per dag, hooguit 4 uur per dag gemiddeld haalt. Dan zit je al op 6 tot 12 jaar, niet eenvoudig terugverdiend binnen de lifecycle van een jaar of 5.
Als je lage energietarieven hanteert dan ja. Doe je dat niet dan is die terugverdientijd een stuk gunstiger. Ik zit met dynamische tarieven een stuk duurder op de tijden dat gamen mogelijk is en dus kost het me een stuk meer.

Daarnaast tikt 50% efficienter ook heel hard aan als je 24/7 de decoder aanhebt, want wat twitch of YT tabs bijvoorbeeld.
Misschien dan geen dynamisch tarief nemen en niet 24-7 je decoder aan hebben. Je geeft echt een niet veelvoorkomend scenario aan.

Overigens zou die decoder amper iets moeten verbruiken gezien die nu hardwarematig ingebakken is danwel een andere efficiente implementatie heeft.

[Reactie gewijzigd door Nox op 8 januari 2025 17:11]

Misschien dan geen dynamisch tarief nemen
Tsja ik ga die keuze niet alleen baseren op het verbruik van een videokaart. Een warmtepomp is een stuk meer impact op de rekening dus die krijgt voorrang als het gaat om besparen.
niet 24-7 je decoder aan hebben. Je geeft echt een niet veelvoorkomend scenario aan.
Euh, heel veel mensen hebben tegenwoordig iets van YT en twitch aan op de achtergrond, gewoon de hele dag. misschien niet 24/7, maar een uur of 12 lukt bij velen zeker wel. Al was het maar voor de lo-fi achtergrond muziek.
Uiteraard als je de pomp kan bufferen scheelt dat, maar het is wel een ongebeuikelijke keuze nu. En, wat gebruikt zo'n decoder? De cpu in je telefoon kan het met een paar watt, een chromecast kan het met een paar watt, maar je 5090 trekt er 200W voor uit het stopcontact? Youtube decoden is min of meer idle verbruik...
En ik als IT-er van 47 jaar oud kijk er wel naar. Ik kan de aanschafprijs van de kaart anno nu veel makkelijker betalen dan vroeger. Idem voor het stroomverbruik.

En toch schaf ik eerder de RTX 5070 aan, en dan nog schoorvoetend. Ik heb nu twee systemen uitgerust met een GTX 1080 Ti, één met een AMD Ryzen 9 5950X aan boord en één met een Ryzen 9 7900.

Waarom dan geen RTX 5090 of 5080?

Het moet ook allemaal ook nog gekoeld worden. Een zeer hoge TDP/TGP heeft ook invloed op betrouwbaarheid en levensduur.

NVidia bood tot aan de 10 series een lijn GPU's die qua TDP/TGP schommelde tussen de 200 à 300 Watt. Helemaal terug naar de 8800GT, via de 9800 GTX/GTX 295/GTX 480/GTX 590/GTX 690/GTX Titan/GTX Titan X/GTX tot aan de 1080 Ti voor de High-end/Enthusiast GPU's.

Daarna? Daarna is het geklommen tot aan de huidige 600 Watt voor de Enthusiast GPU's.

Ik zou mezelf als een Enthusiast omschrijven. Maar als techneut haak ik echt af bij dit soort TDP's. Niet zozeer uit financiële overwegingen dus, hoewel >2k voor een GPU natuurlijk echt wel richting het belachelijke gaat. Ik persoonlijk zit derhalve echt al jaren te wachten op een waardige opvolger van de GTX 1080 Ti. Met de RTX 5070 lijkt die er te zijn. Fatsoenlijke performance bij een relatief normale TDP.

Even de benchmarks afwachten maat ik verwacht de beide systemen eindelijk te gaan upgraden. Maar dus naar een RTX 5070 en niet naar een RTX 5800 of RTX 5900. Puur uit oogpunt van prijs/performance, energie-efficiëntie, betrouwbaarheid en koeling zijn en blijven dat in mijn optiek enigszins belachelijke GPU's.

Ben ik een "Enthusiast"? Zeker. "Een beetje gek, op het idiote af"? Zeker niet.
Ik denk dat het maar net afhangt van wat je speelt en of je de kracht echt nodig hebt.

Een 5070 zou bij mij veel te weinig performance bieden ik heb helaas geen keuze, ik moet altijd voor de meest dure kaart gaan omdat ik 8K VR speel.
Inderdaad de spijker op zijn kop. Bovendien was dat modden dan nog 1/3 van de standaard vermogens die nu door componenten worden verbruikt. En de stroom was toen ook nog relatief goedkoop zelf als je wel zelf de rekening zag. En als je het dan over besparen had dan deed je een lamp uit want die waren voor het led tijdperk nog erg onzuinig.
Herkenbaar, een voeding van 400W was vroeger (tijd van de radeon 9800PRO) echt overkill. Nu maken ze die niet eens meer of zeer beperkt. Als je een 9800 PRO had had je echt wel een dikke kaart, maar die heeft een TBP van nog geen 50W. Een voeding van 200W was 'aanbevolen'.
Met de huidige prijzen (30ct/kWh) en het max verbruik kan je 1.5 jaar non-stop gamen voordat je energiefactuur even hoog is als de aankoopprijs van een 5090.

Realistisch gezien zal je max een paar uur zal gamen per dag. Als je consistent 4 uur per dag gamet heb je 9 jaar nodig voordat je aan de originele aankoopprijs zit.

Het lijkt me dus dat de aankoopprijs nog steeds veruit dominant is in het totale kostplaatje.
Nee maar het is vaak ook een typisch bullshit argument van mensen die ‘mee’ willen praten. Ze zoeken over een artikel een negatieve eigenschap, deponeren dat in de voorgrond alsof het een doorslaggevend argument is voor ze, maar ze waren sowieso niet van plan een dergelijk product te kopen.

Bij heel veel nieuwe producten vraag ik me soms af waar de Tweakers gebleven zijn. Allemaal mooie techniek(en) maar altijd gaat de discussie weer richting prijs - of energirverbruik van het toplevel product :+
Een gamende tiener heeft over het algemeen geen RTX5090 in zijn systeem zitten. Die dingen kosten meer dan 2K... lijkt me net ff wat te duur voor iemand die aan het sparen is voor zijn studie of een vakantie ofzo met een bij baantje.

Die RTX5090 kaarten zijn vooral gericht op volwassen werkende personen die het geld hebben voor hun hobby.

[Reactie gewijzigd door firest0rm op 8 januari 2025 00:13]

Wat harder werken is ook een oplossing... Die 90liter V-Power geraakt ook niet vanzelf in de Porsche...

No pun intended maar de 5090 is een Halo product met letterlijk als doel de maximale performance te kunnen aanbieden. Het allerlaatste waar men echt bij stil staat bij de ontwikkeling van dergelijk product is efficientie. Het is eerder zolang ie niet opfikt of smelt is 't goed. Wil je echt maximale perfornance per watt? Dan moet je daarvoor naar low en medium Tier GPU's kijken en bij voorkeur dan nog met custom settings omtrent power profile en dergelijke.

[Reactie gewijzigd door BitJager op 8 januari 2025 17:09]

Toen was de stroomrekening voornamelijk door oude koelkasten, gloeilampen, drogers en dergelijk grut hoger. Een hele dikke cpu verbruikte toen misschien 100W, nu doet intel dik 300W door de chip jagen en verbruikt je koelkast fors minder.
Ja maar dan koop je ook geen kaart van ruim 2300 euro toch. Als je meer op de centjes moet letten, zoals altijd, prijs kwaliteit verhouding van de 5070(ti) is natuurlijk veel beter. Zeker voor de meeste usercases.
Zolang we salderen boeit stroomverbruik me niet, ik heb overproductie. als ik al een kaart koop wordt het de 5080, maar nog geen noodzaak (kriebelt wel natuurlijk maar de 6900XT loopt prima met baldursgate, starfield, satisfactory...
Het gaat er meer om dat er eigenlijk amper prestatie winst is als je sec kijkt naar de performance per watt. Dus eigenlijk hadden ze een GPU vrijwel gelijk aan de 5090 ook twee jaar geleden kunnen uitbrengen. Het is bijna een artificiële sprong voorwaarts. Eigenlijk lijkt dit helemaal dus niet zo een goede generatie om te kopen, behalve als je een 5070 koopt voor de AI mogelijkheden misschien. Maar goed, misschien moeten we eerst wachten op reviews.
Dat is natuurlijk dezelfde ziekte die Intel heeft: architectuur gewoon verder blijven duwen zonder echte grote vernieuwingen.

Klein productieproces, meer stroom en hops, meer performance.
Dit inderdaad,

AMD zegt letterlijk dat ze momenteel zelfs geen poging gaan doen voor het topsegment, dus Nvidia doet wat Intel gedaan heeft, op zijn gat blijven zitten en gewoon even de hoofdprijs vragen zonder echt beter te doen, want er is toch geen concurrentie.
En jij denkt dat nvidia de 50 series pas is gaan ontwerpen nadat AMD nog geen jaar geleden heeft aangegeven niet mee te doen met het high-end segment deze ronde? Zoals met CPU's is het ontwikkeltraject jaren. Dat is echt niet iets waar ze op kunnen inspelen qua hardware design. Alleen qua prijzen bij de verkoopbalie.
Wat ik vooral bedoel is dat Nvidia nu ook op hun gat gaat blijven zitten en ipv te innoveren gewoon gaan blijven de hoofdprijs vragen voor elke keer 1-5% meer rekenkracht, net zoals intel jaren gedaan heeft,
Nvidia is flink bezig met AI dus dat ze op hun kont zitten valt wel mee.
Het is wel aannemelijk dat strategie van AMD gewoon bij Nvidia bekend is en andersom ook. Tenminste er is geen enkel bedrijf geweest waar ik heb gewerkt waar wij niets van de ontwikkelingen bij de concurrent wisten.
Vooral dat laatste. Laten we kijken wat de benchmarks doen. Mensen met oude generatie kaarten zullen dit waarschijnlijk wel een prima upgrade vinden. Maar van 4 series naar 5 zal wellicht niet nodig zijn, maar het is meestal nooit de moeite waard om naar 1 serie boven je huidige serie te upgraden

[Reactie gewijzigd door thisisjazz op 7 januari 2025 13:54]

Ik zit nu op een 2080 en zat juist dit nieuwsbericht met interesse af te wachten. Ik overweeg al een tijdje om een nieuwe game pc te bouwen en ik had met mezelf afgesproken om eerst de nieuwe serie videokaarten af te wachten alvorens een besluit te nemen.

Ik ben echter erg teleurgesteld. Toen ik mijn 2080 kocht zag ik dit als een kaart uit het hogere segment en was het een mooie manier om voor een wat vriendelijkere prijs onder het topsegment toch nog goede prestaties te hebben. Maar dit leest alsof de 5080 het nieuwe middensegment is en de 5090 eigenlijk te duur is voor wat het biedt.

Ik vraag mezelf nu sterk af of ik niet nog 2 jaar zal wachten want als ik mijn games in 1920x1080 zet is het nog best te pruimen met de graphics en prestaties.

Maarja, nu AMD de handdoek in de ring lijkt te gooien denk ik niet dat het er gauw beter op wordt.

Deze markt kan wel wat disruptie gebruiken.

Hopelijk blijkt uit de testen en benchmarks dat ik ernaast zit en de prestaties het wel waard zijn.
Hopelijk dat Intel en AMD gewoon door blijven zoeken naar een breakthrough. Zou gezond zijn als er zelfs nog 1 of 2 concurrenten erbij komen die gewoon meer focussen op good old rasterization ipv upscaling. Dat je procede niet meer kleiner kan wil niet zeggen dat het architectuur deel al verzadigd is. Zoiets als HBM geheugen bij de Vega kaarten was een bold move. Dat geheugen bleek beter voor de paralelle berekening bij AI modellen trainen dan gaming met dit landschap. Maar wie weet is het een keer goed raak en krijgen we weer een verhouding zoals GTX480 vs HD5870. Dat was een prettige markt voor de consument.

Uiteindelijk ligt het ook bij ons als consument omdat we momenteel met onze portemonnee stemmen voor pseudo-innovaties en vallen voor de tech shill.
Uiteindelijk is Nvidia toch eigenlijk een echte GPU fabrikant en daar zijn ze erg goed in. Helaas mogen ze geen CPU 's bakken omdat Intel en AMD een duopolie hebben op het gebied van x86-processors. Daar zou ik liever wat meer concurrentie zien.
Liever dan in de GPU markt? Die is een stuk ongezonder en heeft meer behoefte aan concurrentie. Een beetje zoals ASML
Het een sluit het ander niet uit, toch? In beide markten is meer concurrentie wenselijk.
Je zegt alleen liever concurrentie te zien in de CPU dan GPU markt. Tenzij er een bepaalde vendor bias is suggereer je dat die markt het meer nodig heeft. Dat is niet het geval en het verschil in de winstmarge en marktaandeel van de marktleiders toont dat aan.

Dan is mijn conclusie dat je nvidia prefereert, wat kan maar subjectief is.
Kan het zijn dat je mij verwart met harrytasker?
Want waar staat geschreven dat je als "echte tweaker" voor het Ferrari gevoel moet gaan ipv Efficiëntie?
Dat was althans vooral het oude Tweakers. Ik zit hier al meer dan 20 jaar op de site.

Vroeger was het casemodding, overclocking en alles van nieuwe pc hardware dat de klok sloeg.
We zijn blijkbaar een dying breed.
Nee hoor, zeker geen dying breed.

Mijn perceptie is dat pc hardware, tweaking en modding nog steeds de basis van Tweakers is, maar ook met veel ruimte voor developers, netwerk, gamers, home automation, geeks, etc.

Meer is beter. Lekker gezellig toch ;)
Als je niet met de tijd meegaat dan sterf je inderdaad uit.

casemodding is door een enorm gegroeid aanbod cases en all in one koelers minder noodzakelijk.
een simpele overclock doet de computer tegenwoordig zelf, terwijl tegelijkertijd de GHz van nu niet meer zo belangrijk is als de GHz van toen.
nieuwe hardware zit nu in slechts een paar bedrijven vergeleken met meer dan een dozijn toen.

We zijn natuurlijk allemaal nostalgisch over onze jeugd, maar je wordt al snel als oude man weggezet als je doorslaat naar "vroeger was alles beter."
Ik denk dat het komt dat het stroomverbruik uit de klauwen loopt. 10 jaar geleden klaagde iedereen over de R9 290X met zijn 250W TDP, en dat is nu niets meer vergeleken met wat er nu aan verbruik door deze kaarten heen gaat. En de midrange zit daar nu inmiddels ook al ver overheen: de top-end trekt de rest van het segment gewoon mee naar boven. Het feit dat er een nieuwe kabel nodig is voor deze kaarten zegt mij ook al genoeg. Wat mij betreft gaat dit te ver.

En over dat top-end minder efficiënt en waar voor je geld: dat mag wel zo zijn, maar zelfs Formule-1 is voor zover ik weet bezig met uitstootreductie, nu ze hybride auto’s (willen) inzetten. Wat dat betreft valt Nvidia een beetje buiten de lijn van de meeste bedrijven die toch echt proberen minder te verbruiken.
Het is ook maar net wat voor koeler je erop zet: de 290 en 290X kregen in eerste instantie alleen maar de blowerkoeler van AMD zelf mee, die volgens Tweakers met zijn herrie "menig stofzuiger jaloers maakt."

250W was ook in die tijd niet ongehoord: kaarten als de GTX 580, 480 en 280, maar ook AMD's eigen HD 6970 en 7970 deden de jaren daarvoor ook al zoiets. Alleen van de 480 kan ik me herinneren dat er ook commotie door ontstond - wederom door een gebrekkige standaardkoeler. Overigens doet de 290X volgens Techpowerup zelfs 290W, maar zo groot is dat verschil natuurlijk ook weer niet. Ik vermoed dat die 290W voor de "über mode" wel klopt.

EDIT: Terzijde: de F1 rijdt inderdaad al sinds 2009 (invoering van het KERS-systeem) met hybrides ;). Sinds 2014 is het hybridesysteem flink uitgebreid en ook verplicht.

[Reactie gewijzigd door SterkeYerke op 7 januari 2025 18:13]

Ja, dat is natuurlijk ook wel zo. Dat koelers op GPUs een stuk groter van formaat zijn geworden juich ik wel erg toe. Alhoewel ze nu soms wel érg groot worden door de gigantische TDP’s.

Met de GPUs van toen ging dat niet echt meer qua geluid. Moet zeggen dat ik blowers stiekem altijd er wel gaaf uit vind zien. Grappig genoeg bestaan er wel nog steeds blower-stijl kaarten, zelfs een blower RTX 3090…
Maar ik dwaal af: inderdaad, de 7970 was ook al 250W, en de R9 290 ook. Verkeerd onthouden dat de 290X nog hoger ligt.
Hoe dan ook blijf ik er wel bij dat ik het verbruik nu wel heel heftig hoog vind. Naast de nieuwe vereiste stroomkabel zijn we ook op een punt zijn gekomen dat zo’n GPU-pilaar noodzakelijk is vanwege de nu té zware GPU-koelers…!

En grappig van F1 dat het al zo lang is: ik ben betrapt dat ik het niet heel erg volg ;) ik dacht dat het juist onlangs in het nieuws was dat ze het nóg meer wilden toepassen.
Efficientie is ook een maat voor technische verbetering.
Wat leidt tot meer headroom voor clock speeds. Snap niet dat er zo makkelijk over dat argument heen gestapt wordt door de nvidia aanhangers.
Twesker staat vol met energie topics, al jaren. Tweaken om energie te besparen is ook tweaken.
Technologische vooruitgang is ook energiezuiniger met betere prestaties te kunnen omgaan, in plaats van de consument om de tuin te leiden. Bovendien zijn er nog een paar dingen om aan te denken, hoger energieverbruik is meer kosten, hogere temperaturen die gekoeld moeten worden, meer voorkomende gevaren voor problemen met kabels en brand, vernieuwde PSU`s nodig, en dan kun je nog wel even door gaan... Ik zie dit als een slechte trend!

Waarom bedrijven niet een energie + prestatie marge opleggen om echt nieuwe producten uit te brengen. Zodoende zijn we klaar met de overproductie van onzin upgrades die elk moment uitkomen, die geen mens meer kan volgen (wordt elke jaar erger) en ben je verzekerd dat bedrijven iets echt nieuw uitbrengen. En begin niet dat dit de markt belemmerd, want deze bedrijven kunnen best wat regulering gebruiken als je hun omzet ziet. het zou juist de markt op scherp zetten dat er weer echte concurrentie komt, in plaats van de slappe hap van de laatste jaren. we krijgen als consument kruimels voor hun monsterwinsten per verkocht product. Nu ook weer die bottlenecks met geheugen, Nvidia steekt precies een middelvinger naar ons consumenten op. Het gaat niet over klagen, het gaat over niet opgelicht worden ondertussen.
Goed verwoord. Jammer dat de content die wordt gecheckt door nieuwe tech liefhebbers wordt gepushed door algoritmen die favorable zijn voor nvidia. Zodoende zal de massa deze conclusie niet trekken.
Inderdaad, bij een topmodel klaag je NOOIT over verbruik of kosten. Prestaties is wat je wilt. En die zijn zeker hoger dan de 4090, gezien de specificaties in de tabel.

En we hebben steeds meer zonnepanelen nogsteeds in Nederland, kunnen wat van die kaarten zeker geen kwaad voor het milieu. Het is toch maar een klein aantal mensen dat dat kan en wil kopen.
Dat is echt onzin, en het wordt altijd gezegd door iemand die zelf niet in het hoge segment shopt.

Mensen met serieus veel geld hebben nog steeds een hekel aan verspilling. Voor mij is 2000 euro een impuls aankoop, en toch undervolt ik mijn 4080 (niet 4090 dus, omdat ik ook dat verspilling vond) omdat ik het niet nodig vind om op fabrieksvoltages te draaien.

[Reactie gewijzigd door DutchManticore op 7 januari 2025 09:39]

Tuurlijk niet. Ik heb 64 zonnepanelen van 430wph gelegd, premium materiaal, kwh/euro verre van de meest efficiënte optie dus ik verspil in principe ook want mijn terugverdientijd is shit.

Niet iedereen met money to spend kijkt er zo tegen aan.

Mensen die niet willen verspillen kopen gewoon een 5070 en misschien een 5080. Hoe meer je de highend opzoekt, hoe slechter de value.
Mensen die niet willen verspillen kopen gewoon een 5070 en misschien een 5080. Hoe meer je de highend opzoekt, hoe slechter de value.
Altijd mooi hoe mensen alleen vanuit hun eigen gedachte kunnen redeneren

Mensen die niet wil verspillen, maar toch het beste van het beste wil hebben bestaan natuurlijk niet :z

Zelfde dat mensen altijd zeggen, als je dit product koopt, kan je ook wel dit product kopen

Als je hele duren spullen koopt, kan het nog steeds zo zijn dat je op de centen moet letten.
Wellicht wel jaren gespaard ofzo
Mwah AMD processoren waren 1% minder dan Intel voor de helft van het energieverbruik en alsnog kreeg Intel de "performance crown". Praktisch je processor in de fik steken wordt door reviewers gewaardeerd.
Even om je uit je droom van oneindig energieverbruik te halen. Ferrari probeert ook zo energiezuinig mogelijke auto's te bouwen. Volgens jaar komt ook hun eerste elektrische auto op de markt. Dat het een uitdaging voor hun is om met 1000pk vermogen verder te kunnen rijden dan het einde van de straat is duidelijk, maar het heeft zeker hun prioriteit. NVidia heeft hiervoor dus de 5070 en 5060 GPU bedacht.
Alle games hebben ook helemaal geen topkaart nodig om leuk op HD of QHD te kunnen spelen.
Fabrikanten van auto's MOETEN EV's bouwen en hybride oplossingen voor hun CO2 quota te halen.
Dit ter zijde.

Uiteindelijk maakt energieverbruik niet veel uit OP VOORWAARDE dat we natuurlijk hernieuwbare energie consumeren. Binnen de 10 jaar ging het stroomverbruik factor 5 gaan door elektrisch rijden, warmtepompen etc.

Stroomconsumptie gaat alleen maar stijgen hoor. Ja het moet zo efficiënt mogelijk maar dan moet je natuurlijk niet in het topsegment shoppen. Dat is prestige/maximum performance, niet het laagste verbruik of in het geval van Ferrari: het grootste rijbereik.
Autofabrikanten worden benadeeld op basis van hun CO2 uitstoot dus niet een hele eerlijke vergelijking. Maar tweakers klagen hier over 5090 kaarten, omdat ze de allerbeste prestaties willen met een zo laag mogelijk energieverbruik maar dat zit er gewoon niet in. Dan moet je net zoals je zegt voor een 5070 of 5060 kiezen
We zitten op Tweakers toch? Niet het energiebesparingsforum?
Hoewel ik het met je eens bent dat we hier wel zitten om technologische superioriteit, is het wel zo dat de energieprijzen van nu er wel voor zorgen dat de TCO echt wel significant meespeelt in de aanschaf.

Het verschil in stroomverbruik tussen Intel, AMD en Apple zorgt ervoor dat de TCO in dat rijtje kompleet andersom ligt als we van laag naar hoog kijken. De kosten van goede Intel processoren zitten hem niet meer in aanschaf, maar in verbruik onder load.

Hetzelfde geldt hier voor Nvidia. Helaas is het verbruik daar al tijden ondergeschikt en met de gestegen adviesprijzen (waar die van 30xx serie nog erg leuk waren), is het gewoon niet meer interessant om dit soort apparaten te kopen als hobbyist.
Efficiëntie vind je nergens bij highend performance toch?
Wel dus. Het ligt ook erg aan je workload. Kun je het hoog parallel doen met low speed interconnects dan loont het namelijk heel erg om te kijken naar ARM based devices zoals de nieuwe Mac minis.
Klopt, velen denken mee te moeten met de nieuwe series hardware, terwijl ze beter met hun budget investeren in een betere opleiding zodat ze later ook niet altijd klagen over basisbehoeften zoals energie en hun prijzen. Is idd zoals u Ferrari voorbeeld, of een familie Flodders die een chique restaurant binnen gaat en zaagt over de prijs van de Beluga kaviaar, vrij zielig, ze leven boven hun stand en niemand in hun directe omgeving die ze op de juiste pad sturen. Hun plezier en verslaving heeft controle genomen over hun priotiteiten. Dit is inderdaad de laatste forum waar men klaagt over prijzen (energie).

[Reactie gewijzigd door NorMath op 7 januari 2025 13:42]

Dat komt denk ik omdat de gemiddelde leeftijd op Tweakers aardig gestegen is
Vroeger kostte de stroom de helft en was het stroomverbruik een derde. Tevens woonde een hoop mensen in de doelgroep nog thuis en betaalden ze niet zelf de stroomrekening.
Ook is het zo dat er geen trottling en boost clocks bestonden. De producten doen dit nu dus eigenlijk gewoon vanzelf al.
Ook hoeft zeker niet iedereen hetzelfde te willen.
Het heeft allemaal te maken met het zogenaamde milieu/klimaat. Kijk maar naar AI en Crypto, hier is men daarover ook negatief want het zou veel stroom verbruiken dus slecht voor het milieu enz enz. Echter zolang de wereldpolitiek macht, status en economische belangen hogere prio geven dan het klimaat maak ik me geen zorgen. Als er echt stront aan de stront aan de knikker was dan had de politiek haar verschillen aan de kant gezet en hadden we gezamenlijk kunnen werken aan een oplossing. Maar nee, we vinden goedkope Chinese EV's niet kunnen want zogenaamd oneerlijke concurrentie, we moeten betalen voor onze eigen opgewekte stroom want anders zou een Eneco een paar miljoen minder winst maken. Vroeger was EV rijden goedkoper om het te stimuleren, nu schijnt het volgens de ANWB een EV onder de streep duurder is dan een benzineauto: https://www.autoweek.nl/a...3A%2F%2Fwww.google.com%2F

Kortom, geld, status en macht zijn de drijfveren in de huidige maatschappij en een paar klimaattoppen met krokodillentranen gaat daar echt niets aan veranderen.
Inderdaad, met zulke kaarten heb je geen verwarming meer nodig, maar in de zomer wel drie airco's die op volle toeren draaien.

Ik ben zo net overgestapt van een Nvida-kaart naar een AMD-kaart, met name een die veel levert tegen een relatief laag stroomverbruik. Ongelooflijk wat een verschil.De Nvidia leek wel een straalkachel en bij deze AMD-kaart, die nog veel meer power levert ook, moet ik nu de verwarming aanzetten.
8)7 :+ Maar ben je nu niet duurder uit, omdat je de verwarming moet aanzetten? welke vermoedelijk het hele huis verwarmt? :+ 8)7
Daarbij zal die verwarming zeer waarschijnlijk op gas werken waar je nu zeker de hoofdprijs voor betaalt.

In mijn vorige woning had ik mijn pc onder de thermostaat staan. De (vloer)verwarming (gasgestookt), sprong bijna nooit aan. De warmte van de pc was meer als de 20 graden van de thermostaat. Aangezien ik alleen was, kleedde ik me wel wat warmer.

Overdag stond de pc niet aan, want werk. 's-avonds daalde de temperatuur langzaam in huis maar had ik er geen last van.
Waarom vind je dat stroomverbruik zo belangrijk? Het ding gaat niet constant volle bak draaien.

En zelfs al zou dat zijn is het nog geen 15 cent per uur aan stroom met een dure kwh prijs. (Het verschil met een zuinigere gpu is echt een paar cent)

Zelfs als je 10 uur per week gamed is dat niets.
Het is eerder rond de 23-27 cent per kWh. Jij kijkt naar prijzen inclusief btw, maar niet inclusief energiebelasting.
Ja maar 600 watt is geen volle kWh. Ik ging uit van 25 cent per kWh x 0,6 = 15 cent.

Komt nog bij dat het ding bij lange na niet de volle 575 watt zal benutten het meeste vd tijd (zelfs mijn 4090 haalt zelden de 400 watt). Laten we zeggen 450 watt gemiddeld. Dan zit je op iets meer dan 11 cent per uur.

Zelfs dat is niet het hele verhaal, want als je geen 5090 zou gebruiken maar een andere kaart zou je alsnog stroom verbruiken.

Laten we een verschil van 200 watt rekenen (wat waarschijnlijk niet het geval gaat zijn in de praktijk). Dan zit je maximaal op 5 cent extra stroom kosten per uur. Als je 10 uur gamed per week kost je dat 50 cent extra.

(En dat moeten echt zware high-end games zijn die de ray tracing cores aanspreken, etc. Want bij de meeste games zal het ding nauwelijks iets hoeven te doen. Bij een aantal non RT games die ik speel springen bij mijn 4090 de fans niet eens aan als ik de framerate op 120fps limiteer 😅)

Dat is niet de moeite zou ik zeggen, niet bij een kaart van 500 euro, maar zeker niet bij een kaart van 2360 euro.

[Reactie gewijzigd door DLSS op 7 januari 2025 17:33]

Het gaat denk ik meer om efficientieverbetering. Je zou verwachten dat een nieuwe generatie een flinke verbetering in performance/watt oplevert. Als de effcientie niet verbetert, betekent het gewoon dat ze de limieten van de chips hebben weten op te rekken m.b.t. maximale belasting en daarme ook meer performance er uit weten hebben te persen.

Persoonlijk ben zou ik liever geen verdere toename in verbruik (Watts) mee zien. En dat staat los van de marginale kosten die het voor mij zal betekenen voor die paar uurtjes dat de kaart op volle toeren draait. Maar meer vanwege het totale stroomverbruik dat met deze kaarten wordt vebruikt.

Daarmee samenhangend: Nvidia wordt veelal als een van de beste bedrijven gezien wanneer het over ESG gaat. Maar als je kijkt naar de scope 3 belasting van de producten die Nvidia verkoopt, dan wordt je daar niet per se blij van.
Als we allemaal zo denken gaan we er nooit komen, natuurlijk 8)7
Die 600W moet je ook weer gaan koelen wil je,je slaapkamer op een aangename temperatuur houden.
Het is toch compleet absurd dat we een bedrijf alles Apple de hemel inprijzen met de hoeveelheid performance die ze weten te knijpen uit een super-zuinige core, en bij NVIDIA stijgt het weer keer op keer.
Ander product. Dit is een product gericht op pure performance voor desktop PCs. Die Apple chips zijn top voor laptops maar komen grafisch in de verste verte nog niet eens in de buurt van een 4090, laat staan een 5090.

Schijnbaar kan ze de 5090 zelfs gekoeld worden met een kleine dual slot cooler (zie het referentie model).

Mijn MSI 4090 wordt overigens nog geen 65c in Cyberpunk 2077 met Ultra settings, path tracing in 4k en bij normale games zoals God of War Ragnarok meestal tussen de 55c en 60c dus er zit nogal wat ruimte als je bedenkt dat ze ontworpen zijn om constant meer dan 80c aan te kunnen.

Ik heb hem in mijn kantoor staan, geen last van warmte. Al zou ik het niet in een super krappe ruimte zetten.

Kortom, laat je niet afschrikken door die 125 watt extra. Het kost je hooguit 3 cent extra per uur en het ding wordt waarschijnlijk prima gekoeld. De 4090 kaarten zijn dat ook met mega veel headroom.

[Reactie gewijzigd door DLSS op 7 januari 2025 07:58]

Ik heb op dit moment een RTX3080 en die kan de hele kamer verwarmen, en dat is nog maar 300W.
mijn zolderkamertje is maar 8M2 misschien moeten we dat ook als referentie gaan opnemen wanneer we gpu's gaan vergelijken ;)
Aah ik hebt ook een zolderkamer gehad. In de zomer werd dat idd erg heet. Misschien kan je je 3080 een beetje undervolten? Nu in de winter lijkt het me wel lekker een klein kacheltje, hoeft de verwarming niet aan :p.
Heb zelf ook rtx3080. Maar me slaapkamer is met deze dagen best frisjes.
Ja het wordt wel warmer na aantal uur gamen. Dan is het geen 16 maar 18a19 graden op kamer.
Me oude rtx1080 deed me kamer beter verwarmen haha.
Ik had op mijn studentenkamer zo'n dikke airco slang vanuit de luchtuitgang van mijn compu direct naar buiten, in de zomer. Dat scheelt zo een graad of drie binnen. Aanrader! Alleen even zorgen dat het niet in kan regenen.
Kortom, laat je niet afschrikken door die 125 watt extra.
Ah ja, Wattflatie. Prima om een halve steenkoolcentrale leeg te trekken, als je het maar in stapjes van 125W per generatie doet. Dat is natuurlijk een drogredenering.

600W is 600W, en dat is voor één desktopcomponent voor consumentendesktops voor zover ik weet (weer) een nieuw record.

[Reactie gewijzigd door bwerg op 7 januari 2025 08:28]

Wattflatie kende ik nog niet. Bestaat er ook zoiets als Terraflops-armoede? Heb een videokaart van 10 jaar oud :+
Terraflops-armoede is best wel een aardige term ;)
Kunnen we ook nog obesitas kaart eraan toevoegen. Als je zo'n 4090/5090 ziet zijn het flinke dikkerds die weleens naar de dokter mogen.
Net niet?

De reference kaarten gaan blijkbaar (eindelijk) gebruik maken van vapor chambers met 5 heatpipes.

Wat wil dit zeggen? 2-slot kaarten ipv 3 zijn mogelijk, zelfs voor de 5090.
Wat een gejank om niks zeg. Hoeveel procent van de bevolking koopt zo'n kaart en gamet daar uren per dag op.

Jij gebruikt ook geen magnetron zeker?
En mijn magnetron verhoogt de temperatuur van mijn zolderkamer en het geluid van mijn desktop-fans terwijl ik aan het gamen ben? Tegenwoordig zijn de topics over te hete en throttelende hardware schering en inslag. En leuk dat deze GPU met een triple-slot cooler nog goed gekoeld blijft, maar die warmte wordt daarna gewoon doorgestuurd naar de CPU, die tegenwoordig ook zijn 200W bij gaming kwijt moet (hoi Intel), en dat lukt niet met voorverwarmde lucht.

Een magnetron gebruik je trouwens doorgaans niet meer dan 5 minuten, en dan heb je met 800W een flinke avondmaaltijd verwarmd. Als je een uurtje op deze GPU gamed zit je daar qua energieverbruik een factor 9 boven.

[Reactie gewijzigd door bwerg op 7 januari 2025 09:40]

En sommige mensen rijden in een elektrische auto, wat verbruikt dat wel niet? En Bitcoin en AI? Daar is het echt peanuts bij, verwaarloosbaar.
Leuk, maar je negeert dat mijn klachten over warmteproductie, geluidsproductie en throttling gaan, niet over energieverspilling.

Verder is het natuurlijk een behoorlijke whataboutism. Ja, bitcoins zijn in deze hoek ook een heel slecht idee, en overal AI tegenaan gooien soms ook. Nou en?
Misschien gebruiken sommige mensen het als bijverwarming in de winter en spelen ze in de zomer buiten? :)

Ik zit echt te wachten op een videokaart die prima bang for buck geeft, maar genoeg heeft aan alleen de PCIE lane voor de stroomvoorziening, zoals 'vroeger' met m'n 1060. Die gaf toen een prima game ervaring en qua verbruik was het gewoon wisselgeld. Nu game ik niet zoveel meer, maar met vier kinderen die dat juist wél wat meer willen gaan doen, is een beetje zuinigheid geen overbodige luxe. :)
vroeger?? ik gebruik mijn 1060 nog steeds hoor :D prima kaartje
idd ,

mijn 1060 gaat als een malle in alle games ik heb nog lang geen upgrade nodig.

Het is een luxe probleem dat iedereen op 4K super duper ik zie het verschil niet maar wil wel pronken met me pc wil gamen. en dan klagen dat het veel duurde is dan console terwel men daar wel genoeg neemt met HD kwaliteit.
Heb in mijn vakantieverblijf nog altijd een 10 jaar oude 980ti i7 6700 staan waar ik vorig jaar Elden Ring, Baldurs Gate en Hogwarts op gespeeld heb, weliswaar medium settings en 1080p, maar nooit 1 fps onder de 60, zalige kaart ook
Tja ik ben heel erg pro klimaatveranderingsmaatregelen maar dit is alsnog wel een irrelevant dingetje ten opzichte van auto rijden met verbrandingsmotoren, vliegen, vlees (van met name grote dieren) eten, kinderen nemen, etc. etc.

Het beste kan men helemaal niet in Nederland wonen maar dichterbij de evenaar gaan wonen, want het verwarmen van een huis met zo'n 20 graden ten opzichte van de buitentemperatuur in de winter is echt veel en veel energie-intensiever dan bijv. met airconditioning (wat per definitie al warmtepompen zijn) een huis een paar dagen verkoelen, of een apparaat met 600 watt in je huis hebben staan dat vaak maar een paar uur per week op die intensiteit draait.
Bij Nvidia krijg je wel 75x meer prestaties dan wat Apple leverd op GPU gebied. Je kunt Apple niet met Nvidia vergelijken.
Voor sommigen is Apple heilig verklaard en beter dan het beste wat er is.
Het ging hem om het principe. We moeten streven naar minder verbruik en toch een beter resultaat iets dat Apple met zijn cpu’s wel degelijk gedaan heeft.
Nouja, die apple gpu komt dan ook nog bij lange na niet in de buurt zelfs van de huidige GPU's.. dat is dus sowieso appels met peren vergelijken.
Klein beetje respect mag wel :( Niet iedereen heeft een woning met kamers op overschot.
Omdat 50% minder verbruik óók betekent dat je 50% meer prestaties hebt bij *hetzelfde* verbruik :)
Zo werkt dat niet. Ik kan gemakkelijk mijn verbruik van mijn huidige 4090 verdubbelen zonder enige prestatie winst te krijgen.
Dat is niet helemaal wat ik bedoelde - ik bedoelde: als een fabrikant van hardware het lukt om dezelfde computing workload met de helft van het vermogen uit te voeren, kunnen ze dus ook de hardware verdubbelen, en dus twee keer zoveel performance hebben, voor hetzelfde vermogen. Over product generaties heen zegmaar.
Je maakt een klassieke rekenfout, maar gelukkig verbeter je jezelf onbewust. Als je 50% minder gaat verbruiken voor dezelfde prestatie kan je dus twee kaarten inzetten voor het oude verbruik wat inhoudt dat je 100% prestaties winst hebt. ;-)
Dan ga je wel even uit van 100% schaling. Wat bij GPU's nog redelijk lukt ook (bij CPU's zeer zeker niet), maar helaas gaan de productiekosten van je GPU dan ook richting de factor 2.
Als ze dat konden dan zouden ze dat ook echt wel doen, zeker omdat de grote markt van nvidia serverhardware is, en daar is verbruik een stuk belangrijker. Maar de vraag van klanten is om meer prestaties niet zozeer om veel minder verbruik.
Aan iedereen die wel een 5090 gaat kopen, eerste wat je doet is wat undervolten. Heb je al zoveel extra watt verbruik meteen te pakken.

Ik zie die 600 watt niet als een probleem. In de winter kan zeker de kachel uit op je game kamer. Ik speel zelf Elden Ring op Playstation op het moment en het is prima in de kamer. Niet koud, noch warm.

En in de zomer hoor je bier ergens buiten te drinken. Niet op een zolderkamer te vertoeven. En dan nog 90% van het jaar is het helemaal niet zo warm weer in Nederland. Genoeg game weer in een jaar.
Game weer is het bij mij ook, als het 30+ graden is.
Nou, dat is jouw mening dat je in de zomer bier ergens buiten hoort te drinken, ik ben het daar totaal niet mee eens.
Omdat PC's ook compacter en energiezuiniger worden.
Ik zie al die glas kasten alleen maar groeien in grootte. En dan stoppen mensen AIO met een 10 tal fans erin. Een 5090 ziet dat zeker niet als belemmering.
Je realiseert je ook dat de markt groter is dan alleen super-high-end-gamers en overclockers?

Nu is een 5090 wel een behoorlijke krachtpatser maar je moet het vooral vergelijken met dezelfde kaart van de vorige generatie. Dan heb je het over een toename van 125W, en dat is een derde meer dan de 4090.

De vraag is dus vooral of de kaart ook efficiënter is geworden en je dus méér dan een derde aan extra FPS krijgt voor een kaart die een derde meer stroom verbruikt. Anders is de kaart niet efficiënter maar alleen groter.
Ja en die grotere markt die koopt toch ook geen 5090?

Je spreekt jezelf hier dan wel tegen toch?
De andere kaarten zijn ook omhoog gegaan in stroomverbruik en TDP.
Met ook meer grafische power.

Dus je kijkt nog steeds naar absolute cijfers ipv performance/watt ?
Dat is toch precies wat ik zei? Als het meer FPS per watt oplevert, prima, maar als de performance alleen maar met het wattage mee schaalt dan heb je het alleen maar over een grotere, niet efficiëntere kaart.
10 uur per week is best weinig, hier staat de pc tussen de 40 en 45 uur per week aan, wel met meerdere gebruikers. Zit nu een 3060 in en een Ryzen 7600 non X heb gemeten wat dat me 2024 heeft gekost. Gemiddelde prijs van 1 kwh is was overigens over 2024 34 cent en geen 15 cent momenteel betaal je gemiddeld 32 cent. Iedereen heeft natuurlijk zijn eigen contract en kan dus wat meer of minder betalen maar 15 cent lijkt me een sterk verhaal. Maar goed in 2023 koste de pc mij 93,- aan electriciteit. Als ik mijn verbruik als percentage van de TGP pak en reken dan een 5090 uit zou een pc mij ongeveer 250,- per jaar aan stroom kosten. Dan ga ik er wel vanuit dat andere componenten niet meer gaan verbruiken dus nog steeds een 65W cpu als de huidige 7600. Nou val ik niet om van 250 euro per jaar maar als ik dat voor elke uitgave ga doen dan komt op een gegeven moment wel de bodem in zicht en er zijn meer leuke dingen waar ik graag geld aan uitgeef dus ik vind de huidige kosten meer dan zat.
Vroeger waren je ouders degene die de energiekosten betaalden, wat betekende dat je zelf weinig tot geen zorgen had over de hoogte van deze kosten. Tegenwoordig ben jijzelf verantwoordelijk voor het betalen van de energiekosten, en die zijn de laatste jaren flink gestegen. De prijs van energie is enorm toegenomen, wat voor veel mensen een zware last vormt. Daarom kan ik goed begrijpen dat er steeds meer vraag is naar energie-efficiëntie. Het streven naar het verlagen van energieverbruik en het verbeteren van de energieprestaties van onze woningen en apparaten is nu belangrijker dan ooit, zowel om de kosten te beheersen als om bij te dragen aan een duurzamere toekomst
Precies. Deze kaart zou met flinke under volt en underclock nog steeds 3x zo veel gebruiken als mijn huidig 6900xt met underclock/volt. Dat verhoogt de kosten voor gebruik voor 5 jaat met zon 1500 kWh in mijn situatie plus de hogere idle van nieuwere kaarten zit je op 1700 met een gemiddelde prijs van 30 cent over die tijd verhoogd dat ge prijs voor dit product ten opzichte van oude met ruim 500 euro of 100 euro per jaar.
Ik kan je hier geen ongelijk in geven. Even afwachten wat de prestatie verschillen zijn. Maar als die in lijn liggen met het hogere verbruik dan is er dus weinig IPC verbetering deze generatie. In plaats daarvan is het zoveel mogelijk cores in the GPU proppen en meer vermogen er doorheen jagen.

En met meer vermogen is het altijd een luidere koeling, en ik ben niet van plan om thuis met een noise-cancelling headset te moeten gaan spelen omdat er een stofzuiger aangaat bij elke grafisch hoogstandje.
(Even los van die nieuwe stekkers... Meer vermogen door een kleiner stekker? :| )
Zoals gekend laatste jaren is het hoogstwaarschijnlijk mogelijk om deze te tweaken met behoud van 95% van zijn performance met 100-150W minder verbruik door paar sliders aan te passen.
Het moet out of the box mooie cijfers geven in de reviews maar menig tweaker die 5090 aanschaft zal wel beetje rommelen in de settings in afterburner als dat nodig blijkt.
Mijn 6900xt draait ook op een 155w lager dan stock verbruik. De 5090 met 150 minder is nog altijd 3x zo veel.
Heb je het dan specifiek over de 5090? De 5080 lijkt 25-30% sneller te zijn dan de 4080 op basis van de 2 games waar het een eerlijke vergelijking is dus daar is toch sprake van prestatie per watt verbetering? Niet veel maar ook niet niets.

Je kan zoiets pas beoordelen door beiden op dezelfde prestatietarget te zetten en te zien hoeveel Watt ze gebruiken om dit te bereiken. Of door beiden op hetzelfde verbruik te zetten en te zien hoeveel prestaties ze leveren. Hoger verbruik gaat altijd gepaard met meer inefficiëntie dus dat is geen eerlijke vergelijking. Zen 4 is op die manier ook minder efficiënt dan Zen 3 maar dat is natuurlijk niet waar.

[Reactie gewijzigd door napata op 7 januari 2025 08:46]

Cores tussen generaties kan je niet echt vergelijken natuurlijk. Laten we de benchmarks even afwachten.
Die waardes worden toch alleen gehaald als je echt alles uit de kaart haalt? Heb zelf een 4090 Heb nog nooit de 400w gehaald. Ik game wel in 1440p.
Ik ben vooral benieuwd wat de performance van die 5080 gaat zijn. Dat is de interessante kaart omdat die aanzienlijk goedkoper is dan de 4080 bij introductie. Als dat in de buurt of net voorbij die van 4090 is dan is dat een leuke update.
Ik ben vooral benieuwd wat de performance van die 5080 gaat zijn. Dat is de interessante kaart
Mij lijkt de 5070 Ti hier de interessantste van de line-up. Zelfde GPU als de 5080, evenveel geheugen en een even brede geheugenbus, enkel iets lager geklokt en wat minder cores.
Ik verwacht dat die voor 75% van de prijs wel eerder 85% van de prestaties gaat bieden van de 5080, afhankelijk van omstandigheden.
Lijkt me zeer sterk gezien:

- bijna 2000 minder cores
- lagere boost clock
- minder snel geheugen
- kleinere bandbreedte

Ik wacht op de eerste blender benchmarks en het verschil in performance met de RTX 3080. :D
Dus dat is:
  • 16.6% minder cores
  • 6.5% tragere boost clock
  • 6.6% trager geheugen
  • 6.6% lagere bandbreedte
En evenveel geheugen.

Mocht performance volledig lineair schalen, dan zou je verwachten dat wanneer de specs overall 15% lager liggen, je 15% minder performance moet verwachten.

Echter schaalt performance niet perfect lineair (dus 15% lagere specs geven geen 15% lagere performance) en spreken we hier niet over 15% mindere specs over de gehele lijn.

We gaan het natuurlijk zien in de benchmarks, maar ik denk echt dat de 5070 Ti meer value for money gaat bieden.
Lijkt me een mooi compromis. Nu nog een 5070 kopen met 12GB VRAM is niet ideaal als je een jaar of 4 met je kaart wil doen.
Helft van de prijs maar ook de helft van de cores dus of de prestaties per euro verbetering echt beter gaat zijn is de vraag.

Iets hogere clocks maar weer de halve geheugen bus.
Mja ligt eraan hoe je het bekijkt, die GPU loopt inmiddels wel rondjes om een 1080Ti die vrijwel altijd volle bak moet werken en ruim 300W verstouwd, dan kan het met de power overhead zijn met 165Hz als limiet dat de GPU netto zelfs minder verbruikt in veel spellen.

Tja wellicht ligt het net wat anders als je een 4060Ti met 16GB of iets dergelijks hebt die de meeste spellen toch wel zal draaien.

Aan de andere kant, in de winter geen warmtepomp nodig, of CV.
Ik ben wel benieuwd hoe een gpu als dit een game als bijvoorbeeld WOW speelt.
Want mijn 6900xt met 110 fps capped (cpu haalt niet meer) gebruikt 55-75 watt. Ik gok dat deze architectuur veel minder zuinig gaat zijn.
kan Nvidia niet gaan samen werken met lightmatter.co silicon photonics in de chips bouwen misschien is er dan minder stroom nodig....
Mensen moet een beetje meer nuchter naar de specificaties bekijken. 5090 tov van 4090 gaat er meest op voorruit maar de rest is qua corecount , Ghz , memory ,processnode een mooie evolutie , maar nu ook weer niets dat me verbaasd. Memory bandwith is enige specificatie waar een echt indrukwekkende sprong wordt gemaakt.

Dus als NVIDIA zegt 4090 performantie voor de 5070 , kijk even naar de specificaties 16.384 Ada cores versus 6144 Blackwell cores. Met een meer efficiënt procedé van TSMC maar ook hier weer een normale kleine sprong voorwaarts. Dus verwacht veel **********

[Reactie gewijzigd door soulieke op 7 januari 2025 05:46]

Die opmerking van 4090 performance bij de 5070 moet ook de kanttekening niet bij vergeten worden dat het daarbij gaat om de nieuwe DLSS met multi-frame gen. De 4090 framerates worden dus behaald met AI-generated frames.
Idd en m.a.w. geen echte performance. Mensen lijken zich echt veel te veel vast te pinnen op dat fps nummertje zonder erbij na te denken dat dat niet de enige factor is dat een goeie gameplay ervaring veroorzaakt. Dit is echt (weeral) heel misleidende marketting van nvidia. Nu word dus 3/4 van hun "performance" volledig fake gegenereerd.

Daar komt dan nog bij dat die 5070 veel te weinig vram heeft om die feature fatsoenlijk te kunnen gebruiken in recente games

[Reactie gewijzigd door SVW1986 op 7 januari 2025 10:22]

Fake performance is ook gewoon performance. Als ik cyberpunk speel maakt het mij niet uit of frames "echt" of "nep" zijn zolang de ervaring maar vloeiend en goed is.
Als je framegen gebruikt met een base framerate van 30fps ga je misschien naar 50fps en lijkt alles vloeiend zoals je wil... maar door de overhead van het calculeren van die extra frames zal je spel dus basically aanvoelen als 25fps... en dus enorm veel input lag hebben.

Die extra frames die je ziet en vloeiend aanvoelen zijn ook niet responsief of gaan dingen achter hoeken vandaan toveren.

Goed dat je dat zelf ok vind... maar die games gaan dus echt niet vlot aanvoelen en dus even goed draaien als een vierkant wiel.

Dus ja die "performance" waar je niet om geeft of die echt is want maar 1 getalletje telt is echt veel te kort door de bocht geredeneerd.
Als je oud bent heb je daar minder last van je reactie vermogen neemt toch af.

En Cyberpunk is een single player game dat je speelt om het verhaal en de wereld het is geen Counterstrike.
Nope, van 30 fps naar 50 fps is maar een interpolatie van minder dan 100% (2/3 zelfs). En interpolatie is ongeveer een orde-grootte efficienter, dus 30+20 is ongeveer equivalent aan 32 fps raw. Input lag is een aandacht van zorg, maar daar heeft de 5090 Reflex2 voor.
Op een top-of-the-line model verwacht ik gewoon echte frames. Framegen is meer een verbandje voor de lower-end kaarten. Nvidia doet maar al te graag alsof dit niet zo is.

Ook zijn er genoeg (indie) developers die hun game bouwen op frame-gen en DLSS. Slechte ontwikkeling.
Hoewel ik het eens ben met je comment, snap ik voor de rest niet so goed wat je met “echte” frames bedoeld?

Hoe ik het zie is dat alle frames toch “nep” of “echt” zijn? Zowel met of zonder Frame Generation.
De “echte” frames waar jij het over hebt word ook gerendert/gemaakt door de videokaart. Dus hoe maakt dat het “echter” dan de frames die komen vanuit Frame Generation? Beide zijn toch “gemaakt” door de videokaart?
Echte frames worden gemaakt door de render engine. Neppe frames door de interpolatie op de GPU zelf wat kan leiden tot artifacten en input lag. Het is een prima oplossing als je met een mindere of oudere GPU vloeiend een spel wilt spelen, daar niet van.
Ik snap hoe het werkt. Alleen dan vind ik dat echte frames net zo nep zijn als neppe frames.
Makkelijkst uit te leggen is bijvoorbeeld een doos die door de lucht vliegt. Op de echte frames is die doos ook echt daar; als je er op richt en schiet dan raak je die doos. Op een neppe frame hoeft die doos daar niet te zijn; als je er op schiet dan mis je 'm.

Niet 100% hetzelfde maar kijk eens naar deze demonstratie over NVidia G-Sync Pulsar. Als je de video pauseert en focust op de antenne, dan zie je op de bovenste video twee echte frames: de linker antenne is waar die was, de rechter antenne is waar die nu is. Op de onderste deel van de video zie je een neppe frame met één antenne geplaatst in het midden (met artifacten maar dat terzijde) van waar de antennes normaliter te zien zijn. Als je op die antenne zou schieten dan schiet je dus mis.

Dit is natuurlijk een overdrijving, maar vraag menig gamer maar eens naar momenten waarvan ze dachten dat ze raak schoten, maar het niet raak was, waarbij ze net één pixel ernaast zaten.
Vind ik persoonlijk niet goed genoeg argument. Aangezien netwerk ping etc. dit probleem meestal veel erger heeft. Waardoor je ook weer in theorie kans hebt dat frame gen dat juist weet compenseert in een multiplayer game en je juist raak laat schieten. Dus gemiddeld kom je uiteindelijk op hetzelfde neer.

Als netwerk ping ervoor zorgt dat je de enemy net een aantal pixels links laat zien dan dat hij daadwerkelijk staat, kan frame gen er juist voor zorgen dat je diegene een aantal pixels rechts ziet staan. Waardoor je daadwerkelijk degene op de juiste positie ziet staan. Kan natuurlijk ook andersom, waardoor het effect nadeliger is.

Als pro gamer zou ik frame gen ook niet gebruiken. Maar een lekker potje CoD? Zet ik het wel aan hoor. Liever lekker 120 FPS spelen op mijn 144Hz scherm dan 50 FPS.

Daarnaast voor mijzelf raak ik veel minder als ik onder 60 FPS speel dan boven de 60 FPS met frame gen. Omdat ik gewoon niet normaal lekker een shooter kan spelen onder de 60 FPS.

[Reactie gewijzigd door Ricco02 op 8 januari 2025 15:04]

Helemaal mee eens ook. Ik ontken niet dat ik aan het mierenneuken ben. Mijn argument is meer dat het voor komt, en dat ik bang ben dat het nog veel erger wordt, dat spellen ontwikkeld worden op deze opties, waardoor de optie een vereiste wordt.
Zeker mee eens. Maar wat nou als dat simpelweg de ontwikkeling is waar we heen gaan?

Wat als over 300 jaar alle games volledig AI gerendert/generated zijn doormiddel van een soort DLSS. Is dat dan zo erg? Het is dan gewoon een nieuwe standaard wat tegen die tijd gewoon waarschijnlijk hardstikke goed werkt.

Voor nu, zeker mee eens dat games er niet teveel op moeten gaan leunen.
Precies dit. Waarom zou ik op native spelen als de ervaring minder is?
Ik vind dit dus uiterst interessant.

Nu is het niet nieuw dat bedrijven nieuwe technieken aan je proberen te verkopen als veel beter dan het werkelijk is, maar ze doen dit nu bij de 5070. Ze zeggen letterlijk dat de goedkoopste (al voelt het raar om goedkoopste te zeggen, wanneer we het over de 600 euro hebben) kaart, straks vergelijkbaar is met hun huidige duurste kaart.

Ik vind dit echt een grote uitspraak, want ja, claimen dat je nieuwe generatie een stuk beter is, is niet raar. Maar wanneer jij dit hoort als 4090 eigenaar, dan voelt dit nogal wrang. Dat een 5080 het vergelijkbaar doet tot een 4090, dat begrijpen mensen wel, maar de 'goedkope' 5070 (die tevens een stuk zuiniger is), dan ik denk dat mensen hier wel moeite mee gaan hebben.
Zag een week geleden nog dat 4090's nog voor 1000+ dollar gingen tweedehands.

En natuurlijk heb ik ook die vraag van hoe goed die werkelijk is tov een 4090, maar als dit echt minder is, dan is de vraag, waarom die claim maken over de 4070, waarom hier mogelijk een hoop mensen boos over maken?

Ik zou dan eerder hebben gekozen over een percentage verbetering tegenover de vorige generatie van dat model, dus 5070 vs 4070, dan gaan mensen alsnog rekenen, maar deze statement van 5070 is vergelijkbaar met de 4090, is wel een pittige voor veel consumenten die deze kaart hebben.
Ligt het aan mij of voelt de 5080 als een kleine upgrade van de 4080 en dat Nvidia je op deze manier naar de 5090 probeert te pushen?

Voelt toch als een magere upgrade in een twee jarige cyclus tov de 4080, zeker aangezien het hoeveelheid geheugen even groot is. (Ik weet dat er meerdere factoren zijn die de prestaties bepalen).
Ben benieuwd naar de benchmarks, misschien worden we positief verrast!

[Reactie gewijzigd door CuBras op 7 januari 2025 05:25]

De 5080 is sneller en goedkoper, dat is wat mij betreft een meevaller (mijn verwachting was dat ze allemaal een stuk duurder zouden worden bij gebrek aan concurrentie van AMD)
Technisch gezien klopt het wat je zegt, totdat je het volgende overweegt:
RTX4080 werd gereleasd met een abnormale MSRP van 1469 euro.
Dit is een prijsverhoging van 100% t.o.v. de MSRP van zijn voorganger, namelijk de RTX3080 (á 720 euro MSRP).

Door nu dus te claimen dat de RTX5080 goedkoper is, omdat deze een lagere MSRP heeft dan de RTX4080 is een kortzichtige claim en komt voort uit manipulatie vanuit Nvidia.

Nvidia wist overigens dat deze MSRP van 1469 abnormaal was, en kwam hierop terug door een RTX4080 Super uit te brengen. Waarbij de 'Super' variant van een Nvidia kaart normaliter een technisch verbeterd product is, was dit niet aan de orde bij de RTX4080 Super (+-5% performance uplift & soms minder t.o.v. RTX4080).

De doelstelling van de RTX4080 Super was vooral om een prijscorrectie door te voeren, omdat de RTX4080 slecht verkocht werd (omdat deze zo bizar hoog geprijsd was, 100% duurder dan zijn voorganger).

Onder de streep hebben we alsnog in nog geen 3 jaar tijd tussen de RTX3080 (release date 17 augustus 2022) en RTX5080 (release date 31 januari 2025) een prijsverhoging moeten verteren van bijna 59%. Een deel van deze prijsverhoging is te verwijten aan inflatie en dollar/euro koers, maar lang niet de volledige 59%.
Consumenten/Tweakers, wees hiervan bewust wanneer je een nieuwe RTX5080 overweegt.
In praktijk valt dat mee. De introductieprijs van de 4080S die al een jaar te koop is lag lager. Ik ben zelf ook wel benieuwd naar de sprong van de 4080(S) naar 5080 qua performance. Ik vind het krom dat er “maar” 16GB VRAM aanwezig is maar als dat in de praktijk niet zo veel uitmaakt en de performance echt zo veel hoger is zoals Nvidia zelf schetst is het een mooie sprong.
Hoe kom je daarbij? Zowel RTX 5080 als RTX 4080 Super hebben een MSRP van $999.
De MSRP van de 4080S is/was bij introductie hier in Europa 1119 euro. De 5080 kost 1190 euro.
Ah zo, dank voor de opheldering! Persoonlijk kijk ik niet snel naar europrijzen als baseline, want die zijn sterk afhankelijk van de wisselkoers en externe factoren zoals de komende US tariffs.
We zullen de reviews af moeten wachten. Maar op voorhand lijkt het niet super tegen te vallen.
Heel eerlijk. Ik vind 16GB RAM op de 5080 wel erg tegenvallen. Zeker aangezien de 5090 32GB VRAM heeft.

Was genoeg ruimte om er 20 GB VRAM van te maken, dan heb je ook nog ruimte tussen 20 en 32GB VRAM om een 5080 Super en Ti ertussen te zetten.

Voelt heel erg als expres de kaarten snel genoeg obsolete maken om mensen later te laten upgraden naar de 6000 series.

Je kan de VRAM so snel maken als je wilt, maar dat dekt niet het probleem van te weinig VRAM hebben.
Ja dat had wel wat meer gekund op dit prestatieniveau omdat je eerder aan 4k gaming denkt als je een 5080 koopt.
Exact mijn gedachte. Ik had op zijn minst 24GB verwacht bij de 5080. Als je nu meer dan 16GB wil, moet je automatisch richting de 2000 euro uitgeven. Nee bedankt.
Geeft te kennen hoe hard 20GB of 24GB toch niet nodig is. Het is nu sneller 16GB geheugen, dat helpt ook veel. GDDR7 is wel een sprong voorwaarts. Belangrijker nog dan bandbreedte is totale doorvoer in een tijdseenheid. Dat is wat een GPU echt verwerkt.

960GB/s tegen 716,8GB/s voor de 5080/4080 (beiden 16GB). Daarnaast is de GPU zelf ook sneller en de boostklok ligt hoger.

EDIT: GDDR7 geeft dus 34% geheugen snelheidstoename opzich al.

[Reactie gewijzigd door kujinshi op 7 januari 2025 09:48]

Dit geeft meer aan dat ze rekening houden met AI/LLM gebruik en hun AI chip.
Iemand die lokaal een LLM model wil draaien heeft veel meer aan meer geheugen, dan aan GPU snelheid. De 5080 heeft dus een beperkte voordeel tov een 4080 (beide max 16GB). Wil je dus meer geheugen moet je naar de 4090 (met max 24GB) of de 5090 (met max 32GB). Beide een stuk duurder.

De 5090 lijkt dus 'maar' een kleine 8GB extra aan te kunnen tov de vorige generatie. Gezien de rest van de cijfers lijkt het erop dat het enkel een dubbele 5080 is. Hadden ze de mogelijkheden van de 4090 in de 5080 gezet, dan zou die 24GB aankunnen en de verdubbeling bij de 5090 op 48GB uitkomen.
Voor veel gamers niet nodig. Maar voor VR of AI/LLM gebruik zou dit toch een goede verbetering brengen.
Gezien de bakken met 8 GB kaarten, en ook een niet te verwaarlozen aantal kaarten met 10-12 GB, kunnen we veilig er van uit gaan dat 16 GB nog jarenlang voldoende gaat zijn. Game makers gaan niet 98% van hun doelgroep opgeven.

Dat gezegd hebbende, het voordeel van een 20GB kaart zou wel zijn dat je bus ook 25% breder is, en dus 25% meer bandbreedte.
Mee eens. Maar in meer recentere games red je 4K ray tracing zonder lag nu al niet meer op 12GB VRAM. Laat staan 16GB VRAM over een jaar of 2.

Ray tracing zuigt VRAM, een hoge resolutie ook. Waardoor deze combinatie op de 5000 series bijna exclusief 5090 is wil je goeie frames halen.

Alleen DLSS kan hierbij dan nog helpen. Maar dan moet de game het wel ondersteunen.
Ligt het aan mij of voelt de 5080 als een kleine upgrade van de 4080 en dat Nvidia je op deze manier naar de 5090 probeert te pushen?
Nou, ik denk zelf, maar vind vooral, dat ze de productstack simpeler maken. Meer zoals vroeger waarbij je de x080 had en dan een exclusieve Titan-achtige kaart met beestachtige specs voor een beestachtige prijs.

En dat zie je ook terug bij de 5080 en de 5070TI. In het verleden was de x070 altijd meer bang for buck omdat die zeer dicht op de x080 specs lag. Ook dat zie je nu weer terug. Zelfde GB203, zelfde geheugen bus, evenveel geheugen, alleen minder cores. De 5070TI zijn afgekeurde 5080s...
Dat was ook precies mijn gedachte. Qua prijs lijkt de 5080 nu ook niet het ondergeschoven kindje te zijn. Helft van de specs, helft van de prijs.

Ik hoop vooral dat in de reviews de 5090 niet zozeer als benchmark meer genomen zal worden, maar eerder als de buitencategorie die het werkelijk is. Indrukwekkend, maar niet bepaald de norm.

De naamgeving van de 5070 Ti is wel interessant. Vorige generatie kreeg Nvidia een hoop kritiek voor hun “4080 12 GB”, nu brengen ze daarentegen een 5080 SE uit op als 5070 Ti. Terwijl de reguliere 5070 een gekrompen chip meekrijgt en minder geheugen.

Ik ben benieuwd naar de benchmarks maar mijn persoonlijke hype is vrij laag. Ik ben eerder benieuwd naar wat AMD ten tafel brengt. Concurrentie zal deze markt goed doen.
Dat valt nog tegen. In de Steam Hardware Survey zijn er meer 4090's dan 4080/4080 SUPER. Dus blijkbaar is de 4090 toch de norm tussen die 3. Dat zal dan voor de 5090 vermoedelijk niet anders worden.

https://store.steampowere...e-Survey-Welcome-to-Steam
NVIDIA GeForce RTX 4090 1.16%
NVIDIA GeForce RTX 4080 SUPER 0.94%
NVIDIA GeForce RTX 4080 0.90%
De 4080 en 4080 Super zitten in hetzelfde segment, sterker nog: de ene verving de andere mid-generation. Hun cijfers moet je dus bij elkaar optellen.
Zo dacht ik ook, dat maakt de 4080 uitkomend op 1.94%. Meer dan de 1.16% van de 4090.
Je moet het wel in het juiste perspectief stellen: https://www.techpowerup.c...eForce+40&sort=generation

De reguliere 4080 was expliciet zo geprijst dat deze totaal oninteressant was. Als je toch al 1000 EUR+ stuk kon/wou slaan op een GPU, was de 4090 de enige logische keuze, omdat de 4080 zo was gepositioneerd om de 4090 tot prijspakker / kiloknaller te maken.

De 4080 Super kwam 15 maanden later op de markt.

Daarnaast zijn GPU's in het 60-segment met afstand de populairste GPU's. De 4090 is letterlijk de top 1% van de markt. Al is dat laatste ook niet geheel waar, omdat onboard graphics van laptops / workstations de lijst vervuilen, maar dat doet niks af aan mijn punt.
juist het omgekeerde, door een etreem duur top segment lijken de prijzen van de mid range 5060-5070ti mee te vallen. Daar zit de grote winst, niet die enkeling die meer dan 5080 kan kopen.
Laten we eerst eens rustig de reviews afwachten, want obv specs is er nog niet zoveel te zeggen, want de nieuwe hardware kan rustig een stuk beter geoptimaliseerd zijn waardoor het met minder, meer kan presteren.
Kunnen we niet de SUPER modellen in de vergelijkingstabel zetten? Een 5080 kost namelijk hetzelfde en heeft evenveel ram en bijna dezelfde hoeveelheid cores als de 4080S.

Ik ben benieuwd wat game ontwikkelaars gaan doen met de nieuwe prestaties en features. Gezien de staat van AAA heb ik er niet veel vertrouwen in. Nou ja, in elk geval kan mijn 24gb rtx 3090 nog wel ff door dan.

[Reactie gewijzigd door B127 op 7 januari 2025 10:01]

Ik voel met mijn 1440p scherm nog niet eens de behoefte om mijn 1080ti te upgraden :P
Je hebt ook de mooiste deal in een gpu ooit te pakken. De 1080 ti deed de hele 2000 serie verbleken. Alleen denk dat games vanaf 2025 wel wat zand in je motor gaan gooien.
Mijn RTX2070 tuft lekker door toch, game wel op 1080p.

Eerst nog andere zaken in de PC upgraden, dan pas de GPU.
Kunnen we niet de SUPER modellen in de vergelijkingstabel zetten? Een 5080 kost namelijk hetzelfde en heeft exact evenveel cores en ram als de 4080S.
De 4080 Super naast de 5080 bedoel je? Die specs zijn niet identiek. De 4080S heeft 10.240 cores, de 5080 heeft 10.752 cores.
De 4080 Super naast de 5080 bedoel je?
Dit. De 4080 Super is goedkoper én sneller dan de 4080. De oudere 4080 wordt overigens nauwelijks meer verkocht. Dus het is (imo) logischer om op z'n minst de 4080S toe te voegen aan de tabel.
Oh verdraaid, je hebt gelijk. 4080s is 80 SMs en 5080 is 84.
Ik ben benieuwd wat game ontwikkelaars gaan doen met de nieuwe prestaties en features
Nog minder optimaliseren en nog meer buggy games uitbrengen. Een trend die ik helaas niet meer zie veranderen. Het maakt gamen significant minder leuk.

Dit jaar viert Crysis z'n 15e verjaardag, dat was nog eens innovatie
can it run Crysis?

can it run Doom?
Nou, de prijzen zullen in ieder geval niet/nooit meer zakken. Je hoopt er elk jaar wel een beetje op met dat Nvidia wellicht weer de concurrentie uit t water zal blazen met super lage prijzen tegenover performance, maar helaas... Wellicht volgend jaar toch maar overstappen op "team red" ipv green.

Dat terzijde: het blijft nogal raar dat de "Ti" modellen tegelijk met de 'standaard' modellen worden uitgebracht. Voorheen waren de Ti modellen en daaropvolgend de "super" modellen een soort refresh modellen die afgekeurde chips van het hogere segment gebruikten en zat er zo'n half jaartje (minimaal) tussen. Daar mee hadden ze ook meteen weer een marketing circus die opgetuigd kon worden en zette hen weer in de spotlights, maar Nvidia lijkt dat niet echt meer te boeien door hun enorme succes de afgelopen jaren.
Alleen wbt de 5080 nog niet.
Daar zit qua vram en performance een bonk ruimte tot de 5090 .
Voor een ti en een super en 20+ gb vram.

Ik zou zeker geen 5070 12gb of 5080 16gb kopen.
Mijn punt ook is, al was die 5070 400 euro ipv de bijna 600 euro nu, dan was die dus wél ongelofelijk goed prijs/kwaliteit, zelfs met deze 'relatief lage' VRAM hoeveelheid. Maar nu heb je dus een kaart die al voor een te hoge prijs in de markt wordt gezet en vervolgens over 3 jaar al zichzelf 'obsolete' heeft gemaakt. Zodat je wéér bij Nvidia een nieuwe koopt.
Ik ben het met je eens.
12gb op dit segment kaarten is gewoon onzin.
Tja voor €400...
Wellicht volgend jaar toch maar overstappen op "team red" ipv green.
Niet om de onheilspeller te zijn, maar AMD doet het écht niet goed de laatste paar jaren als je kijkt naar GPU market share. Het zou me niets verbazen als ze zich uiteindelijk helemaal terugtrekken uit de PC GPU markt en zich alleen nog gaan richten op GPU's voor de Microsoft/Sony consoles. Als je wilt overstappen zou ik eerder team blue overwegen - die zijn bezig met een opmars.

[Reactie gewijzigd door IlIlIllII op 7 januari 2025 08:26]

Nou, de handheld consoles zorgen juist ook voor goede cijfers.
Ik snap niet dat mensen nog enthousiast kunnen worden van deze aankondiging. Wat is deze 'next-gen' generatie toch een treurige bedoeling in het gaming landschap. De prijzen schieten de pan uit en de graphics zijn in vergelijk met de extra rauwe performance die we 8 jaar geleden hadden er amper op vooruit gegaan.

Sterker nog, op veel vlakken ben ik van mening dat het slechter geworden met name te danken aan Nvidia en Epic Games. Leuk hoor, al die hype rondom Lumen, Nanite en Raytracing, maar in de praktijk presteren Lumen en Nanite onder de maat en is Raytracing nog te lage kwaliteit en dus hebben we TAA of Upscaling nodig om de ruis uit te smeren over meerdere frames. Maar laat ik niet teveel off-topic raken...

Eigenlijk is de nieuwe lineup alleen leuk voor CUDA compute gebruikers (RTX 5090) en voor de rest een kleine refresh. Om nog maar te zwijgen over het uitblijven van efficiency-uplift. Dit is gewoon meer van hetzelfde! Hopelijk doet AMD het beter, maar daar houd ik mijn adem niet voor in.
Ik wil niet zeggen dat ik als eerste een 5090 ga aanschaffen maar ik kan als vr enthousiasteling toch wel waarderen als er nog flinke stappen worden gemaakt in de prestaties van grafische kaarten omdat ook de resolutie van vr brillen nog flink in de lift zit. Ik kan ook duizenden euros uitgeven om tussen hossen medetouristen 2 weekjes één van de zogenaamde must sees van de wereld te bekijken of een auto te kopen waarmee je je welvaart wat beter aan de buitenwereld etaleert. Ieder z’n hobby.
Ik denk dat je mij verkeerd begrijpt. Uiteraard snap ik dat dit mensen hun hobby is en dat men er geld voor over heeft, gaming is ook mijn hobby. Maar daar komt juist de frustratie vandaan. Geld uitgeven voor nauwelijks verschil is niet mijn hobby, als ik 1000 euro uit zou geven aan mijn hobby dan wil ik daar wat voor terug zien. De laatste jaren zie je daar niet echt wat voor terug is mijn mening.

Daarnaast gaat mijn opmerking zeker ook op voor VR. Om motion sickness te voorkomen, wil je toch zo scherp mogelijke graphics met zo min mogelijk artifacts. We zijn de laatste jaren juist de andere kant uit gegaan met blurry graphics en veel ghosting artifacts door alle upscaling die nodig is.
dan moet je echt een cyberpunk modded spelen op 4k path tracing.
Zelfs op een 4090 met dlss/fg haal je maar een 60fps maar het mooiste game dat ik ooit zag
Ja ziet er fantastisch uit! Als semi-statisch plaatje tenminste. Maar zodra je wat sneller ronddraait met wat contrast zie je veel ghosting en smearing. Dat is precies wat ik bedoel met "De technologie is er nog niet klaar voor". We proberen een plaatje te reconstrueren op basis van weinig data en dan krijg je automatisch dit soort artifacts.

YouTube: Cyberpunk 2077 - smearing/ghosting with Path Tracing
Dat is al meer dan een jaar oud, sindsdien is dlss veel verbeterd en is dat absoluut niet meer het geval.

In sommige gevallen ziet het er zelfs beter uit omdat dlss engine fouten wegwerkt.
Het zijn ook de game ontwikkelaars die steeds 'luier' worden met optimalisatie. Vroeger werd vaker alles uit de hardware gewrongen, vooral op consoles, maar tegenwoordig zijn het steeds vaker slecht lopende buggy spellen met 10 jaar oude graphics.
Waarschijnlijk te danken aan management die optimalisatie zonde van het geld vind en doordat de ontwikkelaars niet meer hardcore enthousiastelingen zijn als vroeger (er is een verschuiving gaande in het type mens dat in game ontwikkeling werkt en niet voor het goede).

[Reactie gewijzigd door Rogers op 7 januari 2025 12:18]

Ik denk voornamelijk dat je vroeger de lighting en reflecties MOEST pre-baken om mooie belichting te krijgen. Dat is een vervelend process voor ontwikkelaars want iedere aanpassing die je deed aan een scene zorgde ervoor dat je pas het echte resultaat zag als de lightmaps weer up-to-date zijn. Met raytracing gebeurt dat niet meer, en dat scheelt geld, maar eigenlijk is het simpelweg gewoon compute power tegen het probleem aangooien.

Begrijp mij niet verkeerd, in sommige situaties kan raytracing echt een verschil maken, vooral als je scene tijdens de game echt dynamisch verandert, zoals Fortnite. Maar dat zijn echt maar een handje vol games. Het is in mijn optiek vooral te doen om zoveel mogelijk games er uit te gooien voor zo min mogelijk ontwikkelkosten.
De europrijzen staan toch al op de site van nvidia?De RTX 5070 en RTX 5070 Ti lijken er nog niet tussen te staan.
De prijzen van de 5070 staat ook in het overzicht van Nvidia: https://www.nvidia.com/nl...graphics-cards/50-series/
€889 en €654
Ook toegevoegd, thanks!
Die kaart van 654€
Verwacht jij dat die 1440p 144fps alle toeters en bellen open gaat aankunnen?
Thanks, toegevoegd!
Mooi spul weer maar ouch...AMD kan helaas wel in gaan pakken..🫣
Waarom? Hun price/performance gaat waarschijnlijk toch weer een stuk hoger zijn. Misschien 1% van alle gamers heeft een 5080/90 "nodig" voor hun setup.

Mijn 6800XT gaat het zo te zien nog wel een extra generatie uitzingen. Ik speel alles nog op high settings 60+ fps op 1440p.
Niet als je ray tracing er bij betrekt. En anno 2025 is dat toch wel een stukje belangrijker aan het worden dan in 2020. Er zijn zelfs al games waar je ray tracing niet eens meer uit kan zetten.

Hopelijk hebben de RX 9xxx kaarten fatsoenlijke RT performance. Concurrentie in het mid range segment is wenselijk.
Je hebt geen raytracing nodig. Niet in 2025. Ook niet in 2024.

99.99% van de games zijn nog altijd raster only. Raytracing is mooi. Maar het gaat nog wel even duren tot videokaarten het kunnen doen zonder upscalers. Amd is daarom helemaal prima. Zolang hun 9070xt rond 600-650 is met 4080ti~ perf is het al helemaal prima.
Je hebt natuurlijk helemaal niets nodig, maar als je in 2025 een nieuwe kaart koopt voor 500 euro of meer mag je toch wel verwachten dat je wat toeters en bellen aan kan zetten.

De liefhebber komt er wel heel karig vanaf bij AMD momenteel. Voor een paar tientjes extra heeft de consument schijnbaar toch liever die RT optie. Je ziet ook gewoon dat AMD zeer slecht verkoopt. Nvidia domineert zelfs de midrange volledig. (Je moet heel lang scrollen voordat je de eerste discrete AMD gpu tegenkom, de RX 6600)

Hopelijk komt daar inderdaad wat verandering in met de Radeon RX 90xx serie (die overigens tegenover de 4070 komt te staan volgens AMD zelf)

Als ze de beloofde RT verbetering nou eens combineren met een zeer strakke prijs… Want als ze straks $500 vragen koopt iedereen alsnog een 5070 voor $550

[Reactie gewijzigd door DLSS op 7 januari 2025 08:19]

Dat mag je zeker verwachten. Maar geen raytracing. Ook met een 4090 donderd je fps in elkaar met raytracing. Het eerste wat ik uit fiets is raytracing, wat ik meestal vervang door mods met betere prerendered lighting. Met dezelfde, zoniet betere graphics, met wel een hoge consistente fps. De meeste effecten die onder een raytracing profiel worden geschaard, zijn ook helemaal geen raytracing. En niet alle belichting is raytracing in zo'n game want dat zou zelfs een giganische render cluster op zijn knieen krijgen.

[Reactie gewijzigd door Seth_Chaos op 7 januari 2025 08:42]

Waarom koop dan niet gewoon een andere kaart ipv 4090 als je toch Raytracing uit zet? Echt absurde keuzes maak je.
Dat vindt ik nu juist van iedereen die Raytracing gebruikt. Het is een absurde feature die veel rekenkracht en energie vreet, die veel beter ingezet kunnen worden om een veel groter verschil in graphics te kunnen maken op andere vlakken. Dezelfde effecten zijn met prerendered belichting te behalen met een veel mindere impact op de perfromance. Zo heb ik liever een loep zuiver, haarscherp beeld op een zo hoog mogelijke resolutie met een zo hoog mogelijke fps. In plaats van die upscale bagger.

[Reactie gewijzigd door Seth_Chaos op 7 januari 2025 08:57]

Ook al ben ik niet de grootste fan van RT, ik begrijp intussen wel dat het écht gewoon correcter licht kan berekenen dan een vijftiental workarounds cumulatief dat doen. Bekijk de digital foundry video's anders eens die doorheen de jaren vergelijkingen hebben gedaan.
SSR reflecties kunnen *nooit* alle situaties even goed afhandelen als RT, simpelweg technische beperkingen. Bounced dynamisch licht: zelfde. Er is niet echt een omweg voor. Correcte schaduwen die "juist" vervagen met afstand: same.

Hoe hoog de resolutie van de vervangende effecten ook, het is gewoon niet hetzelfde. Dus ja, dat de niet eens de RT effecten op medium durft zetten op een 4090 is absurd. Tot vandaag was het de snelste RT kaart beschikbaar. Als dát nog niet voldoende is...
Nee, ben ik het totaal niet mee eens. Ik speel bijvoorbeeld Cyberpunk met Ultra Plus RTPT mod. Dat dezelfde effecten toevoegd als full path tracing. Die mod vindt ik er beter uit zien dan full path tracing. Ik lever er maar 10% fps voor in. In tegenstelling tot full path tracing waarbij fps zakt tot een onacceptabel niveau. En ik hoef niet te klooien met upscaling. Nog los van het gegeven dat ik alle onrealistische opties kan aanpassen naar realistische waarden (wat normaliter niet kan). Want Nividia gaat altijd compleet overboard met alles raytracing wat ieder beetje geloofwaardigheid uit de game haalt.

Dus ik blijf bij mn standpunt. Het eerste wat ik doe bij iedere game is upscaling en RT uitzetten. De beste beeldkwaliteit haal je niet met RT en upscaling. Als de rekenkracht van pc's vertienvoudigd is, dan is het zinvol om RT te gaan gebruiken.
Jij mag dat vinden, maar er zijn intussen talloze voorbeelden waar aangetoond wordt dat zelfs de grootste omwegen het niet halen van een goed RT effect. Voor developers zijn alle rasterized manieren om licht te proberen reproduceren inmiddels ook een forse taak geworden... Die dan dus niet eens een "juist" beeld oplevert. Je moet je inbeelden dat er aan de artistieke/technische kant evengoed nerds zitten die geobsedeerd zijn met het beste beeld maken. Zij zijj héél enthousiast over deze mogelijkheden.

Zie ook alles dat bvb Pixar ooit geproduceerd heeft. Hun films staan ondanks de visuele vorm altijd vooraan qua realisme van effecten. Water, haar, huid, vuur, animatie en... Licht.
In games probeert men zo dicht mogelijk bij dat realisme te geraken als een redelijk toegankelijke hoeveelheid compute realtime toelaat. Anno 2025 betekent dat een beperkte hoeveelheid aan RT. De talloze workarounds zijn gewoon niet goed genoeg om het effect na te bootsen.

Er is bijvoorbeeld geen énkele fallback die scherpe real-time reflecties oplevert die de échte 3D scene reflecteert. Geen enkele. Jij mag nog de beste UltraMaxSuperDuper Reflections XXX mod installeren: die doet dat niet.

Bekijk bvb dit over Alan Wake 2: YouTube: Alan Wake 2 PC Path Tracing: The Next Level In Visual Fidelity?

De tekortkomingen van de fallbacks worden mooi getoond.

[Reactie gewijzigd door Arrigi op 7 januari 2025 10:39]

Er zijn ook zat voorbeelden die het tegendeel bewijzen. Neem flightsimulator 2020 met global ilumination. Een inmiddels vrij oude game. De licht refelecties en spiegelingen in die game lopen mijlen ver voor op wat met raytracing technisch mogelijk is op een high end consumenten pc. Nvidia is gewiekst, al die technieken die voor een veel betere belichting zorgen zonder RT zitten niet in games die in samenwerking met Nvidia worden uitgebracht. Gelukkig worden die alsnog door modders achteraf toegevoegd, zodat we van betere belichting kunnen genieten. Als ze het wel zouden toevoegen is hun selling point voor Raytracing weg.
Toon de voorbeelden dan. Of je hebt het fout, of het waren bizar slechte implementaties.
Heb et idee dat je een aantal jaren terug ook technieken had, wat ook leek op raytracing. Alleen niet zo zwaar.
Niemand zal een 5070 kopen voor 550 want de prijs wordt 650 of misschien wel 700 voor dat ding met die leuke koeler.
Het totaalplaatje van de AMD kaarten is competitief geprijsd voor de performance die ze bieden. Intel nog meer.
Als je een nvidia kaart wilt en gaat schermen met het "nodig hebben" van DLSS (FSR werkt gewoon goed) en CUDA development wil doen en blabla, zeik dan niet over de prijs maar zeg gewoon dat ge een nvidia chip wilt.

Over prijs/performance gesproken: voor 650 euro een 12GB kaart introduceren in 2025 :X

[Reactie gewijzigd door Arrigi op 7 januari 2025 08:47]

Indiana Jones denkt daar anders over, zonder raytracing hardware kan je het niet spelen. Dus soms heb je toch echt wel raytracing nodig.
Ik denk dat je DLSS of FSR bedoeld? Raytracing is alleen voor mooiere licht en schaduw effecten en is juist een extra impact op de performance.

[Reactie gewijzigd door Cowamundo op 7 januari 2025 09:14]

Nee hoor, raytracing hardware is wel degelijk vereist voor Indiana Jones, zelfs op de minimale grafische settings.
nieuws: Bethesda deelt pc-systeemeisen Indiana Jones-game, raytracinghardware...

[Reactie gewijzigd door bibi2205 op 7 januari 2025 09:43]

Vind het ook apart dat die game zoveel vram gebruikt. Die game ziet er maar zozo uit. De cut scenes zien er wel goed uit.
Dat klopt, maar dat is een keuze van de ontwikkelaar. Met prebaked lighting kun je net zulke goede resultaten bereiken. Een game als the last of us 2 of een horizon forbidden west gebruiken helemaal geen dynamic lighting en zien er echt prachtig uit. Wellicht wel beter dan indiana jones. Het kost gewoon meer ontwikkelingstijd.
Prebaked is wel statisch. Iets heel anders. Er is ook prebaked dynamisch, maar dat noemen we CGI in niet-interactieve films.

Prebaked kan heel mooi zijn en goed uitgewerkt zijn, maar het is totaal niet hetzelfde. Als de art style zo gekozen/gemaakt is werkt het echt heel goed... Maar het is geen dynamisch licht.
Dat begrijp ik. Maar het hoeft niet veel minder mooi te zijn als RT/PT en de performance is velen malen beter.
Klopt. Ik heb de laatste weken ook nog wel prachtige games gespeeld die op een 10 jaar oude PC ook lekker zouden draaien. Een prachtig spel met repetitieve, saaie en/of irritante gameplay is ook minder dan een geweldig leuk spel dat er gewoontjes uitziet.

Maar prebaked en RT zijn nu eenmaal andere dingen. Ik geloof wel dat er games bestaan die geen dynamische day/night hebben, alles kunnen prebaken en evt wegkomen met zeer goed uitgevoerde dynamische schaduwen/reflecties.

Da's het artistieke gedeelte nu eenmaal. Een techdemo spelen kan kut zijn, het wonderwel afwegen van allerlei zaken heel mooi.

Goed voorbeeld: Tiny Glade. Een zeer toegankelijke open world kasteelbouwer. Gewoon gezellig. Heel vrolijke visuals, lichtgewicht, custom engine. gemaakt door slechts 2 mensen.. en zelfs héél snelle (software?) beperkte RT implementatie voor mooier licht.
Ik krijg steeds vaker het idee dat al die technieken die onze games beter moeten maken olifantenpaadjes voor de devs zijn geworden. DLSS, TAA en nu blijkbaar ook RTX worden gebruikt om stappen over te slaan i.p.v. oudere technieken die in de praktijk beter geprogrammeerde/geoptimaliseerde games opleverden.

Zo zie je nu ook games die 30 fps draaien op consoles die er niet (veel) beter uit zien dan wat de consoles een gen terug weer kon geven op 60fps. Dat heeft natuurlijk deels te maken met de "4K" focus op consoles.

Als ik mocht kiezen zou het altijd dynamic lighting > RTX zijn en het is ook het eerste wat uit gaat als ik onder de 100 fps dip (zo lang dat nog mogelijk is).

Interessant kanaal over moderne technieken en de nadelen : YouTube: Dynamic Lighting Was Better Nine Years Ago | A Warning About 9TH Gen...
Correct, de 0.01% van spellen die er nu wel zijn waarbij je raytracing nodig hebt bestaan. MAAR, zelfs dan heb je niet perse nvidia nodig. Alsnog is raster king. En is dat het belangrijkste waar je op moet letten.
Volgens mij mis je zijn punt. Steeds meer games hebben rtx ingebakken en kun je niet meer uitschakelen. Dus ja, als je die games wilt spelen heb je het wel nodig.
Er zijn legio mensen, waaronder ik die raytracing gewoon niet interessant vinden. Gameplay en een vloeiende ervaring is voor mij veel belangrijker dan wat extra grafische pracht en praal. En zonder raytracing is het allemaal nog prima te doen!!
Het hele punt is juist dat je het niet meer kunt uitschakelen in de settings. Je kunt dan wel zonder willen, maar dat kan dus niet meer.
Maar deze games moeten ook op de Xbox series X en PS5 gedraaid kunnen worden? Dat zijn ook niet bepaald de apparaten die dat heel goed kunnen.

Het zal de komende jaren dus echt nog wel loslopen wat Raytracing betreft. Ik zou op dat oog dus niet voor een bepaalde GPU kiezen. Alle GPU's van vorig jaar en dit jaar zullen de games van komende jaren nog wel aankunnen wat betreft de verplichte Raytracing niveau

[Reactie gewijzigd door Mooraalkikker op 7 januari 2025 08:32]

Gezien de HW-configuratie bekend is kan men perfect tunen welke effecten, hoeveel rays/bounces, vanaf welke lichtintensiteit het berekend moet worden e.d.
Kan gewoon mooi aan 4k/60fps met meer detail in 4k30. Soms kiest men voor meer effecten met dynamische resolutie. Maar het kan allemaal
Volgens mij zijn de hoeveelheid games waarbij rt niet kan uitschakelen letterlijk op 1 hand te tellen.
Dit gaat letterlijk over een ultra light implementatie van RT die verplicht wordt. Zolang er geen next-gen console komen zal dit ook niet snel gaan veranderen. We zitten dus nog zeker enkele jaren goed.

[Reactie gewijzigd door Cerv47 op 7 januari 2025 08:47]

Nu speel ik niet de meest cutting edge games (intresse vervaagt een beetje met de jaren) Maar ik las bijv met Stalker dat dit via een omweg wel uit te zetten was met een config file. Wss zal er altijd wel een weg zijn met wat wil.
Als je inderdaad gewoon de graphics op low zet heb je inderdaad geen grafische kaart nodig van 2400 euro.
Er zit nogal een verschil in geen RT gebruiken en maar alles op low knallen. Ik vermoed dat @Cowamundo doelt op high settings met acceptabele frame rates. Dit heb ik ook liever dan die paar scenes waar het licht net even wat mooier is maar je waarschijnlijk toch niet ziet omdat je druk bent met het spel zelf.
ray tracing gaat hier altijd standaard uit waar mogelijk. Zit nog een beetje in de gimmick fase. Je levert gewoon teveel preformance in voor wat je er voor terug krijgt. Geef het nog een jaartje of 5 voordat je er acceptable frames mee kunt halen.
Ik zet het in elke single-player game aan. Is zeker wel speelbaar op mijn 4090, laat staan een 5090.

Het zorgt, bij een goede implementatie, voor een andere beleving. Zeker met path tracing ontstaat er een compleet andere atmosfeer.

Als je geïnteresseerd bent heb ik wat voorbeelden via Digital Foundry:

- Indiana Jones met path tracing
- Alan Wake 2 met path tracing
- Cyberpunk 2077 met path tracing


Zijn geweldige videos btw, voor de liefhebber zeker het kijken waard. (Als je overweegt een dure 50xx kaart te kopen ben je vermoedelijk wel een liefhebber 😅)

[Reactie gewijzigd door DLSS op 7 januari 2025 17:24]

Ja met de flagship is dat niet zo gek natuurlijk haha. Ik speel geen cutting edge games op die van mij (Intresse/tijd in gaming valt een beetje weg met de jaren.. Zou niet eens meer weten waneer ik voor het laatst een nieuwe heb gehaald + hardware prijzen.. oef)

Hier een 3080ti icm met een diehard Coffee lake I7, wss het laatste voordat ik stop of over ga naar een console.

Single player wil ik inderdaad wel vaker wat eye candy extra aanzetten ook als de frames iets omlaag gaan, maar raytracing heeft mij nooit echt getrokken wbt de frames die je inleverd. Weet nog bij een game dat ik dacht "Man, weer zon bagger port" bleek raytracing vol gas by default aan te staan..
Kijk even naar die videos die ik hierboven gelinkt heb en je ziet in elk geval dat het geen gimmick is bij een goede implementatie.

De relatieve performance impact van ray tracing is wat minder heftig op de RTX 40xx kaarten dan op de RTX 30xx kaarten. (En bij de RTX 30xx kaarten weer minder dan op de RTX 20xx kaarten). Op mijn 3080 zette ik ray tracing ook wat vaker uit. Op mijn 4090 is dat niet echt nodig. Ik heb CyberPunk 2077 daadwerkelijk met path tracing uitgespeeld.

Als je oudere games speelt maakt dat allemaal niet uit natuurlijk, maar je begrijpt vast dat daar de 5070/5080/5090 niet voor bedoeld zijn.
Klopt. Maar aangezien maar een klein percentage voor de xx90 gaat, die deze tech wel redelijk kunnen draaien, vind ik het nog wel in de gimmick fase zitten. Als ik nu een vorm van tracing wil gebruiken, moet ik vaak genoegen nemen met sub 60 fps. Dan is het in mijn ogen verspilde load als je tegen een 165hz scherm aan zit te kijken. Tracing is dan idd leuk als je een xx90 erin hebt zitten en de game nog fatsoenlijk boven minimaal 60-70 fps kunt draaien. Alles onder de xx90, en je fps tankt te hard en vind ik het persoonlijk niet waard.

"Als je oudere games speelt maakt dat allemaal niet uit natuurlijk, maar je begrijpt vast dat daar de 5070/5080/5090 niet voor bedoeld zijn"

Bijna mee eens. Een upgrade naar bijv een 5080 zal mij zeker helpen in een modded Fallout 4 bijv. Dan zou ik kunnen overwegen om die naar 4k te zetten. Qua tracing dan weer niet aangezien ik dat niet gebruik.
Niet als je ray tracing er bij betrekt.
Dat doe ik dan ook niet, want ik zie het verschil tussen wel of geen RT toch niet. Niet in een side-by-side, laat staan tijdens gameplay.
Als je een 4K scherm hebt wat steeds normaler wordt is een 4080/5080 een fijne must. Ik had een 3080 die op papier prima 4K aan zou moeten kunnen maar dat viel tegen. Een 4080 super gekocht en die heeft er geen enkele moeite mee.

Heb je geen 4K scherm dan is het idd overkill
Dat ligt aan je eisen. Een 4080s trekt bij lange na geen 4k max settings met 100fps.
hangt van de game af.
BO6 Ja absoluut
Horizon Forbidden West zit je op 80 FPS gemiddeld op 4K max

Cyberpunk? drama op 4k max

[Reactie gewijzigd door Rumpelstiltskin op 7 januari 2025 08:47]

Met een 4070 super gaat dit ook hoor. Maar je zal tevreden moeten zijn met "mindere" settings. Meer dan 2 jaar geleden een 4K scherm gekocht. Gewoon 60hz, mijn 2060 super kan het net aan wel met gemiddeld - lage settings. Uiteraard wil je meer dan 60 halen, zal het moeilijk worden. Dan heb je wat beters nodig.
Maar zoals bij mij is gaming "bijzaak". Vroeger kon je gewoon een 60 reeks kopen et voila.
Dat ligt er dus volledig aan.
Ik heb een RTX 3090, maar loop in 1440p toch ook al wel tegen een hoop dingetjes aan. Zeker met alle toeters en bellen in games.

Tevens ook veel Stable Difussion AI generations voor image/video en VR modded games hakken er ook erg in.

Ik ga dit jaar wel upgraden van mijn 3090 naar de 5090 als de prijzen enigzins weer scalper vrij zijn.
Price/performance weer stuk hoger zijn? Denk niet echt dat hun nieuwe topkaart veel goedkoper zal zijn dan de 5070, en de vraag is zelfs met de 4070.
Hangt allemaal van de prijs af.
Oneens, er zijn naar mijn idee maar bar weinig mensen die het er voor over hebben om een 4090 of een 5090 te kopen, ik heb nu de 4070 super (top kaart afgezien van de maar 12GB), maar ik verwacht dat AMD zich volledig gaat focussen op midrange kaarten en dat is ook wat de meeste gamers willen. Een betaalbare kaart die fatsoenlijk op 1440p kan spelen. En die gaan voor de overgrote meerderheid niet een kaart kopen dat bijna een geheel minimum loon kost |:(

[Reactie gewijzigd door GreasyAce op 7 januari 2025 07:51]

Same here, mijn bedrijf kan het zeker betalen, maar voor die 2-3% gaming dat ik doe is het de moeite niet. Vroeger kon je wegkomen met een xx60 kaart om af en toe eens wat te spelen. Met een 4k scherm is dat toch al een 70 reeks, dat ik nu ook heb. En dat lukt wel, ja ik kan niet alles op max zetten en nee ik heb een gewoon 60hz scherm. Ik hoef ook geen 150fps te halen in een game, gewoon vloeiend 60 is meer dan genoeg. Ik speel ook geen AAA games, dus dat helpt zeker
4K gaming is nogsteeds anno 2025 voor de elite. 1080p of 1440p voldoet voor iedereen. Of je moet wel een heel groot scherm hebben staan. Maar dan ga je ook op afstand weer zitten, anders krijg je hele grote ogen (is zeker niet goed voor je).
AMD kan wel inpakken? Mag hopen dat het sarcastisch was..

Nvidia heeft dan wellicht qua totale prestaties een snellere kaart dan AMD maar ook dito stroomverbruik en prijs...

De bang for bugs bij AMD is gewoon vele malen beter en meer dan zat voor de gemiddelde gebruiker.

Ik ben zelf ook mede vanwege de prijs en de geringe/verwaarloosbare prestatie verschillen met een Nvidia 4090, gegaan voor een AMD RX7900XTX.
Met maar 12gb is de rtx 5070 het dead on arrival upsellertje en de rtx 5070 Ti en 5080 met maar 16 gb zijn zijn dan weer de geplande veroudering. Zotte prijzen.
Not really. Ik kom met mijn 3070 uit 2020 bijna nooit aan de max VRAM van 8GB.

En zotte prijzen.. Ik heb de 3070 in 2020 gekocht voor 665

[Reactie gewijzigd door James Pond op 7 januari 2025 12:05]

Hoeveel vram je nodig hebt hangt af van de game. Er zijn verschillende spellen die makkelijk 12gb nodig hebben. Voor pong te spelen zal je een pak minder vram nodig hebben. Er zijn ook spellen die anticiperen op jouw lagere vram en je lelijkere graphics geven.

De adviesprijs van de rtx 3070 was 519 euro. Dan heb jij ook al een stuk meer betaald dan dat.
Er zijn helemaal geen spellen die 'makkelijk 12gb' nodig hebben. En indien wel, is het gewoon slecht geoptimaliseerd.

De adviesprijs boeit niet, want de kaart was niet voor die prijs beschikbaar. 649 was de kaart.

uitvoering: Gigabyte GeForce RTX 3070 Gaming OC 8G (rev. 1.0)

Een jaar later was die 1600 euro. Geen buil aan gevallen.

Kaart gaat nog goed mee, outperformed een PS5 op alle fronten.

[Reactie gewijzigd door James Pond op 7 januari 2025 14:33]

Oneens. Om even een voorbeeld te noemen. De nieuwe Indiana Jones game wilt maar al te graag over de 12GB VRAM heen gaan zodra je 4K + Raytracing speelt op Ultra.

Het heeft niet altijd met slechte optimalisatie te maken, maar ook vooral de resolutie die je wilt spelen. Ray tracing pakt veel VRAM. 4K resolutie ook. Je tikt dan al snel de 12GB VRAM aan en dan blijkt dat niet genoeg te zijn.

Is 16GB VRAM nu januari 2025 genoeg? Denk het wel. Maar niet meer op januari 2026. Ze doen dus aan gepland verouderen zodat je sneller de 6000 series gaat halen tegen die tijd.

Daar gaan ze vervolgens hetzelfde trucje uithalen.

Het nare is, als je DLSS wilt hebben en goeie ray tracing performance, dan heb je geen andere keus dan voor een high end NVIDIA kaart te gaan.

1200 euro gaat nog wel bij mij. Maar 2400 euro enkel omdat ik meer VRAM wil gaat mij te ver. En NVIDIA weet dat de meeste mensen zo denken. Dus die kopen vervolgens de 5080 die maar 16GB VRAM heeft. Op die manier jaagt NVIDIA iedereen in de val waarbij ze elke nieuwe gen een nieuwe kaart moeten halen vanwege de karige VRAM.

Maar stemmen met mijn portemonnee gaat ook niet omdat ik DLSS erg graag wil hebben. Dus ik heb geen keuze. Mijn 3080 begint met de nieuwere games op 4K ook een beetje op te raken.

[Reactie gewijzigd door Ricco02 op 8 januari 2025 00:26]

" 4K + Raytracing speelt op Ultra."

Ja dat doet niemand met een 3070, dus waarom zou ik op die settings spelen?

"Mijn 3080 begint met de nieuwere games op 4K ook een beetje op te raken."

Ja als je alles op ultra zet met 4k dan snap ik het.

[Reactie gewijzigd door James Pond op 9 januari 2025 09:06]

RTX 3080 op 4K alles Ultra was prima te doen op het moment van release van de 3000 series en zelfs op het moment van release van de 4000 series.

Zal bij de 5000 series ook prima te doen zijn, bij release. Maar omdat ze de VRAM zo erg limiteren (5080 heeft maar 16GB VRAM) zal je dit probleem al hebben wanneer de 6000 series uit is.
Misschien niet verwachten dat je jarenlang alles op 4k ultra kan blijven draaien.

Ik snap deze rare gedachtengang echt niet.

Ik heb nooit een high end gpu gehad. altijd moet je kijken wat de beste mix is van performance en graphics.

Vind het dan ook stom dat mensen schijnbaar verwachten dat je 10+ jaar met een gpu alles op ultra kan blijven zetten.
Je reageert wel erg geirriteerd.

Ik heb nergens gezegd dat ik verwacht 6 jaar met een GPU alles op 4K Ultra te kunnen spelen.

Maar 16GB VRAM geven aan een 5080 is duidelijk expres de GPU verouderd te laten worden zodat je forceert die mensen de eerstvolgende generatie weer een GPU te laten kopen en daar gaat het om.

Ik ben hartstikke blij dat mijn GPU het heeft volgehouden tot nu toe. Ik sla altijd 1 generatie over.
Maar dat gaat nu waarschijnlijk dus niet meer omdat ik bijna zeker weet dat ik met een RTX 5080 16GB VRAM gewoon straks de 6080 moet gaan halen. En die dus niet kan overslaan. Omdat tegen die tijd 16GB VRAM gewoon niet meer genoeg is voor 4K.

[Reactie gewijzigd door Ricco02 op 9 januari 2025 10:45]

Wat een onzin. Met de nieuwe texture technieken ga je straks veel minder VRAM gebruiken.
RTX Neural Texture Compression uses AI to compress thousands of textures in less than a minute. Their neural representations are stored or accessed in real time or loaded directly into memory without further modification. The neurally compressed textures save up to 7x more VRAM or system memory than traditional block compressed textures at the same visual quality.
Hier een link erover:

https://developer.nvidia....%20further%20modification.

https://www.techradar.com...s-calmed-some-of-my-fears

https://cdn.wccftech.com/.../01/RTX-NTC-1920x1080.jpg

Sorry voor de geirriteerde reactie maar ik begrijp echt al dat gezeur niet zo, er wordt echt gedaan alsof je met de 50 serie niet een generatie kan overslaan, dat kan prima. Maar dan moet je misschien genoegen nemen dat je niet alles op ultra kan zetten.

Lijkt me niet zo vreemd.

[Reactie gewijzigd door James Pond op 9 januari 2025 11:44]

Niet alles op Ultra zetten voor een kaart van 1200 euro?

Je wijst exact op het probleem. Een kaart van 1200 die niet alles op Ultra aan kan over 2 jaar is gewoon niet normaal. Punt. Niks raars aan.

Dat stukje artikel dat je hebt gequote is ook 90% marketing praat.

Waarschijnlijk in de meest ideale gevallen zal dat een reductie zijn van VRAM. In de meeste gevallen? Denk het niet.

Als een game nu 10GB VRAM vol gebruikt dan zal die straks echt niet uit het niets maar 3GB VRAM gebruiken simpelweg vanwege RTX Neural Texture Compression.
Als een game nu 10GB VRAM vol gebruikt dan zal die straks echt niet uit het niets maar 3GB VRAM gebruiken simpelweg vanwege RTX Neural Texture Compression.
Waarom niet? Ik heb nog geen daadwerkelijke voorbeelden gezien maar als het werkt werkt het 🤷🏼‍♂️

Dlss is ook een goede techniek en dat werkt ook als een trein
DLSS zeker mooie techniek. Mits het door games ondersteund word. Wat ook nog steeds niet de norm is.

Daarom kan je niet een kaart kopen op basis van DLSS prestaties. Omdat niet alle games het ondersteunen.
AMD is gedaan. :'( Slecht voor de prijzen.
AMD heeft er bewust voor gekozen niet mee te doen met deze gekheid. Betekent niet dat ze 'gedaan' zijn. Als ze midrange kaarten uitbrengen met een goede prijs/prestatie verhouding kunnen ze er nog altijd lekker aan verdienen.
Nee, amd kan geen gpu op dit niveau bouwen voor een redelijke prijs. En dat is nog wel het meest treurige want dat heeft als gevolg dat nvidia vrij spel heeft. Met bovengenoemde prijzen.
Kunnen ze waarschijnlijk wel, alleen zijn de kosten AMD het waarschijnlijk niet waard. AMD heeft het budget niet van Nvidia en een relatief klein marktaandeel. Dit maakt het veel moeilijker om R&D terug te verdienen. Op pure rasterisatie zit de 7900XTX iets boven de 4080 super, voor minder geld, dit kan ik nooit als slecht zien. Wellicht komen ze deze nieuwe generatie nog met een verrassing, maar ik denk dat de aandacht meer verschuift richting igpu bij AMD.

Op dit item kan niet meer gereageerd worden.