Gerucht: Nvidia GeForce RTX 5080 is vanaf 21 januari verkrijgbaar

Nvidia's GeForce RTX 5080-gpu is naar verluidt vanaf 21 januari te koop. Dat schreef techwebsite Hkepc in een inmiddels verwijderde tweet. Nvidia heeft op 7 januari een keynote waar het de gpu vermoedelijk wil aankondigen.

De techwebsite Hkepc publiceerde op nieuwjaarsdag een tweet met de tekst '5080 -> 21 Jan', schrijft Videocardz. Inmiddels is die tweet offline gehaald. De Chinese techwebsite heeft wel een artikel gepubliceerd waarin het medium zegt dat Nvidia aanvankelijk van plan zou zijn geweest om de RTX 5090-gpu ook op 21 januari uit te brengen. Dit zou echter uitgesteld zijn omdat boardpartners niet genoeg tijd zouden hebben om videokaarten op basis van die gpu te maken.

Volgens een eerder gerucht krijgt de RTX 5080 een GB203-400-A1-gpu van de Blackwell-generatie met 10.752 CUDA-cores. De videokaart zou 400W vereisen en 16GB geheugen krijgen. Dat geheugen zou wel sneller GDDR7-geheugen zijn, met een vermeende geheugensnelheid van 30 tot 32Gbit/s.

Door Hayte Hugo

Redacteur

02-01-2025 • 10:34

364

Lees meer

Reacties (364)

364
355
122
0
0
159

Sorteer op:

Weergave:

Neem aan dat hij wel weer 1400+ moet gaan kosten. Voor zo'n prijs zou ik toch meer dan 16GB willen, ook al is dat nu nog een prima hoeveelheid.
En waarom heb je een high-end kaart nodig, voor 90% van de gamers is een mid range meer dan prima om 60+fps te halen op de high / ultra preset. Zeker met DLSS tegenwoordig.
Omdat mensen soms wel eens een 4K scherm hebben waar ze ten volste van willen kunnen genieten, of een kaart willen hebben die voor een lange tijd meegaat met de vereisten van de nieuwste games, of misschien is het hen helemaal niet te doen om games?

Er zijn zoveel redenen waarom je een high-end kaart wilt hebben, en zelfs als je er geen reden voor hebt betekend dat niet dat je geen kritiek mag uiten op absurde specificaties voor absurde prijzen. Als Intel voor $250 12 GB aanbieden, dan mag je van Nvidia wel iets meer verwachten dan 16 GB voor een kaart die (minstens) 5 keer zo duur is.

[Reactie gewijzigd door Loller1 op 2 januari 2025 11:29]

Serieuze vraag want ik heb geen idee eigenlijk,kom je voor 4k niet toe met 16gb? Ik speel zelf op 1440p en stalker 2 op full epic gebruikt dan 8gb vram. De rest van mn 24gb staat niks te doen.

[Reactie gewijzigd door Powerblast op 2 januari 2025 12:31]

Misschien verschilt het per game maar ik heb nul problemen met mijn 3080 10Gb op 3840x1600 144hz scherm. Kan niet alles op ultra draaien maar een goede 60fps krijg ik er meestal wel uit op hoge settings in de meeste AAA games. Ik speel geen shooters overigens, dat is wel een andere markt met andere eisen.
Verschilt per game ja, valt me op dat vooral Sony Ports naar de PC ontzettend veel RAM nodig hebben.
Maar ook dingen zoals Raytracing en andere foefjes hebben extra geheugen nodig

Vandaar dat 16GB op een high end card echt het minimale moet zijn imo, liever toch wat meer want high end cards koop je op alle toeters en bellen aan te zetten
Omdat sony ports slecht werken wil jij dat Nvidia dat oplost?
Dat zijn jouw eigen woorden, en ik begrijp echt niet hoe je tot die conclusie komt, maar goed.

Feit blijft dat er nu eenmaal genoeg spellen zijn die veel geheugen nodig hebben.

Wiens schuld dat is, doet er niet toe; het is simpelweg een gegeven waar je mee moet dealen als je die spellen wilt spelen.

Als je vervolgens de prijzen betaalt die NVIDIA vraagt, mag je mijns inziens wel verwachten dat die spellen goed speelbaar zijn en blijven!
Dit zijn zeker niet mijn woorden alleen.

https://x.com/Naughty_Dog/status/1641943183826509825

Het internet staat er mee vol wat voor slechte port TLOU is geweest. Heeft maanden geduurt. En nu kun je het prima met 16GB spelen. Dit is waarom ik het vreemd vind dat jij zegt dat NVDIA dat moet oplossen terwijl er bijna geen kaarten bestaan met meer dan 16GB (ook geen consoles)

Analyse Digital Foundry
https://m.youtube.com/watch?v=L8bg9coF6AA

[Reactie gewijzigd door Letters op 5 januari 2025 10:55]

Dit is waarom ik het vreemd vind dat jij zegt dat NVDIA dat moet oplossen
Dit zijn zeker niet mijn woorden alleen.
Waar zeg ik dat nVidia dit moet oplossen? dat zijn echt jouw woorden en niet die van mij

Wat ik wel heb gezegt is dat voor de prijzen die Nvidia vraagt, het geringe aantal GB's dat je krijgt maar teleurstellend is, en dat je dus voor een half fortuin sommige spellen nog steeds niet volledig kan spelen

[Reactie gewijzigd door Sinester op 6 januari 2025 09:54]

Waar zeg ik dat nVidia dit moet oplossen? dat zijn echt jouw woorden en niet die van mij
Nou hier
Als je vervolgens de prijzen betaalt die NVIDIA vraagt, mag je mijns inziens wel verwachten dat die spellen goed speelbaar zijn en blijven!
Je punt is duidelijk. Lets agree to disagree.
Speel voornamelijk in VR ook met een 3080 en heb al meerdere keren een low-VRAM warning gekregen, ook dat verbruikt redelijk veel geheugen en 10GB was ook toen al niet veel.
op 1440p zal je nauwelijks 16gb halen, al zullen er enkele games zijn die er zeker bij in de buurt zullen komen of soms zelfs exceeden zal het 9 van de 10 keer voldoende zijn. Voor 4k resoluties wat je bij een 5080 wel mag verwachten, kom je vaker tegen dat limiet aan en is het commentaar terecht. Dat ding vreet ook nog eens energie
Misschien stock games wat minder, ga je modden - en dan met name 4k textures in games net zoals Skyrim of andere vergelijkbare titels die je kan modden dan kan het aardig oplopen. Als je Nexusmods een beetje afgaat en kijkt wat 4k textures qua ruimte in kunnen nemen...

Ik heb mijn 7900XTX nog maar pas en herken wel wat je zegt. Stock games maken vrijwel geen aanspraak op de reusachtige pool geheugen.
Stalker 2 draait op Unreal Engine 5. Er valt genoeg negatiefs te zeggen over UE5, maar VRAM-gebruik is héél goed in die engine. Daar heeft menig 8 GB GPU geen problemen mee op 1440p max textures. Maar andere non-UE5 spellen zitten al gauw tussen de 8-16 GB qua verbruik.

[Reactie gewijzigd door IlIlIllII op 2 januari 2025 13:24]

Op welke kaart draai jij stalker 2 full epic
Rtx 4090. Op 1440p, 32 inch scherm. Draait heel stabiel tot nu toe moet ik zeggen met 144fps.
En Control uit 2019 vult mijn 12GB dan weer op 1080p.
En crysis uit 2007 kraakt je cpu alsof het een pindanootje is…

[Reactie gewijzigd door BlaDeKke op 2 januari 2025 22:51]

Totdat de PS6 uitkomt voorzie ik geen grote problemen. Eigenlijk wordt tegenwoordig verwacht dat je altijd DLSS gebruikt.
Absoluut niet.

Als games er zo mooi uitzien dat je hardware van morgen nodig hebt om het met alle pracht en praal te kunnen draaien, dan kan je vandaag al eens een voorproefje doen hoe het er uit zou kunnen zien als je alles wide open gooit + dlss. En als je later een kaart in je systeem hebt dat die game native in alle glorie kan tonen. Dan doe je het nog eens dunnetjes over.

Als de game na een aantal jaar geen 2e playthrough waard is… het is niet dat graphics de game maken of kraken.

[Reactie gewijzigd door BlaDeKke op 2 januari 2025 23:03]

Heb jij een 32gb kaart? Buiten dat, spellen zoals skyrim + mods kun je zo tegen de 30gb trekken .

[Reactie gewijzigd door Madrox op 3 januari 2025 10:13]

Met 3440×1440, War Thunder ruime 9GB, CP2077 10-11GB, er zijn er heel wat, maar het hangt af van de engine, de instellingen, het programmeerwerk, etc.
En dan render je ook 100%? Of DLSS?
Het was ook gewoon een vraag. We zouden als consument onze honger naar een upgrade moeten uitstellen en laten zien dat we het niet eens zijn met deze 'upgrades' met zo weinig VRAM. Maar helaas is de honger naar meer / beter groter dan de onvrede over het VRAM. Als we de kaarten toch blijven kopen zal Nvidia ze gewoon zo uitbrengen :)
Of gewoon overstappen naar het rode kamp.

Toen mijn 3070ti icm 4K scherm te klein bemeten bleek qua vram, ben ik over gestapt naar een 7900XT.

Nou het is echt een verademing, ik zit nu dikwijls op >14GB vram in gebruik.

En het benoemen van DLSS in je OP is eigenlijk een beetje flauw te noemen. Want dit is eerder een lapmiddel om toch die te grote schoenen aan te kunnen trekken. Het verschil is duidelijk zichtbaar, en DLSS is eigenlijk iets wat je bij een xx80 en xx90 kaart niet nodig zou moeten hebben om normaal te kunnen gamen op native 4K met 60fps.
Het verschil is duidelijk zichtbaar
Nee, het verschil is niet duidelijk zichtbaar. DLSS is een gratis boost in prestaties en zal door mij altijd aangezet worden. Ook al is het een oude game op een RTX 5090
Sorry, maar dat is gewoon misinformatie. Alle upscaling, ook DLSS, zorgt objectief voor artefacts en verminderde beeldkwaliteit. Het is weliswaar minder zichtbaar wanneer je "quality" aanzet en op 4K speelt. Maar DLSS quality op 1440p is zeker zichtbaar voor mij.

De technologieën zijn zeker erg goed geworden. Als je FSR 1 vergelijkt met FSR 3 zit daar wel aantoonbaar verschil in. Zelfde met DLSS de nieuwste versie.

Het kan zijn dat jij het verschil niet merkt en ik wel. En dat is mooi voor jou. Maar je kunt niet doen alsof het "gratis boost" is, want het gaat zeker ten koste van beeldkwaliteit. Dat kan ook niet anders.

Vaak vind ik het irritant, vooral omdat het sommige fijne oppervlakken/textures zoals hekken, haar, gras etc. laat glitchen. Shimmering? Schittering? Moeilijk om een woord voor te vinden, maar irritant is het wel. Ik zet het dan ook vaak uit. Bij sommige games staat het standaard aan. Doe mij dan maar iets minder frames die er rustiger uit zien.
In het begin was ik volledig tegen DLSS en varianten, maar ik merk het verschil in kwaliteit niet. Wat ik wel merk, is de hogere framerate die ik haal, wat er voor gezorgd heeft dat ik het altijd terug op zet. (Ik kijk nooit naar de echte fps die ik haal, enkel naar het gevoel dat het geeft)
Daarom is het stiekem eigenlijk ook slimmer om op 4k te spelen met dlss dan 1440p native.
4k met dlss oogt beter IN MIJN OPINIE(hardware unboxed heeft ook een mooie vergelijking) dan 1440p native, en je krijgt hogere framerates.
Idd. Net als de toenmalige FXAA en SMAA 'cheap' antialiasing. Stilstaand beeld was prima, maar zodra motion had je dikke artifacts en pixel mutilation.
Sorry hoor maar het verschil is verschrikkelijk. Neem Marvell rivals. Met dlss en dus TAA is het een grote uitgesmeerde bende. Het is alsof je constant motion blur hebt aanstaan. Dlss is compleet zinloos voor competitive games.
Daarom kocht ik een tweehandse 7900 xtx die ik voor 750 met 24 GB.
Verkocht mijn 6800 xt voor 400. De upgrade kosten mij dus 350 euro. Haal er ook 80% meer performance uit zo'n beetje dus mooi in lijn met de meer prijs. Speel de meeste 4k titels wel met 120 fps. Zeker met frame generation zit ik in cyberpunk op 180-200 fps bijv. Vaak zet ik frame generation uit als ik toch al hoge fps heb omdat die toch lichte micro stutter kunnen geven maar als je 60 fps heb en je gaat hierdoor naar 90-100 is wel wat nuttiger. Speel dus op een 120 hertz 4k oled scherm waardoor je natuurlijk graag bij die 120 fps wil komen.

Zijn wel is spellen die 20GB pakken dus is 16GB wel beetje greedy voor een behoorlijke high end card had ook 24GB moeten zijn of zelfs 32GB en hun 5090 40-48GB voor de prijs die ze gaan vragen. Die zal wel tweevoudige zijn van die 7900 XTX 24GB. Hoe dan ook zal het wel een mooie kaart worden de 5090 RTX. 5080 rtx gaan ze toch echt wat tekort doen. Maar wellicht extra marketing taktiek voor meer winst en mensen toch naar die 5090 pushen.
Plus dat framegen ook extra vram kost. Zit je dus al krap in vram en heb je extra fps nodig gaat dat ten koste van je 1% lows... Aka, stotter.
en DLSS is eigenlijk iets wat je bij een xx80 en xx90 kaart niet nodig zou moeten hebben om normaal te kunnen gamen op native 4K met 60fps.
Is dat zo? Of mensen moeten onder ogen zien te komen dat 4k gewoon echt HEEL VEEL meer van je gpu vraagt dan andere resoluties. En dat als je een stukje deftig wil gamen, je er beter van weg blijft, als je je niet genaaid wil voelen door gpu bouwers.
Dat is echt onzin.
Sjoemelsoftware zo zou ik het bijna willen noemen.

Als een 7900XT het kan, zonder DLSS / FSR, dan doet nvidia toch gewoon iets verkeerd? Je kan toch niet met een recht gezicht >1400piek vragen, voor een GPU die trucjes nodigt heeft om te kunnen presteren op dit niveau?

Ik zie dergelijke upscaling technieken behoren tot midrange op hoge resolutie, of nog beter, bij consoles. Omdat iedereen die toch aan een 4K televisie hangt.
Ik ga wel mee in dat het sjoemelen is in appels-met-appels FPS vergelijking. Echter vervolgens ga je gamen, en als ik dan zie hoeveel lager ik in Horizon Forbidden West de quality settings moet zetten voor native 4k res op 60 Hz, vergeleken met DLSS naar 4k, dan ben ik toch met het eindresultaat van DLSS gelukkiger dan zonder. Uiteraard is het ultieme hierin native 4k zonder sjoemelen, maar dat red ik met een RTX 3080 niet. En waar een 7900XT natuurlijk de allernieuwste generatie is, en de 5080 dadelijk al helemaal, wil je toch ook even met die hardware kunnen doen, liefst ook eens een generatie overslaan zoals we hier nu ook doen. En aan het einde van inmiddels zo'n 4-5 jaar voor een generatie skip (vroeger had je met 12-18 maanden al echt iets nieuws) zul je dan toch altijd al compromissen moeten sluiten.

Heel benieuwd wat AMD voor de 9070 straks neerzet aan prestaties met hun nieuwe FSR aanpak, die zou dan veel meer de kant op moeten gaan van NVidia. Stel van de AMD 9070 komt wel een variant van met meer VRAM om wat te spelen met AI, en de NVidia 5080 blijft voor € 1.400 nog altijd steken op 16GB, dan gaan we hier waarschijnlijk wel over op AMD deze ronde. Of als AMD iets veel interessanters kan aanbieden in prijs/prestatie/efficiency op 16GB VRAM. Draait hier ook echt nog wel een stuk om efficiency, in het TV meubel is wel rekening gehouden met iets aan warmte afvoer, maar 300-350W in game gemiddeld verbruik is alsnog wel het matje voor het totale systeem. De 7900XT, laat staan XTX, waren daar toch ook wel echt wat te hete kaarten voor.

[Reactie gewijzigd door OruBLMsFrl op 2 januari 2025 13:36]

Uiteraard is het ultieme hierin native 4k zonder sjoemelen, maar dat red ik met een RTX 3080 niet.
Nee, want die heeft slechts 10GB VRAM. En zelfs 12 is daarvoor, in die game, niet meer genoeg.

Dus mooi dat het bestaat, maar met meer VRAM voor hetzelfde geld, had je een betere ervaring gehad.
Dat 4k gigantisch veel meer van je systeem vraagt dan 1440p of 1080p kan je niet bestempelen als onzin.

Dat je een 3070 vergelijkt met een 7900XT is onzin. Dat je prijzen van een bedrijf dat al een decennium probeert bij te benen vergelijkt met de marktleider, dat is onzin.

Dat jij blij bent met amd. Top, ik wordt er niet warm van. Al kan ik voor de helft van het geld gelijkaardige prestaties kopen. Ik gebruik mijn gpu voor meer dan gamen. Er zit gewoon meer waarde in een Nvidia gpu dan een amd gpu. En dat is niet de schuld van Nvidia.
Niet mee eens!
Jij beweert dat Nvidia { door hun trucjes } beter zijn.
En ja ik heb een Nvidia kaart wel een oudere kaart maar de overstap komt eraan { kamp rood }.

Wat hij ook zegt.....sjoemelsoftware net als de Diesel :)
Ik beweer helemaal niets. Ik heb de afgelopen 20 jaar een hoop GPUs versleten van beide merken, who cares.

En heel dat dlss debacle… ik gebruik dat net om uit men oudere kaart wat jaartjes extra te persen. Danku Nvidia, het enige goede ding dat ze voor gamers hebben gedaan. En dat wordt dan afgebroken langst alle kanten 🤷‍♂️

Het is niet dat GPUs beter hadden gepresteerd of goedkoper hadden geweest zonder dlss. Je hebt gewoon de keuze om het te gebruiken.

Jullie zijn hier echt aan het zagen, je wil het beste van beste, maar zijn niet tevreden van de prijs.
Jullie vinden een Porsche te duur want een Opel Astra OPC kan even snel rijden. |:(

[Reactie gewijzigd door BlaDeKke op 2 januari 2025 14:56]

Ik wil niks he net als jij niks beweert ;)
Heb nu een 1070ti en dat is ook de laatste van Nvidia.Na de 2 serie zijn zij { Nvidia } achtelijk gestegen in de prijs.
Dus omdat wij aan het zagen zijn vind jij de prijs goed?
Enige verschil is dat meer mensen inzien dat de prijs niet van deze dagen zijn.

[Reactie gewijzigd door xaradine op 2 januari 2025 20:41]

Ik vind de prijzen van een 4080 en 4090 echt helemaal van de pot gerukt. Maar je krijgt dan ook echt wel wat. Ik kan me gewoon niet voorstellen dat je daar niet tevreden van bent, tenzij prijs kwaliteit gezien.

Ik denk dat mensen het prijsverschil zien tussen een 1440p beeldscherm en een 4k beeldscherm en dan verwachten dat het prijsverschil op rekenkracht vlak wel van diezelfde orde gaat zijn, wat het dus niet is. Dus nu zit je daar met een 4k monitor die je amper aangestuurd krijgt. Dat is gewoon niet de schuld van Nvidia.

Zelfs met een 4090 zou ik het niet over mijn hart krijgen om by default op 4K te gamen. Leuk als je met wat volk op de tv wil gamen. Maar aan de bureau op je monitor, lekker 1440p en jaren genieten van hoge performance.

[Reactie gewijzigd door BlaDeKke op 2 januari 2025 17:30]

klopt ;) op paar punten haha.

[Reactie gewijzigd door xaradine op 2 januari 2025 17:36]

Lol, flexen met je videokaart. Alsof het een Porsche is. Zo komt het hier over.

Jij bent nu zelfverklaard degene die dus niet naar de verhouding van prestaties en prijs kijkt, maar vooral naar het merk?

Een hypothetische AMD kaart met gelijkwaardig prestaties in games voor de helft van de prijs en nog gaan voor Nvidia. Dan ben je dus wat men vaak "een fanboy" noemt. Wat mag... Maar je komt nu nogal over alsof andere mensen, die verstandige afwegingen maken plebs zijn.

Waarom is de waarde van Nvidia dan zoveel hoger voor jou? De dubbele prijs.
Je bent reeds de 2e die hier woorden in mijn mond legt
Misschien is dat een teken dat je bericht anders overkomt dan je intentie was.
Cuda is zeker een goede meerwaarde voor profesioneel gebruik. Als het gaat om gaming en game prestaties is dat niet relevant. Maar voor jou wel! Dat snap ik. De ontwikkeling van ZLUDA of een andere open source implementatie zou nog beter zijn. Nvidia is wel erg gesloten wat dat betreft.

De driversituatie is "oud zeer" wat is blijven hangen: alsof Nvidia nooit driverproblemen heeft. Recent nog, hun nieuwe Nvidia app, die tot 10 procent performance uit games haalde. Shit happens. Dat AMD altijd maar achter de feiten aanloopt met drivers is echt niet meer van deze tijd.
Sjoemelsoftware? Waar haal je dat van?
Dlss is gewoon een stuk beter dan fsr, dus mensen halen vaak dlss er bij. Maar dlss MOET niet om goede prestaties te halen. Een 4080 verslaat een 7900xtx vaak in benchmarks en dit is zonder upscaling.

De trucjes krijg je daar nog boven op.
ik was met de stukje van john doos mee eens. { scroll naar boven }

[Reactie gewijzigd door xaradine op 3 januari 2025 12:46]

Dit klopt niet helemaal, vind ik. De 4080 en de 4080 super worden niet vaak verslagen door de 7900XTX. Zie ook Hardware Unboxed. Het is eerder nek aan nek, tot bepaalde zware raytracing implementaties hun intrede doen.

En daarbij kost een 4080 super doorgaans €200 meer dan de 7900XTX.

Raytracing heeft voor heel veel games amper nut. Zie daarvoor ook Hardware Unboxed: zij hebben een zo objectief mogelijke vergelijking gemaakt en geconcludeerd dat er maximaal een handvol games zijn waar raytracing aanzetten visueel de moeite waard kán zijn.
DLSS komt alleen op de laatste generaties Nvidia. AMD heeft FSR en dat is ook beschikbaar voor alle oudere GPUs.

Tussen de nieuwste versie van FSR en DLSS zit, met name op 4K resolutie, geen aantoonbaar onderscheid in kwaliteit van de technieken. Zie ook de reviews van Hardware Unboxed.
Iedereen die tegen Nvidia aanschopt vanwege hun slechte waarde is zeker een AMD fanboy? Ben ik zeker niet. Maar ik kan niet zo goed tegen misinformatie of mensen die AMD veroordelen om driverproblemen van 10 jaar geleden.

Op dit moment biedt AMD nog steeds vaak de beste prijs tov prestaties. (Normale rendering).
Bovendien... AMD is ook absurd duur. Alle GPUs zouden goedkoper moeten zijn: Hopen dat Intel iets heeft aangeslingerd en dat AMD hun komende midrange generatie ontzettend competitief zal prijzen....

DDU heb je ook alleen nodig als je switch van AMD naar Nvidia of andersom.
Ja, maar waarom zou je als bedrijf dan nog tesla kaarten kopen van 20k per stuk als de consumenten kaarten net zoveel geheugen hebben.
Precies daarom heeft ons cluster veertig GTX1080s.

Helaas is de leverancier overgekomen door een ander bedrijf dat geen gaing cards meer levert.
Het ligt er dan aan hoe je contractueel klem zit. En die 5090s passen doorgaans niet in 19-inch rack mounts. Mocht zoiets er komen, dan zou het best wel eens kunnen dat we flink gaan brassen.
Verwachten wel, denk dat het alleen commercieel gezien voor hen totaal niet interessant is. Heb het nogal gezegd, dit is voor nvidia een nevenactiviteit geworden. AI is waar ze de poen binnenscheppen en dus ook de memory nodig hebben. Dus gpus zijn nu de pineut met het minimum aantal memory vermoedelijk dat ze kunnen missen. Want je kan memory ook maar zo snel aanslepen als micron, samsung en anderen het kunnen maken. Plus dat waarschijnlijk productielijnen al een stuk niet meer hiervoor worden ingezet.

[Reactie gewijzigd door Powerblast op 2 januari 2025 12:34]

Vereiste van nieuwe games zit het 'm in, zoveel hoger worden die niet want zoveel mensen gamen er niet op 4080s en 4090's.
Veel meer dan wat extra grafische instellingen waar je niet tot nauwelijks iets van mee krijgt is schijnbaar niet aantrekkelijk genoeg om 4 tot 5 keer zoveel euro's voor je videokaart neer te leggen.

Dat en 30% meer performance tegenover 30% meer verbruik is ook maar lastig te verkopen.

Star Wars Outlaws is een van de eerste games waarin de ray-tracing extra's echt wat toevoegen. Ben je zo mee uitgespeeld en daar staat je gpu van €2000 dan interesant te wezen in zijn glazen kooitje.

Na het terug lezen van mijn relaas, de conclusie getrokken dat ik dan toch, naar een jaar of 20 uitstellen, te oud ben geworden voor deze onzin.
Niveau Ferrari kopen en dan stapvoets door het centrum rijden, ofzoeits. E-peen inflatie.
Get a life, get a wife.
...Omdat genoeg mensen zeker op tweakers wel gewoon 1440p 144hz of hoger willen kunnen spelen? Denk je dat er zo veel animo is voor mensen met een 100 euro 1080p 60hz monitor om een kaart van 1500 euro te kopen? Ik denk dat die doelgroep al snel een monitor van 300+ euro uit zal gaan kiezen en dat is al in het territorium van 1440p 240hz aan het komen, nou dat gaat je echt niet lukken met een 4060 of 7600xt op ultra. En genoeg mensen vinden DLSS helemaal niks (ikzelf ook niet), het maakt het beeld echt een heel stuk lelijker waardoor ik het altijd uit zet, dan maar iets lagere draw distance en dan krijg je ook die frames terug zonder artifacts die nog erger zijn dan wat TAA al gaf. Maar dan heb je al gauw 16gb nodig. Dat kan ik je wel met zekerheid vertellen want mijn 3080 10gb gebruikt al vaak genoeg vrolijk 9 van de 10gb vram en dan zijn mijn 1% lows merkbaar al heel slecht.
Dat snap ik. En met DLSS 3.0 zie je het al bijna niet meer.

Maar het klagen is natuurlijk één ding. Als je de kaart dan alsnog koopt had je net zo goed niet hoeven te klagen. De enige manier waarop je iets kunt bereiken is door gewoon die kaart niet te kopen en dat samen met iedereen te doen die niet klaagt. Klagen en de kaart wel kopen schiet niet op.
Ah de oude het is altijd aan de consument argument. Nou laten we het dan maar laten bij eens dat we het oneens zijn.
Want? Nvidia brengt een videokaart uit, de 5080, met 16GB. Iedereen maar klagen op internet. Straks als ie uit is is de kaart nergens aan te slepen want toch wil iedereen hem. Onder de streep wint alleen Nvidia ondanks dat iedereen het er eigenlijk niet mee eens is.

Als Nvidia zou zien en zou inschatten dat de kaart niet verkocht zou worden met 16GB zouden ze hem echt niet op de markt brengen...
Het lastige in dit segment, is dat Nvidia zo ongeveer monopolist is. AMD gaat zich toeleggen op het middensegment en Intel ook. Niet kopen lijkt daardoor heel weinig zin te hebben, want de 6080 gaan ze gewoon weer op dezelfde manier in de markt zetten zolang er geen concurrentie is.
Dus dan laat je je chanteren? Want ach, zonder Nvidia kan je niet spelen?
Jij kent de streken van nvidia toch wel?
Eerst 5080 16gb
Dan de 5080ti 24 gb
1 maand later de 5080super rtx 32gb enz ;)
Omdat nuance. We zitten op een reactiepagina van een nieuwsbericht hierover. Ik zit echt niet tegen al mijn vrienden en familie te zeiken over dat ik zo zielig ben omdat mijn 3080 naar mijn ogen te weinig vram heeft, maar dit is dé plek om die discussie wel te hebben, dus om het neer te slaan als 'tja niet zeuren jouw schuld'. Ja no shit. Maar discussieren mag. Denk je dat ik het het einde van de wereld vind? Nee. Is het het eerste product dat ik heb gekocht waar ik niet helemaal blij mee ben? Nee. Is dit de plek om wel on topic een discussie te hebben over en wat klachten rond te smijten? Ja.

Edit: Als je ook iedereen vind zeuren op het internet breng je misschien iets té veel tijd rond in de tech-bubbel. Gemiddeld persoon boeit het geen ene barst, maar als je alleen op tweakers en gamersnexus kijkt dan zou je idd denken dat het hele internet zeurt en de wereld vergaat. Dus wederom, nuance.

[Reactie gewijzigd door SpaghettiCake op 2 januari 2025 18:27]

Het verschil in DLSS vs native zie je in veel games niet. 1% lows heeft niks te maken met Vram maar met je cpu en ram.
Ik ben het ermee oneens. Bij bewegende beelden zie ik echt wel verschil tussen DLSS en Native, ook nog bij DLSS 3.0 en ook bij FSR. Maar ik geef toe ik ben wel een zeikerd hiermee en toen TAA begon was ik daar ook al gelijk op tegen. Doe mij maar lekker MSAA ookal is het een stuk slechter voor performance.

1% lows die niks met VRAM te maken hebben is wel overgesimplificeerd, als ik de textures op ultra set bij black ops 6 dan krijg ik mega stutter oftewel 1% lows zijn ruk. Dat komt dan echt niet omdat de CPU meer kracht nodig heeft maar gewoon heel simpelweg omdat de 10GB niet genoeg is om alles te bufferen. Zet ik de textures naar medium is het probleem helemaal weg, maar veranderd er ook zo goed als niks aan mijn average fps, alleen alle stutters zijn weg. Of ik nou op medium of ultra textures speelt heeft niks te maken met CPU of RAM en alles met hoeveel VRAM je hebt.
In sommige gevallen zien games er met DLSS quality zelfs beter uit dan native (zie Digital Foundry)
Welke video? Want ik ben nog niets tegengekomen dat DLSS beter beeld creëert dan native. Sowieso bijzonder iets om te claimen. Netals zeggen dat een kopie van iets beter is dan origineel. Het kan wel, maar wel heel bijzonder. Ik moet persoonlijk niets hebben van smeuïge wazige dlss en ontwikkelaars die geen moeite in optimalisatie stoppen want dlss
Ik beweer dat uiteraard niet zelf; ik baseer me op wat ze zo nu en dan in DF-video’s zeggen.

In sommige gevallen werkt het beter, omdat het fijnere subpixeldetails beter verwerkt. Hier is een Digital Foundry-video (timestamp) waarin dat wordt uitgelegd.

Hier vind je ook een analyse van Hardware Unboxed waaruit blijkt dat DLSS op sommige vlakken beter presteert dan native rendering.

Zo zijn er tal van voorbeelden, maar ik heb niet de tijd om ze allemaal terug te zoeken. Ik herken me niet in het ‘wazige’ waar jij naar verwijst. Vermoedelijk speel je dan op resoluties die lager zijn dan 4K. DLSS werkt het beste in 4K, waarbij je eventueel ook wat sharpening kunt toepassen. Met de ‘quality mode’ op deze resolutie zie je in de meeste games weinig verschil met native, en in sommige scenario’s kan het zelfs beter zijn.

Overigens hoeft het van mij niet per se beter te zijn dan native. Het levert op zichzelf al een enorme prestatieboost op met minimale visuele beperkingen (in elk geval in 4K). Daardoor kan ik letterlijk elk spel in 4K spelen met een hoge framerate.

Als je op zoek bent naar iets dat nóg beter is, kun je DLAA overwegen. Dat biedt in de meeste gevallen een hogere kwaliteit dan native, maar je hebt er wel een krachtige GPU voor nodig. Zelfs mijn 4090 heeft er af en toe moeite mee.

[Reactie gewijzigd door DLSS op 3 januari 2025 00:39]

Ik heb het bij een aantal games geprobeerd. En elke keer is de conclusie hetzelfde, het maakt het beeld wazig "in motion". Alles op 4k op een 4090. Bijvoorbeeld Marvell Rivals, Hunt showdown, etc.

TAA is een verschrikkelijk lapmiddel voor luie devs die niet willen optimaliseren.

[Reactie gewijzigd door OriginalFlyingdutchman op 3 januari 2025 09:16]

TAA is wel echt iets compleet anders dan DLSS, DLSS is een upscaler die gebruik maakt van tensor cores en TAA is 'Temporal Anti-Aliasing' voor native resoluties. DLSS en DLAA werken veel beter dan TAA.

Ik heb zelf helaas die games die jij noemt niet gespeeld, maar het is wel waar dat niet elke developer DLSS optimaal implementeert.

Juist in beweging zou DLSS super goed moeten presteren

In de meeste games werkt het uitstekend in mijn ervaring. Bij games waar dat niet zo is speel ik gewoon in native 4k (dat is wel het voordeel van een 4090 natuurlijk).

Een kleine tip: het kan nog helpen om sharpening te gebruiken (ik zet het meestal op 30% ofzo als het nodig is)_

[Reactie gewijzigd door DLSS op 3 januari 2025 17:10]

Omdat niet iedereen alleen singleplayer spellen speelt... in pvp situaties helpt meer fps zeker
Mijn 3090 loopt ook tegen zijn limieten aan op 3x1440p als ik de graphics wat omhoog schroef. Maar met deze prijzen tegenwoordig schroef ik ze liever wat omlaag dan dat ik 2500+ uit ga geven voor meer FPS.
of je ontkoppelt gewoon een schermpje of 2 :)
Haalt wel een hoop immersie weg in een racesim.
Haha klopt, maar als je 3 schermen op 1440p wil draaien dan mag je ook wel wat uitgeven aan een videokaart ;)
Dat is eigenlijk een andere discussie.

Eigenlijk is de 5080/5090 (aangezien AMD en Intel zich niet lijken te gaan mengen in deze klasse) een beetje de “Ferrari” (zonder daar een bepaald kwaliteitsniveau aan te hangen) van de videokaarten: veel duurder en spelend in het topsegment. 90% (ik zou zelfs zeggen 99%) van de gamers heeft die kaart niet nodig en kan of wil er ook het geld niet voor uitgeven. Het zou overigens goed zijn als we dat allemaal wat meer zo zouden gaan zien, in plaats van de indruk te wekken dat 4K+/144Hz+ & alles op Max settings “noodzakelijk” zijn.

Daartegenover staat de discussie of het wel ok is om een Ferrari te bouwen en die vervolgens te beperken op 180km/u. Gewoon omdat er geen concurrentie is in dat segment. Ja, je zit laag tegen de grond, dat geeft je een gevoel van snelheid, maar je gaat niet sneller… En hoewel ik geen 5080 ga kopen (en ergens zelfs blij ben dat de VRAM niet snel omhoog gaat, want dat betekent dat mijn 2070S op dat vlak nog steeds enigzins mee blijft kunnen), begrijp ik dat wel. Het is een gemiste kans.

Nu, de concurrentie doet ook ergens iets verkeerd. Ik kan het ook niet verklaren, maar we willen wel allemaal nog steeds Nvidia kopen.
Wat de concurrentie 'verkeerd' doet is jammer genoeg: minder marktaandeel hebben.

Bijgevolg minder researchbudget om ze bij te benen
En dat budget moeten spreiden over veel minder verkochte units
Bijgevolg onmogelijk om significant op marge te concurreren
Davinci Resolve Studio 8K. Zelfs voor 4K is 16GB en meer zeker welkom.
Voor 1400+ € verwacht ik inderdaad ook meer dan 16GB.
Ik denk dat Davinci Resolve gebruikers niet echt de doelgroep zijn. Maar goed, meer vram is altijd wenselijk.
Voor mij is scaling in het algemeen meer iets als last resort, niet iets waar ik standaard op wil leunen voor een leuke FPS (en nee 60 fps is echt veel te weinig voor snellere games).

Als je een nieuwe kaart koopt en meteen al trucjes moet gebruiken om een beetje fatsoenlijke FPS eruit te krijgen heb je imo gewoon een te langzaam model gekocht. Ik zie het meer als een optie om je kaart een jaar langer te kunnen gebruiken als de games na verloop van tijd te zwaar voor je GPU worden...
Niet iedereen wil op een "el potato" gamen :+

Maar serieus, is toch gewoon een kwestie van wat je zelf belangrijk vindt? Als je het over echt nodig hebt dan heeft bijna niemand een videokaart nodig die er niet zijn geld mee verdient. Games op zich zijn niet nodig.
Met AI steeds sterker op komst zijn krachtige videokaarten zeker nodig.
Ik merk dat ik mij tijdens het fotograferen geen zorgen meer maak om ruis want Lightroom zet AI om ruis te verminderen, en dat werkt fantastisch.
Maar, nu komt het, ik laat 50+ foto's tegelijk "denoisen" en dan draait mijn videokaart op max.
meer ram = beter voor AI toepassingen (zoals Stable Diffusion).
Dus ja, ik zou heel blij zijn met een 5080 met 24 of 32Gb ram.
Dat ie niet zo snel is als de 5090 en er wat langer over doet zal me een worst wezen.. de RAM zorgt ervoor dat je grotere (resolutie) plaatjes kunt genereren. :+

Ik heb nu een 3080 met 12Gb ram.. en voor +4Gb ram vind ik het de moeite niet waard om een 5080 te halen.. maar een 5090 zou weer overkill zijn zowel kwa budget als ook kwa andere toepassingen (voor mij in ieders geval).

[Reactie gewijzigd door Ayporos op 2 januari 2025 16:04]

RTX 3090 met 24gb geheugen gaan momenteel voor minder dan 600 euro, fijne kaart voor geld.
Wat een rare vraag, je bent toch niet de ouder van die persoon? Daarnaast weet je niet of deze persoon native 4K over DLSS prefereert. :? Misschien kun je die vraag als eerst stellen.
Voor het lokaal draaien van mijn llm's is zo'n high-end kaart meer dan welkom! :)
Net daarvoor heb je veel Vram nodig en is het zonde dat een 5080 op 16GB blijft steken.
Klopt! En inderdaad jammer dat het voorlopig blijft steken op 16gb. Maar binnen de beschikbare ruimte zijn er al veel mooie modellen (bijv. Mistral nemo 13b op 8q of zelfs 16q). Dan is extra snelheid wel lekker ( vergeleken met mijn huidige 3060 met 12gb)
Waarom zou ik enkel maar veel geheugen voor te gamen?
Heb een 5120x1440 & 4K monitor.
AI modellen lokaal draaien is denk ik een grote reden voor meer VRAM willen op het moment.
Ik ken echt letterlijk niemand die een 60hz scherm heeft, daarnaast zouden mensen die geen geld hebben om een betere monitor te kopen geen geld hebben om 5080 te kopen ;)
Ik speel al jaren op 4k 120k fps en moet er niet aan denken op 60 fps te gaan spelen.
Dat ziet eruit als een slideshow.
Llm's self hosten heb je pak meer nodig dan 16gb, zeker als je top of the line wil gebruiken. Ook zijn er ondertussen al monitors 4k met 144hz of zelf 200+hz. Zonder een deftige gpu kan je de helft van je scherm zijn performance er nog niet uithalen.

Bijna iedereen die ik ken en regelmatig gamed heeft een scherm met meer dan 144hz en de meeste spelen aan 1440p.
Om VR te kunnen spelen en alels gewoon ultra te kunnen zetten zonder zorgen te maken over lag.
Was het maar +1400. Zal eerder tegen de 1900 euro hangen.
toch niet voor de 5080 serie? of gaat de 5090 zometeen naar de 3000 toe? 8)7
Intruductieprijzen zijn altijd onwijs hoog. Zakt vanzelf. Maar zolang de 5090 niet op de markt is, zal de 5080 echt wel ~1800 euro gaan kosten.
Vroege schattingen gaan voor de MSRP voor de 5090 naar $2000 dus dat is dan minimaal €2500 en dat is dan voor eventuele import-tarieven die toegepast worden. Dus €3000 is zeker niet helemaal out-of-reach. En als TweakTown gelijk krijgt en de MSRP op $2600 ligt (ten opzichte van de $1699 van de 4090) dan is €3000 een eitje.

TweakTown - NVIDIA's next-gen ultra-enthusiast GeForce RTX 5090 rumored at $2600, RTX 5080 at $1500
WCCFtech - NVIDIA’s GeForce RTX 5090 & GeForce RTX 5080 Expected Pricing Surfaces Online; Flagship RTX 50 GPU Rumored To Cost $2,600
The Nvidia RTX 5090 Could Cost a Lot More Than Most Gaming PCs

[Reactie gewijzigd door Clueless op 2 januari 2025 20:38]

Hoewel Nvidia niet vies is van een prijsverhoging, lijkt me 1400 euro wel erg overdreven. De adviesprijs van een RTX 4080 Super is 1119 euro, ik kan me bijna niet voorstellen dat ze daar 300 euro bovenop doen.
Rara wat was de introductieprijs van de 4080 (non-super)?

Antwoord:
1469 euro
Klopt, maar in de periode dat de RTX 4080 werd gelanceerd waren chipprijzen op een hoogtepunt. Daar deed Nvidia uiteraard nog een schepje bovenop, maar de prijs van de RTX 4080 Super laat zien dat ze die prijzen niet kunnen blijven handhaven.

Net als jij kan ook ik niet met zekerheid zeggen wat de prijs wordt, maar ik ben hoopvol dat het niet over de 1300 euro gaat.
Bij net uitgekomen high-end videokaarten is het gebruikelijk dat je relatief veel betaalt. Het videogeheugen, nu het snellere en duurdere GDDR7 zal natuurlijk ook een rol spelen om het bij 16GB te houden, want anders wordt de vraagprijs nog hoger dat je wellicht net zo goed iets langer kunt door sparen voor een 5090.

[Reactie gewijzigd door jumbos7 op 2 januari 2025 14:19]

Ik gok 2000 euro kijken naar de leaks van bestelsystemen en onze 21% BTW
Volgens geruchten gaat de 5090, 2000 dollar (volgens Linus van LTT) kosten. Zal zeker 1400+ zijn...
Mee eens en ik hoop dat dat ding ook geen veel te hoge 400W zal verbruiken.
1650 Euro voor een 16GB VRAM kaart, waardoor je eigenlijk dus voor 3000 Euro richting de 5090 geduwd gaat worden.

Wat leven we toch in verschrikkelijke tijden. Dit krijg je dus als AMD en Intel geen fatsoenlijke concurrentie kunnen bieden.
Nee, dit krijg je als consumenten altijd zeggen "AMD moet beter concurreren!", maar wanneer AMD nu al generaties lang betere performance per euro levert diezelfde mensen alsnog gewoon nvidia kopen. Dan komen ze met excuses zoals nvenc, AI, en DLSS, maar in werkelijkheid gebruiken 95% van de consumenten de eerste twee niet, en van die laatste zou ik graag eens een praktijktest zien, of gamers het verschil zien tussen de twee in echte gameplay (niet pixel peepen op screenshots)

[Reactie gewijzigd door kiang op 2 januari 2025 10:51]

ReSTIR en Iray niet vergeten, die laatste gebruik ik regelmatig. Nvidia doet ook meer op het gebied van nieuwere rendering technieken. Klopt, AMD is prijs/performance ratio beter, Nvidia is beter kwa nieuwste technieken. En AI wordt tegenwoordig ook steeds meer gebruikt, sterker nog ik zie steeds meer mensen met AI spelen, waaronder local Stable Diffusion.

Wil je FSR en DLSS in de praktijk zien?

Sure, mijn video's. Geen "pixel peeping" op screenshots maar 4k/60fps video's. Daarnaast zijn er genoeg recente games die tegenwoordig gewoon FSR en DLSS ondersteunen. Als je een beetje een gamer bent, dan zal je heus wel een game vinden waarbij je DLSS in de praktijk kunt testen.

FSR
YouTube: FSR3.0 + frame generation Cyberpunk 2077

DLSS
YouTube: DLSS 3.5 + Frame gen + RR Cyberpunk 2077

[Reactie gewijzigd door Toonen1988 op 2 januari 2025 11:08]

My god dat is echt wel dag en nacht verschil. Wist niet dat het verschil zo groot was, zijn dit exact dezelfde settings?
Ik vermoed dat ik niet weet waar naar ik moet kijken, maar welk verschil zie je precies dat zo groot is? Ik kijk op 1440k maar ik vind beide video's er vergelijkbaar uit zien.
Ik zag vrij makkelijk verschil. Kijk voorbeeld naar de tekenen op de grond die veel pixelachtiger eruit zien (stairstepping artifacts) met FSR. Zo ook knipperen de lichtvlakken op de grond op de snelweg bij FSR, maar zijn perfect stabiel met DLSS. Sowieso zullen er verder heel veel aliasing problemen zijn bij de FSR implementatie, maar die zal je niet allemaal goed kunnen zien wegens compressie.

In-game zal je veel meer shimmering en stairstepping zien dan in een YouTube video. Dat zag ik ook meteen toen ik net even testte in Baldur's Gate 3 met DLSS2 Quality vs FSR2 Ultra-Quality. Gigantische brij aan shimmering en stairstepping-pixels op haren en armor van de party in FSR, zowel in- als uitgezoomd, maar perfect stabiel in DLSS. Maar dat soort artifacts ga je niet goed zien in een YouTube video met zware compressie.
Ik denk dat ik het echt naast elkaar moet zien voordat ik het verschil mij echt zou opvallen in de Youtube video's. Wellicht dat het in-game mij inderdaad eerder zou opvallen.

[Reactie gewijzigd door jumbos7 op 2 januari 2025 15:15]

Check de hekken links wanneer hij op de snelweg rijd. Grootste verschil imo
Misschien dat ik het op een groot 4K scherm moet bekijken want ik zie nu geen bijzonder verschil tussen beide filmpjes in beeldkwaliteit. Ik denk dat er side-by-side ingezoomd zal moeten worden tussen het origineel en de de twee upscaling technieken voordat het mij duidelijk wordt waarom de ene upscaling techniek zoveel beter zou zijn. Ik ga kijken of ik een video kan vinden die daar op in gaat en wellicht dat ik het dan beter snap.
FSR is ook niet echt een goede upscaling techniek, XESS is al een heel stuk beter.
AMD's keuze om geen deep learning te gebruiken.
Ja, dit zijn precies dezelfde instellingen. Op het begin van de video ga ik door de settings heen.
Heb beiden ook even bekeken. Ik zie toch ook echt wel duidelijk verschil in voordeel van nvidia (vanuit mijn perspectief).
Videos op youtube zijn totaal ongeschikt vanwege de compressie die er overheen gaat: compressieartefacten van videocodecs produceren namelijk gelijkaardige artefacten als FSR en DLSS (ghosting en fuzzy edges). Maar zelfs als je ongecomprimeerde video kom delen: hoe je naar een video kijkt is heel anders dan hoe je naar je scherm kijkt bij het gamen, dus zelfs dat is geen goede vergelijking.

Een echte goede test kan je dus enkel doen met een groep gamers die niet weet op welke hardware ze zitten, en een aantal games spelen op een nvidia en and machine, waarna ze moeten aangeven of ze een verschil merkten en zo ja, wat ze denken dat de betere upscaling had.
Gaat nogal moeilijk, niet? Ik zou zeggen, probeer zelf in games? Mits je uiteraard iemand kent die een Nvidia heeft of zelf eentje hebt. Het lijkt erop dat je alles uit de kast haalt om tegen DLSS te zijn als ik eerlijk mag zijn.

Kan slechts mijn PC nu in de auto gooien en dan vervolgens naar jou toe rijden. :P Deze video's kunnen net zo goed als vergelijking kunnen worden gebruikt. Zelfde instellingen maar andere render technieken en je ziet toch wel héél duidelijk verschil.

Of gebruik je dadelijk als argument dat ik deze beelden heb "gemanipuleerd". :+ Bedoel, ik wil niet onaardig doen en ik begrijp jou uitgangspunt, maar het voelt alsof je nu gewoon telkens iets zoekt om gewoon niet te willen geloven dat DLSS op dit moment toch iets beter presteert als FSR.

Het grootste voordeel van FSR is wel, het kan worden gebruikt door andere merken, DLSS alleen door Nvidia. En als je geen Nvidia hebt, dan kan je inderdaad geen DLSS proberen.

[Reactie gewijzigd door Toonen1988 op 2 januari 2025 11:33]

? Ik weet niet waarom je een beetje aggressief wordt wanneer ik je zeg waarom je eigenlijk geen conclusie kan trekken op basis van gecomprimeerde YouTube videos. Ben jij het er niet mee eens dat een blind experiment de beste methode is om een goede conclusie te trekken?

Ik ben namelijk niet tegen dlss, ik denk dat objectief dlss simpelweg beter is dan fsr. Alleen trek ik in twijfel dat het het een merkbaar verschil is in de praktijk, tenminste op de quality setting.

War ik voorstel is overigens niet iets dat ik of jij als persoon moet doen, het lijkt me een super leuk idee voor een YouTube video of tweakers artikel, misschien een idee @Hayte ?

[Reactie gewijzigd door kiang op 2 januari 2025 12:57]

AuteurHayte Redacteur @kiang2 januari 2025 11:49
Ik zal het intern eens opgooien, leuk idee :)
Cool, ben ik wel benieuwd naar!
Aggressief? Nee hoor, mensen willen gewoon iets laten zien, dat jij gelijk de grond inboort. Of video's nu gecomprimeerde zijn op YouTube is totaal irrelevant. Omdat het nog altijd een vergelijking kan laten zien tussen beide video's. Zolang de instellingen hetzelfde zijn en dezelfde bitrate, kan je gewoon een vergelijking doen.

Het is niet zo dat FSR video's meer gecomprimeerd worden als DLSS? Daarom komt het bij mij over dat je nu iets zoekt om mij en andere in twijfel te trekken.

Ook dat je eerst zegt dat AMD betere prijs/performance heeft (wat ook klopt op het low en midden segment) en dan dat mensen toch nog voor Nvidia gaan met excuses die jij aangaf. Dat komt eigenlijk op neer dat je AMD aanraad en dat mensen toch nog Nvidia blijven kiezen met als excuses die jij in twijfel trekt.

Vervolgens wil ik je het verschil laten zien, en je boort dat meteen de grond in door te zeggen dat het maar allemaal gecomprimeerd is, terwijl je nog altijd gewoon het verschil kunt zien.

Ghosting zou een ander verhaal kunnen zijn, maar ook hier kan je gewoon een vergelijking in laten zien. Vooral als je op hoge snelheid in een auto rijdt. In deze beide video's kan je nog gewoon een goede vergelijking maken ongeacht of het nu gecomprimeerd is ja of nee. Zolang alle instellingen maar hetzelfde zijn, kan je het gewoon als vergelijking gebruiken. Dat het iets minder uitziet dan wat je zelf speelt, ja dat is altijd al zo geweest. Maar nogmaals, je kunt nog gewoon altijd een vergelijking doen.

Iets anders kan ik je op dit moment niet verzinnen om het verschil te laten zien, dan alleen ergens lokaal bij elkaar te komen.

Wanneer ik totaal niks gaf om nieuwere technieken en gewoon normaal wil gamen zonder de nieuwste technieken, was ik ook gewoon gegaan voor AMD.

[Reactie gewijzigd door Toonen1988 op 2 januari 2025 12:16]

Geloof me. Ik heb een 4080, kan DLSS en FSR proberen op de games.

Het grote verschil zit hem niet in de grafische aspecten (Pixel peepen). Het zit in de feel bij framegen. DLSS kan gewoon 30 fps naar 60 fps krikken zonder dat je input delay voelt. FSR kan dit niet, die heeft een basis framerate nodig van 60 om die input delay niet te voelen.

Daardoor is FSR totaal ongeschikt om raytracing op 4K richting 60 fps te brengen. DLSS kan dit wel.

FSR is daardoor gewoon NIET geschikt om ray/path tracing te gebruiken op 4K. Ik heb het dan over games zoals Indiana Jones, Alan Wake 2 die er echt beter uitzien in path tracing. Het klopt dat deze games geen eens ondersteuning bieden voor FSR, maar daar is een reden voor. Het is echt niet alleen de zak geld die Nvidia heeft.

Ga maar eens Avatar FOP spelen onder de 40 fps, krik het op naar 60 fps met framegen. Het is en blijft aanvoelen als 40 fps (geen 60 fps). Doe nu nogmaals hetzelfde met DLSS in Indiana Jones of Alan Wake 2. Die voelen/spelen gewoon als 60 fps.
Voor mij is iRay ook de drijfveer om Nvidia te gebruiken. Sowieso voor 3D rendering kom je al heel snel uit bij Nvidia. Bij mijn weten is Blender een van de weinige die ook een AMD render engine kan gebruiken.
En hoeveel consumenten gebruiken iray?

Ik geloof best dat er een heleboel mensen zijn die absoluut baat hebben bij nvidia exclusieve features, maar 3D renderen doet de gemiddelde gamer simpelweg niet.
Ik zie de 4090 of dadelijk 5090 minder als game kaart dan prosumer kaart. Als je alleen maar gamet en daar deze kaart voor koopt dan is dat zwaar overdreven in mijn optiek. Of je hebt meer dan genoeg geld om het te doen.
En niet te vergeten: AMD doet het een heel stuk better op Linux. Dus het blijft de beste keuze als je af wilt stappen van Windows, wat steeds meer mensen doen.
En niet te vergeten: AMD doet het een heel stuk better op Linux. Dus het blijft de beste keuze als je af wilt stappen van Windows, wat steeds meer mensen doen.
Dat betreft druppels in de emmer (zie Steam hardware & software survey, gedeeld met de Steam Deck) en gaat geen significante invloed hebben op de marktverdeling.

Meer dan 1 op de 50 spelers die op Linux speelt is indrukwekkend ten opzichte van wat het ooit was, maar dat is nog steeds maar een klein deel van de markt. Ik verwacht dat dat met name groeit door gebruik van de Steam Deck (en straks andere handhelds die standaard geleverd worden met SteamOS), niet door spelers die voor hun eigen computer bewust en expliciet kiezen voor Linux.

[Reactie gewijzigd door The Zep Man op 2 januari 2025 11:18]

Mijn punt was meer van: Als je geen high-end kaart wilt, en dus wilt kiezen tussen AMD en Nvidia, en je zit er ooit aan te denken om van Windows af te stappen, dan is AMD "the way to go".

Nvidia-open is een ding, maar de core drivers zijn nog steeds closed source en "AS IS" en als iets niet werkt dan mag je weer wachten tot de volgende release wat weer iets anders stuk maakt. Zoals dat al jaren gaat bij Nvidia Linux.

En precies omdat Linux gaming een grote opmars maakt, is het misschien iets om aan te denken. :)

Ik ben van plan om mijn volgende gaming build te baseren op een Linux-omgeving, en dus zit je vast aan AMD of Intel Arc. Nvidia moet je gewoon niet willen als je de keuze hebt.

[Reactie gewijzigd door MrFax op 2 januari 2025 11:27]

En precies omdat Linux gaming een grote opmars maakt, is het misschien iets om aan te denken. :)
Mijn punt was meer van: het is geen grote opmars. Het is een langzame klim die met name gesteund wordt door de Steam Deck. De enkele tweakers die Linux op eigen systemen installeren zijn statistisch niet significant. Ondergetekende valt daar ook onder. ;)
Is het trouwens waar dat spellen (misschien alleen sommige) beter presteren op Linux? Ik zag laatst een video dat ACC (simracen) sneller was op iets dat 'CachyOS' heette dan op Windows 11. Ik heb overigens een XTX omdat ik wist dat ik een 3x1440p simrig zou gaan maken, en dan is een stevige GPU wel nodig. Als dat beter werkt op Linux is het misschien een idee om een dual-boot te proberen voor gaming. :-)

ps Geen klachten verder, de XTX kan ook op Win 11 die 3 monitors wel aan met ACC.
Dit is 100% waar. Een groot voorbeeld is Cyberpunk 2077, zeker met de ntsync (vervanging van fsync) linux driver.

nieuws: 'Cyberpunk 2077 draait 31 procent sneller op Linux dan op Windows 11'

Het heeft een aantal redenen, en alle redenen hebben met de kernel+Wine/Proton te maken. Exacte uitleg kan ik niet geven, maar Cyberpunk 2077 maakt echt immens veel gebruik van syscalls, en dat is waar de Windows Kernel tekort in schiet. De fsync/ntsync driver optimaliseert het immense gebruik van syscalls voor de Linux Kernel, en om een of andere reden gaat de ntsync kernel driver daar beter mee om dan de Windows Kernel.

En dat is het mooie van Wine/Proton: Alles wat je implementeert, kan je gelijk goed implementeren, en op je eigen geoptimaliseerde manier.

[Reactie gewijzigd door MrFax op 2 januari 2025 13:39]

Nou ik gebruik die dingen wel degelijk hoor. Met name AI op mijn 4090. Die ik echt voor gaming heb gekocht. In mijn geval was de keuze daarop gevallen vanwege mogelijkheden capabiliteiten. En ik wilde echt top specs omdat ik eigenlijk alleen in VR speel. AMD heeft gewoon niet echt iets in het 4090 segment, zelfs de 7900XTX niet. En nu houden ze helemaal op met het hoge segment.

Ik heb tegenwoordig wel een AMD Radeon Pro kaart ernaast speciaal voor AI maar ROCm is toch een heel stuk lastiger dan CUDA. Met name omdat het maar voor heel weinig kaarten wordt ondersteund. En ook niet alle versnellingsfuncties werken. CUDA werkt op alles van nVidia. Dat is echt een enorme moat van nVidia op AI gebied.

[Reactie gewijzigd door Llopigat op 2 januari 2025 11:05]

100% waar, maar ik denk dat je zelf wel goed beseft dat jouw profiel (iemand die met cuda werkt en een 4090 heeft) absoluut niet mainstream is?

De gewone gamer koopt een 4060, en weet niet wat cuda is.

[Reactie gewijzigd door kiang op 2 januari 2025 15:55]

Nee maar het ging mij om de opmerking 'Er wordt gezegd dat AMD meer moet concurreren maar iedereen blijft nVidia kopen'.

En videokaarten zijn sowieso niet 'mainstream' meer. Een consument die niks van computers weet koopt gewoon een PS5 of Xbox. GPU's zijn allang een niche markt geworden.
De overgrote meerderheid van pc gamers is echt wel nog gewoon het publiek dat niet aan cuda development en 3D rendering doet, maar gewoon wat spelletjes speelt. Waarom denk je dat de 3060/4060 zo goed verkopen?
Probleem is ook een beetje dat veel applicaties CUDA gebruiken en ik persoonlijk dus ook echt niet weg kan van nvidia voor een workstation.
Welke applicaties? Welke daarvan zijn relevant voor d gemiddelde gamer, aka iemand die gewoon fortnight en cod speelt?
Voor gamers is het niet relevant nee maar dat is ook niet de enige groep die die kaarten koopt. 3090 en 4090 was extreem populair voor 3D artists vanwege de hoeveelheid vram, en zou een 4090 voor puur gamen persoonlijk ook wel een beetje overkill vinden. Voor werk ben ik er harstikke blij mee.
Dat is dus niet relevant, daar heb ik het expliciet niet over want dat is een irrelevante niche groep: ik heb het in mijn eerste post letterlijk over 95% van de consumenten die deze kaarten koopt: die gamen gewoon.
Ik denk eerder dat het andersom is, een 4090 kopen voor puur gamen is juist de niche, terwijl superveel mensen er eentje kopen voor 3D/VFX/Editing of andere werk gerelateerde toepassingen.
Dat kan best kloppen, maar bijna niemand koopt een 4090.
Ik ken anders heel veel mensen met meerdere 4090s hoor, zijn alleen geen gamers.
Als jij denkt dat mensen die 2k aan een gpu uitgeven ook maar een beetje representatief zijn voor de hele groep consumenten die gpus kopen, dan heb je best een vertekend beeld van de markt.
Het zijn dan ook geen consumenten die die kaarten kopen, het zijn freelancers of studios die 3D/VFX doen, en dat is letterlijk wat ik hier al de hele tijd loop te zeggen terwijl jij blijft roepen dat het merendeel consumenten zijn dit de kaart kopen.
Ik heb het continu over de gemiddelde gamer, dat is veruit de grootste groep die videokaarten koopt, lees de comments maar na. Jij kan wel stampvoetend blijven roepen dat je het over jouzelf wil hebben, als uitzonderlijk geprivilegieerd iemand die zomaar even een 4090 koopt, en er dan wat cuda dingen mee doet, maar dat is dus niet waar ik het over heb. Natuurlijk is vida dan voor jou belangrijk, maar dat is het niet voor 95% van de consumenten die een videokaart kopen.

Echt bizar, alsof ik het over fietsen heb, en jij boos tegen mij gaat roepen "JA MAAR IK HEB EEN HELIKOPTER WAARON GA JE GODVERDOMME OVER DIE STOMME FIETSERS PRATEN???": jouw gedrag nu is gewoon een beetje raar.

[Reactie gewijzigd door kiang op 3 januari 2025 10:25]

Gemiddelde gamer koopt überhaupt niet de top of the line videokaart dus waar praat je überhaupt over dan. Ik zeg alleen dat het voornamelijk non-gamers en niet consumenten/gamers zijn die deze kaarten kopen en die geven voornamelijk CUDA.
Ik heb het over wat gamers kopen, jij blijft het hebben over mensen die een 4090 kopen.

Jij wil heel graag praten over de niche groep waar jij toe behoort, maar die bepaalt niet welke gpu fabrikant opulair is: her overgrote merendeel van verkopen is in het middensegment.
Je reageerde toch echt op een reactie van mij die over WORKSTATIONS ging en waar dat heel duidelijk vermeld stond.
En het is geen niche, heb je enig idee hoeveel mensen tegenwoordig video editten en dergelijke?
Van die laatste 2 is het verschil met FSR heel groot in combinatie met framegen. FSR heeft een basis framerate nodig van 60 voordat het "goed" voelt. Alles wat onder die 60 fps als basis framerate zit voel je gewoon de input delay.

Bij DLSS met framegen kan de basisframerate onder de 60 zitten. Je krikt het dan op naar 60 fps met DLSS framegen en de game voelt aan als 60 fps.

Dit kleine verschil zorgt ervoor dat je games in full path tracing op 4k kan spelen met hoge grafische instellingen die niet lukken met FSR zonder in te leveren op feel.

Ik snap je punt, maar DLSS is gewoon echt een niveautje hoger dan FSR. Niet alleen in pixel peepen, maar gewoon in feel en dus gameplay.
Een paar niveautjes zou je bedoelen. Wie op het moment een AMD kaart koopt voor 4k gaming mist echt wat. Mijn AMD kaart vervangen voor Nvidia. Wat een verschil!
Exact!

Kijk eens naar de RTX 3000 series: 3070 8gb en 3080 10gb versus AMD én wat AMD toen aan vram leverde.
Mijn 6800XT haalt met undervolt en overclock bijna 7900GRE snelheid.

Men komt ook vooral met het RT excuus, wat wellicht een punt is en wat steeds meer een punt kan gaan worden.
Voor mij is dat het niet, geef mij maar meer raster performance en meer vram.
AI gebruiken mensen meteen zodra ze DLSS inschakelen.
Wat gebruiken ze dan, copium?
Dit is het antwoord. Marketing is gewoon king en daar betaal je voor. AMD heeft eindelijk een beetje de CPU koning op zich, maar dit heeft gigantisch veel moeite gekost.
Mwa... Ik heb het niet echt naast elkaar getest, maar ben zelf van een 3070 naar een 7900XT gegaan. Prachtige kaart en geweldige performance, zolang we RT uitlaten, maar FSR vind ik zelf compleet waardeloos want ik zie direct kwaliteitsverlies terwijl ik voorheen wel vaker dlss gebruikte en het me daar niet zo opviel.
En hoewel de software stukken beter is geworden merk ik toch nog steeds meer "jank" bij AMD waar Nvidia in mijn ervaring veel probleemlozer en soepeler werkte (ik weet dat zij ook soms hun problemen hebben maar dit is mijn ervaring).

Dus, ja, ik snap het wel. Ik hoop dat ik het een tijd kan uitzingen op die 7900XT en deze komende generatie over kan slaan, maar als ik wel weer ga upgraden dan zou ik op dit moment toch weer voor Nvidia kiezen. Ja ze zijn duur, maar ze zijn ook duidelijk de premium optie.
Mijn grootste probleem met de AMD kaarten is de significant hogere energiebehoefte.
Niet zo zeer voor de energie rekening, maar wel voor de warmte productie op de warmere dagen.

Als NVidia kaarten uitbrengt met dezelfde performance maar dan bij 100-150W minder...dan spreekt mij dat zeker aan.

En daarbij, het gebeurt nu al dat je met enige regelmaat de koelpasta moet verversen op je videokaart...bij hogere temperaturen zal dat alleen maar nog erger worden!
Ik denk dat zo'n praktijktest eerder een groter verschil laat zien dan het "pixel peeping" waar jij het over hebt. Met name doordat het "pixel peeping" bijna altijd gebeurd op 4K resolutie, met quality upscaling instellingen, en vaak bij vrij lege (reproduceerbare) landschappen met weinig beweging. Allemaal best-case scenarios voor FSR en AMD, met name gezien AMD eigenlijk niet concurreert in het 4K segment.

Alle upscaling technieken verliezen kwaliteit als je de resolutie verlaagd. Maar FSR verliest daarbij veel meer kwaliteit dan XeSS en DLSS. Dit terwijl AMD met name concurrerend is voor 1080p-1440p-ultrawide gamers, waarbij FSR dus veel minder goed presteerd qua beeldkwaliteit. Daarnaast zijn de makkelijkst merkbare verschillen tussen DLSS en FSR juist vaak aliasing/motion artifacts en ghosting. Niet iets wat je snel ziet bij het vergelijken van een makkelijk reproduceerbare landschapsscene, en zeker niet in compressed YouTube videos of screenshots.

Ik heb het overigens net nog even zelf getest. Baldur's Gate 3 in 5k ultrawide (DLDSR) resolutie, met DLSS 2 Quality vs FSR 2 Ultra-Quality. Dat is dus het best-case scenario voor FSR en toch zie ik meteen een groot verschil en erger ik me aan FSR. Massas shimmering en stairstepping artifacts op een deel van het armor en de haren van mijn party, zowel ingezoomd als volledig uitgezoomd. Het wordt alleen maar erger als ik ze laat lopen, de characters die ik dus 100% van de tijd in beeld heb. Met DLSS nul van dit soort irritante aliasing artifacts en er wordt zelfs iets meer detail behouden al vereist dat wel wat meer "pixel peeping".

Overigens ook even getest zonder DLDSR, dus in native 3440x1440, en dat resolutie verschil is meteen zichtbaar in de kwaliteit van upscaling. Bij DLSS is het iets slechter, want ingezoomd zie je dan ook soms shimmering op een klein deel van het armor, maar verder vrij prima. Bij FSR begint de hele party shimmering te tonen, niks enkel een deel van het armor en de haren, maar alles dus inclusief de hele outline. En dat is 1440p ultrawide, FSR 2 Ultra-Quality... dat wordt nog veel erger in 1080p.

Mijn praktijkervaring is dus juist extremer dan het verschil van "pixel peeping" op screenshots door tech-tubers. DLSS 2 Quality in 1440p toont amper problemen behalve als je erg inzoomd, terwijl FSR 2 Ultra-Quality al continue irriteerd in 5k resolutie. De beeldkwaliteit van FSR 2 is in 1440p zo slecht dat ik nog liever native + TAA zou gebruiken, want dat is stabieler in BG3. Dit terwijl DLSS op die resolutie de TAA implementatie verpletterd qua beeldkwalteit. Alle drie zijn blurry tov native, maar native (en SMAA) ziet er niet uit in BG3 wegens duizend aliasing artifacts per frame.

Overigens heeft hier screenshots of videos van maken weinig nut. Juist dit soort aliasing artifacts ga je niet goed zien in compressed YouTube videos. Zonder bewegend beeld valt het ook veel minder op dan als je daadwerkelijk aan het spelen bent.

Dit is natuurlijk allemaal persoonlijke ervaring gebaseerd op wat mij opvalt en irriteerd. Sommige mensen hebben geen last van shader compilation stutter (omdat ze er blind voor zijn), of vinden driver-level sharpening er prachtig uit zien, of hebben veel liever aliasing artifacts dan blur. Smaken verschillen, ook op dit gebied. En wat mij irriteerd hoeft een ander niet op te merken, en andersom.

[Reactie gewijzigd door ArchMechasis op 2 januari 2025 15:38]

Leuke persoonlijke ervaring, laten we het experiment doen, ik ben erg benieuwd of een blinde test dit bevestigt!

Mijn persoonlijke ervaring: het hangt van het spel af. Zowel dlss als fsr zijn, ook op de quality instelling, in Cyberpunk echt walgelijk lelijk: de pixels worden rondgesmeerd en het is niet om aan te zien. Bij andere titels zoals Overwatch (war het niet eens nodig is...) zie ik dan weer geen verschil met native rendering.

[Reactie gewijzigd door kiang op 2 januari 2025 15:46]

Oh van het spel en de implementatie hangt het natuurlijk sowieso af. DLSS in Battlefield 5 bijvoorbeeld is niet om aan te zien, dat is nog steeds de allereerste DLSS 1 implementatie. Kan net zo goed vaseline op mijn monitor smeren en ik zie evenveel in die game.

Het is wel goed dat je het over Cyberpunk 2077 hebt. Dat doet me terugdenken aan toen ik het speelde toen het net uit was. Verkeerde Nvidia driver instellingen kunnen namelijk de DLSS kwaliteit verpesten. Heel veel mensen gebruiken Anisotropic Filtering 16x standaard globaal in hun drivers, maar dat zet Negative LOD Bias ook op Clamp en dat zorgt er dan weer voor dat er geupscaled wordt vanaf heel lage kwaliteit textures. Alles gaat er wazig uit zien met DLSS als Negative LOD Bias niet op Allow staat in het Nvidia control panel. Ik zag eerst ook zo'n smeer als waar je het over hebt in die game, maar na het aanpassen van Negative LOD Bias terug naar Allow zag ik juist meer detail met DLSS Quality dan native.

Al was dat natuurlijk een andere versie van de game, met een andere versie van DLSS. Ik weet niet of Negative LOD Bias nog steeds diezelfde impact heeft op games met DLSS, maar ik hou het nu altijd gewoon op de standaard Allow en doe dan ook geen globaal 16x AF meer, omdat het te vaak dit soort problemen geeft.
Thanks, ga ik even bekijken!

@Hayte Misschien leuk om het experiment met 3 PCs te doen: DLSS Quality vs FSR Quality vs native, allemaal op 1440p (gezien dat dacht ik de populairste resolutie is momenteel), en dan de framerate beperken zodat alles even vloeiend is (en mensen dus niet afgaan op een hogere framerate)? En dan kijken hoeveel mensen correct native van DLSS van FSR kunnen onderscheiden :)

[Reactie gewijzigd door kiang op 2 januari 2025 16:48]

AMD levert helaas geen betere performance per Euro als je ray tracing meeneemt. En dat is juist waar je de performance nodig hebt.

Zeker als je nu een kaart gaat kopen waar je een paar jaar mee vooruit wilt en ook nieuwe games wilt kunnen spelen is RT een belangrijke factor aan het worden.

De eerste games waar je RT niet meer uit kan zetten zijn in 2024 al uitgekomen (Star Wars Outlaws en Indiana Jones).

De verwachting is dat steeds meer games RT only gaan zijn omdat het kosten bespaart voor developers (RT implementeren kost minder werk dan handgeplaatste verlichting en het ziet er beter uit)

Als je een toekomstbestendige GPU wilt is goede RT performance noodzakelijk. AMD heeft gezegd dat ze voor de RX8000 serie flinke stappen gaan zetten op het gebied van RT.

Laten we hopen dat dat klopt want de RX6000 en RX7000 serie zijn niet toekomst bestendig als een steeds groter deel van nieuwe games niet meer zonder RT te spelen is. Ik heb vooralsnog goede hoop voor de RX8000 serie

[Reactie gewijzigd door DLSS op 2 januari 2025 17:35]

De eerste games waar je RT niet meer uit kan zetten zijn in 2024 al uitgekomen (Star Wars Outlaws en Indiana Jones).
En die game draait prima op de mid-range 7800XT. ook Cyberpunk, de koning van RT, draait gewoon op AMD kaarten. Dus waarom er wordt gedaan alsof AMD totaal onmogelijk is voor games met RT is me een raadsel.

Het zal zeker het begin inluiden van een verschuiving, waarbij RT meer is dan het theoretische onzinverhaal dat het de afgelopen jaren was, maar het lijkt me geen goed aankoop advies om mensen aan te raden een kaart te kopen die in 99% van de games trager is.
Het punt is uiteraard niet dat de games van nu met RT draaien; het punt is dat ze relatief veel slechter draaien op AMD-hardware.

De performance per euro is helemaal niet zo gunstig als je wilt dat de kaart nog een paar jaar meegaat en je er ook nieuwe games met RT op wilt spelen.

En nogmaals, juist bij RT-games is extra performance wenselijk, want raytracing is doorgaans erg zwaar. Het verschil tussen (bijvoorbeeld) 104 fps en 147 fps in een non-RT-game is niet zo boeiend als het verschil tussen (bijvoorbeeld) 47 fps en 62 fps in een RT-game

[Reactie gewijzigd door DLSS op 2 januari 2025 18:32]

Dat wordt nu al 6 jaar gezegd, sinds de rtx 2000 serie. Vooralsnog is RT geen goede indicator voor performance.
Mijn punt is dat dat dus wél het geval is in games waar RT niet meer uit kan, zoals Indiana Jones. Als er in de toekomst meer van dat soort games komen (zoals de verwachting is) dan is de 7800XT, met het oog op de toekomst, misschien niet zo'n goede keuze.

(Ik draag AMD overigens een warm hart toe, heb in het verleden veel AMD kaarten versleten. Maar ik zou anno 2025 niet zomaar een AMD kaart adviseren aan iemand die nog een tijdje met de kaart wil doen en ook van plan is de nieuwste games te spelen in die tijd. Maar goed, het is wachten op de 8000 serie. Wellicht gaat AMD dan weer een aanrader worden. Ik heb goede hoop)

[Reactie gewijzigd door DLSS op 2 januari 2025 18:37]

Ik denk dat we het minder ineens zijn dan jij denkt hoor: her lijkt er inderdaad wel op dat het gebruik van ray tracing zal blijven toenemen.

Waar wij van mening verschillen is het tempo waarin dat gebeurt: jij wijst nu naar twee games, waarvan eentje een enorme flop was. De andere game niet, maar ook die draait prima op amd.

Is dit nu dus het keerpunt, zijn alle games nu plots RT only? Ik denk het niet.

Persoonlijk zou ik ten sterkste verbaasd zijn als over vijf jaar de helft van de games ray tracing vereisen.

Tot die tijd verwacht ik absoluut dat raster performance de dominante factor blijft om de performance van een gpu te bepalen.
Het probleem is dat een duurdere meer verbruikende kaart zoals een 7900 xtx in indian jones plots slechter scoort dan een 4070 ti super.

Non RT scoort die gemiddelde 20% beter in 4k
In indiana jones 5% slechter.

Tel er dan nog dlss ed bij en waarom zou je voor een duurdere minder presterende kaart gaan?
Hopelijk kan AMD dat gat verkleinen zowel met FSR/DLSS als RT performance.
Kan je die benchmark posten? Mijn eerse vraga is namelijk of je nu wel native met native vergelijkt, omdat deze game momenteel enkel DLSS ondersteunt: niet echt eerlijk als de vergelijking gaat over native vs DLSS.

Daarnaast blijft mijn punt staan: in 1 game is de 4070 ti dus sneller dan de 7900XTX. In letterlijk alle andere games is het omgekeerd, en met een veel grotere marge. Als je Indifan bent snap ik dat dat de doorslag kan geven, maar voor de meeste gamers is het gewoonweg dom om je aankoop op 1 game af te stemmen.
https://en.gamegpu.com/ac...great-circle-test-gpu-cpu

https://www.techpowerup.c...4070-ti-super-tuf/41.html

Native met native

EN de vergelijking zonder raytracing in andere games is natuurlijk redelijk oneerlijk, omdat je dan express graphische instellingen naar beneden haalt om AMD kaarten te bevoordelen. Het zou zijn alsof je 8GB nvidia kaarten alles op medium test omdat ze anders "trager" zijn dan AMD met 12 of 16gb .

ALs ik kijk naar games als men RT aanzet(en dan heb ik niet over zaken zoals ray reconstruction) in 4k dan is de 4070 ti super altijd sneller dan een 7900 xtx. Gemiddelde een 9% sneller . Is niks te maken met een fan zijn gewoon met de feiten. En een feit is dat RT al belangrijk is en steeds belangrijker word.
100% oneens, omdat het visuele verschil met RT op dit moment nog altijd marginaal is. Dit is gewoon exact hetzelfde verhaal als tesselation en hairworks: technologieën die ook je framerate verwoesten, op zowel nvidia als and kaarten, maar op and was het effect erger en dus pashte nvidia de technologie.
In de praktijk zette iedereen het uit, want het verschil zag je amper, en het kostte je tientallen procenten in framerate.

Nu is het wel zo dat rt een relevante techniek zal WORDEN, steeds meer op een glijdende schaal.

Huidige reviews splitsen daarom imo resultaten op in rt en non rt.
het visueele verschil tussen ultra & high van textures merk je ook amper/niet. Stopt niemand ervan om daarop te testen.

Je cherry picked gewoon wat je best uitkomt. En nee in de praektijk zet niet iedereen dat, iedereen met een AMD kaart misschien, dat kan.

Path tracing zal trouwens nu opkomen, nog beter dan RT en iets waar je met AMD zelfs niet aan moet denken. AMD loopt dus nu al enorm achter en dat zal enkel erger worden, logisch dat als je nu een kaart wil kopen je daar rekening mee houd. GPU compute power blijft belangrijker dan VRAM imho.
Ik cherry pick helemaal niets, ik kijk naar wat relevante settings zijn: path tracing werkt zelfs voor geen kloten op de 4090, tenzij je poep over je scherm smeert met upscaling en interpolatie. Dat is dus totaal geen relevante technologie.

Iets is pas relevant als een xx60 kaart (veruit het populairste model) het aankan.
Tuurlijk doe je dat wel, bepaalde graphische settings die amper tot geen verschil hebben wil je wel aan andere niet. Het enige verschil: AMD doet het veel slechter met de laatste.
path tracing werkt zelfs voor geen kloten op de 4090, tenzij je poep over je scherm smeert met upscaling en interpolatie.
Klinklare onzin, ik zou het proberne in cyberpunk bijvoorbeeld voor je zo'n domme commentaren geeft.
Iets is pas relevant als een xx60 kaart (veruit het populairste model) het aankan.
4060 kan RT aan zelfs in een game als cyberpunk .
bepaalde graphische settings die amper tot geen verschil hebben wil je wel aan
Noem 1 setting waarvan ik gezegd heb dat die aan moet?

Je bazelt maar onzin en liegt over wat ik zeg dus het houdt nu op, fijn weekend en succes met het likken van de laars van miljardenbedrijven die geen zak om jou geven!
4060 kan RT aan zelfs in een game als cyberpunk .
Dat is een achterlijke leugen, tenzij je 20 fps (zelfs zonder path tracing) speelbaar gaat noemen: YouTube: Cyberpunk 2077 2.0 on the RTX 4060 8GB

[Reactie gewijzigd door kiang op 4 januari 2025 11:35]

LOL zo zielig en dat alles omdat je jouw favoriete merk wanhopig wil verdedigen.
In mijn gedachte kosten de duurste high end kaarten nog 800 euro. En dat vind ik nog steeds een bezopen bedrag voor wat gamen.

Ik ben blij dat ik niet meer game buiten een potje af en toe op de PS5 van de kids.
Je hoeft ook geen extreme nieuwe high end kaarten te kopen.

Een 3070 outperformed een PS5.
Zo waar! Een tweedehands i5 12th gen of een Ryzen 5000, en een 3070 en je hebt voor ~600 euro een hele dikke game PC.
baseer je dat op basis van theoretische snelheden of 1 op 1 vergelijking? voordeel van console is dat spellen geoptimaliseerd is voor een enkele systemen ; dus trek je er meer juice uit, zonder rare fratsen dus theoretische snelheden hoeft niet perse beter te zijn voor games.

[Reactie gewijzigd door ilaurensnl op 2 januari 2025 11:33]

In theorie is de 3070 2x sneller dan de GPU in de PS5 (20TFLOPS vs 10TFLOPS) :)

Een 3070 is in de praktijk ruim 20 a 30% (bepaalde games zelfs 80%) sneller dan een PS5, maar er zijn wel games die wel beter op een PS5 werken (denk vooral tijdelijke PS5 exclusives).

[Reactie gewijzigd door watercoolertje op 2 januari 2025 12:00]

Daar zit wel wat van waarheid in, maar een groot deel komt ook doordat op consoles standaard meer geaccepteerd wordt aan lagere fps en upscaling. Op pc willen mensen gelijk 4k zonder upscaling en nooit onder de 60 fps zakken (en liefst meer). Op console is die 4k vaak eigenlijk helemaal geen 4k maar een lagere resolutie en gaat het ook regelmatig alweer terug naar 30 fps. Als je datzelfde op een pc accepteert kom je ook weg met veel zwakkere hardware.
Of dat helemaal zover gaat dat een 3070 wint van een ps5 weet ik niet maar het zal er ook niet ver vanaf liggen.
Mijn 4090 was 1850 euro (founders edition voor officiele verkooprijs). 800 is geen high end meer.
Wat natuurlijk bezopen is.
Al je dezelfde functie zit
Loon 2024/ loon grijs verleden
En dan is het normaal dat alles groter nummer heeft kwa prijs. Maar wafer prijzen en andere kosten zoals energie en transport dat door EU oost oorlog extra duur maakt.
Dus €750 van lang geleden
Is kwa koopkracht normalisatie €1100 geworden
Tsmc top node wafers 1300
Transport EU en global intern 1400 extra koper in multilayer pcb 1450
Ik probeer je te begrijpen, maar je comment leest als een vraag uit de AIVD kerstpuzzel.
Hij somt wat cijfers en mogelijke oorzaken op wat de hogere verkoopprijs zou kunnen verantwoorden, helaas nergens op gebaseerd.
Begrijp het ook wel. Echter het is imho wat kortzichtig. Feit is dat high-end GPU's enorm hoog geprijsd worden en daarmee de mid-end naar (oude) high-end prijzen hebben getrokken. Dit terwijl je voor 500 piek gewoon een game console koopt en klaar bent. Zitten ook diezelfde chips in.
Dat rechtvaardigt de prijs niet.
Dan zouden de rest { Amd en Intel } dat ook doen toch?

[Reactie gewijzigd door xaradine op 2 januari 2025 12:35]

Daar ben ik het dan wel mee eens ja.
Je hoeft niet meteen de 50xx serie te kopen he, ik kan prima gamen met high specs op een 3070. Die gaat voorlopig ook echt niet vervangen worden. Nergens voor nodig.
er bestaat zoiets als inflatie.

4090 = 1080 ti/titan x kaarten.
Die kostte in 2016/2017 900-1200 voor 1080ti 1400-1600 euro voor titan x.
Met inflatie is dat 1300 tot 2200 euro.

4090 was tussen de 1700 en 2200 euro grootste deel van de tijd.
Wat leven we toch in verschrikkelijke tijden.
Een tikje overdreven als we enkel spreken over consumentenvideokaarten.
Dit krijg je dus als AMD en Intel geen fatsoenlijke concurrentie kunnen bieden.
Enkel voor de high-end markt. De focus van AMD zou meer op het middensegment plaats gaan vinden, waar de meeste spelers zich bevinden (aldus Steam hardware & software survey). Intel is net gestart in hetzelfde segment, en we moeten nog zien hoe dat effect gaat hebben.

Zelf heb ik enkele maanden geleden een oud systeem (i7-8086k/GTX 1080) voorzien van een RX 7800 XT. Een goede upgrade. Prima prestaties voor wat en hoe ik speel, voldoende VRAM, en een aardige prijs.

[Reactie gewijzigd door The Zep Man op 2 januari 2025 11:36]

ik ben ook aan het kijken naar een 7800xt. Welke heb je als ik vragen mag? Van 1980 naar 7800xt is wel een mooie upgrade!
Denk er wel goed over na, AMD heeft toch echt brakke drivers in vergelijking met Nvidia. Zelf ook overgestapt op een 7800xt na een 3070 gehad te hebben... Weer spijt van. Krijg regelmatig driver timeout errors. Had met Nvidia een veel stabieler systeem.
Denk er wel goed over na, AMD heeft toch echt brakke drivers in vergelijking met Nvidia. Zelf ook overgestapt op een 7800xt na een 3070 gehad te hebben...
Let op: N=1.

Een andere N=1: upgrade gedaan van een GTX 1080 naar een RX 7800 XT. Nog geen enkel probleem mee gehad. Drivers zijn voor mij stabiel, en ik gebruik de kaart zelfs atypisch (enkel streaming via Sunshine, niet eens aangesloten op een monitor).

[Reactie gewijzigd door The Zep Man op 2 januari 2025 12:09]

Echt gee een N=1 bro: Google driver time out maar eens. Radeon gebruikers melden deze error massaal, en al sinds de 5700xt ofzo
Ik ben niet je bro', maat. ;)

De N=1 sloeg op dat dit een enkele ervaring vanuit jou is. Ik kan van alles zoeken op Google, maar dat zegt niets over hoeveel gebruikers hier last van hebben ten opzichte van het aantal gebruikers dat hier geen last van heeft.
Topic begon in januari 2024. Laatste update: februari 2024. Aantal deelnemers topic: een handjevol.

Hoeveel mensen hadden in die periode geen driverproblemen? Bestaat het probleem uberhaupt nog, en zo ja: hoeveel spelers treft het ten opzichte van de spelers die er geen last van hebben.

Als ik mijn lijstje met obscure problemen met Nvidiakaarten zou ophoesten... ;)

Het punt is: "AMD-drivers zijn kut voor iedereen, want ik had een keer in een ver verleden ooit één probleem" geen sterk argument is.

[Reactie gewijzigd door The Zep Man op 2 januari 2025 17:27]

Te grappig dit, eerst is het; Je hebt er alleen zelf last van, daarna maar een handje vol gebruikers heeft er hier last van in een ver verleden, nu nog even goed online kijken en dan zul je zelfs ook moeten erkennen dat er gewoon veel meldingen van zijn. Teveel en te langdurig... ik had deze foutmelding al vanaf mijn 5700xt en nu ik na 4 jaar NVIDIA weer de overstap maak naar radeon in het vertrouwen dat de drivers verbeterd zouden zijn heb ik er weer last van. En samen met mij een hoop. Verder kijken dan je neus lang is!

https://letmegooglethat.com/?q=driver+time+out+radeon

[Reactie gewijzigd door Rob SOS op 2 januari 2025 18:55]

ik ben ook aan het kijken naar een 7800xt. Welke heb je als ik vragen mag? Van 1980 naar 7800xt is wel een mooie upgrade!
Die van mij zit in een compacte kast, dus ik moest een iets kleiner formaat hebben (twee fans i.p.v. drie). Het was deze geworden:

uitvoering: ASUS Dual Radeon RX 7800 XT OC Edition 16GB GDDR6

Het was ook de meest logische upgrade qua GPU-merk. Ik ben niet merkvast en kijk gewoon wat het beste is voor mij in de situatie zoals die er is. Nvidia's aanbod in het vergelijkbare segment gebruikt PCIe 4.0 op 8 lanes, terwijl AMD in hetzelfde segment PCIe 4.0 op 16 lanes gebruikt. Mijn oude PC heeft PCIe 3.0 en een enkel x16 slot. Om potentieel niet te veel beperkt te worden in bandbreedte was een 16 lane kaart daarom de beste keuze. 16GB geheugen is een leuke bonus (i.t.t. de iets duurdere 4070 van Nvidia met PCIe 4.0 x16 en slechts 12 GB geheugen).

Ik koos voor de 7800 XT i.p.v. de 6800 XT omdat de eerste minder energie verbruikt en daarmee minder warmte hoeft af te voeren. In een compacte kast is dat best wel belangrijk.

Ik had ook gekeken naar een mid-segment upgrade van de rest (mobo+CPU+geheugen), maar dat zou niet veel voordeel bieden. Het blijkt dat een 6,5 jaar oude (high-end) CPU met zes cores nog prima meerent in het huidige mid-segment. :)

[Reactie gewijzigd door The Zep Man op 2 januari 2025 15:12]

dank voor de info, handig. Nog een vraag, wat voor psu heb je? Ik heb een SF600 omdat ik uit een ITX kom maar nu een mATX bord heb. Ik heb een 5950x want ik heb voor werk veel core nodig voor paralelle processing. Die verbruikt minder dan 200W (undervolt) maar ik vraag me af of 600W genoeg is.
PSU? Volgens mij een 650W SFX-L (want compacte kast maar toch behoefte aan het gebruik van grote ventilatoren op alles). Merk en type weet ik niet uit mijn hoofd. Mijn CPU verbruikt "slechts" maximaal 90 watt en ik lijk daarmee geen capaciteitsproblemen te hebben.

[Reactie gewijzigd door The Zep Man op 2 januari 2025 12:49]

7800xt is tov een 6800 of 6800xt identiek qua prestaties. Alleen is de 6 serie goedkoper.
Intel zal nooit een echte concurrent worden, voor dezelfde reden als @kiang al eerder zegt. Nvidia kopers zeggen dat er concurrentie moet komen, AMD geeft concurrentie met betere bang for the buck en toch kopen ze een Nvidia kaart. Daarnaast kopen veel consumenten gewoon wat ze in reviews zien, en PC build Youtube kanalen e.d. zullen met gesponsorde content (gratis (gebruik van) Nvidia kaarten) geen negatief geluid laten horen. Negatief geluid van bijvoorbeeld Gamers Nexus bereikt de gewone consument niet.

Het middensegment bestaat verder ook niet echt. Zowel AMD als Nvidia brengt een topsegment kaart uit, en die knijpen ze dan af om hem met ander type nummer en een kleine prijsverlaging als middensegment in de markt te zetten.

Uiteindelijk zullen veel consumenten kaarten in hun systeem zitten die ze maar voor 5-15% benutten, maar wel de hoofdprijs voor betaald hebben.
Een post dat van begin tot einde geheel de waarheid spreekt over de praktijk.
Ik zocht voor mijn AM5 ook een andere videokaart.. Je zou denken dat een RX6700XT 12GB nog een prima kaart zou zijn. Het was destijds al een middenmotor kaart.En met de dag van nou zit die rond de RTX4060 / Intel ARC B580..

Maar voor 1440P wilde in toch wel wat meer FPS... Zo rond de 100 - 120FPS op 1440P. Dat was eigenlijk wel het doel, en de 16GB geheugen telde daar ook mee.. Aangezien 12GB al minimaal als eisen word gezien.

Tijdje me ogen op de RX7900GRE gehad.. Helaas wel 629 euro.. Maar ja toch weer een oudere generatie.
En maar fractie sneller dan een RX7800XT.. Als een van de kaarten niet meer werkt zal de andere ook mee getrokken worden in het verhaal.
Heb echter (wat ik overigens normaal niet snel zou doen) toch maar voor de RX7800XT 16GB gekozen voor 510 euro.. En heb de rest lekker in me zak gehouden.
Wetende dat zo`n kaart waarschijnlijk ongeveer 3 jaar speel plezier uit te halen valt.
En tegen die tijd toch weer uit zal kijken voor een nieuwere generatie.
"Verschrikkelijke tijden"... Kom op zeg. Als je je druk kan maken over de prijzen van xx80 en xx90 kaarten heb je toch echt een luxe probleem. Als of je in een 3 sterrenrestaurant gaat klagen over hoeveel je moet betalen voor een 'vies bord'.

AMD is gewoon realistisch geworden en heeft zich (slim en terecht) terug getrokken uit het hoogste segment. Intel scoort qua prijs-kwaliteit verhouding met hun Battlemage kaarten juist heel veel punten.

Met een xx60 kaart (met 8 GB VRAM) kun je nog steeds ALLES prima spelen, ook de nieuwste AAA titels. Zolang je als echte PC gamer beseft waar instellingen ooit voor gemaakt zijn en niet bang bent om ze te gebruiken om acceptabele frame rates te krijgen. Ultra instellingen, 4K en >100 fps zijn niet de norm.
Klopt maar 8gb vram is vandaag de dag ook niet de norm. En kijk waar nvidia mee gaat komen met de rtx 5060? Juist 8gb.... compleet van het padje af.
An sich mee eens, maar VRAM is voornamelijk nodig voor textures en die kwaliteit van de textures is vaak afhankelijk van resolutie. Dan is 8GB nog steeds wel erg weinig, maar van de andere kant is het vooral een Full HD kaart die veel minder texture data voor z'n kiezen zal krijgen.
Klopt maar er zijn nu al games die laten zien dat 8gb gewoon niet toereikend is en dat zie je in 0,1% low bij de b850 reviews. En dat gaan er nog meer worden in 2025/2026. En misschien zelfs 2027.
dit dus... vuurwerk verkoop is gedaan (wij hebben een winkel) kwam een NLer binnen met de vraag. Waarom is vuurwerk zo duur overal? Ja dat zijn gewoon de prijzen... Wil je vuurwerk kan je ook de QR code scannen dan zie je ze digitaal....

Het is wat het is. Wil je high end dan betaal je high end.... Met elke (current gen) GPU kan je elke game spelen. Settings zijn enkel wat anders.
Dit krijg je ook doordat de 3080 10gb met open armen ontvangen werd.
En daar werden absurde bedragen voor neergelegd.
Nvidia is meester in het vram spel en precies genoeg *kuch* te weinig *kuch* vram op de kaarten doen voor een momentopname.
Nou ja "open armen" ik weet dat ik er voor heb moeten vechten om hem te krijgen tijdens de pandemie.
Ik heb er wel 3x een gepreorderd maar ze waren elke keer weer out of stock. Je had absoluut geen keuze in die tijd. Die 10gb moest je maar voor lief nemen.
Dat is precies wat ik bedoelde w.b.t. je eerste 2 zinnen.
Wat betreft je laatste twee zinnen... je had ook kunnen wachten en/of AMD kopen.

Nu moeten we op de Nvidia 5080 en de AMD 9070 ook de 16gb maar weer voor lief nemen.
Ik denk dat ik dan nog even verder wacht.

[Reactie gewijzigd door HugoBoss1985 op 2 januari 2025 11:29]

Bij release in 2020 en 2021 was er geen normaal wachten bij (zeker niet als je een kaart nodig had), dat was of inflated webshop prijzen betalen als ze al voorraad hadden Nvidia of AMD, beide waren strak uitverkocht en wat in voorraad was, was tegen een flinke prijsverhoging, of scalperprijzen op de 2de handsplatforms en marktplaatsen, of geluk hebben met een Nvidia of AMD drop (de enige manier om kaarten op MSRP te krijgen). Pas medio 2022 verbeterde dat in zoverre dat je kaarten uit 2020 ergens eind Q3/ begin Q4 2022 (uit mijn hoofd) eindelijk tegen MSRP kon kopen met keuze qua model.

Ik heb toen mijn 6900XT ook zo gekocht via een AMD drop, maar dat was ook weken lang proberen tot je eens geluk had (bij mij doordat een bepaalde betalingsmethode niet werkte (ik dacht paypal, dat toen veel gebruikt werd door scalpbots), waardoor anderen niet af konden rekenen en ik wel met mijn CC. Hierdoor waren toen de kaarten 'slechts' in enkele minuten uitverkocht in plaats van binnen enkele seconden.
Ik weet het nog maar al te goed en ik vond dat ook frustrerend.
Voor mij was een paar jaar wachten geen problemen met toen een Vega 56 en RTX 2070.
Om maar even aan te geven dat een paar jaar wachten geen probleem hoeft te zijn.
De 6800XT was dan ook 200% sneller dan een 2070 in mijn geval.

Maar op Tweakers.net lees ik nu regelmatig over mensen die een 7800X3D hebben en ontevreden zijn omdat ze een maand op een 9800X3D moeten wachten.
En mensen die al 2 jaar een 4090 hebben en dadelijk op release persé een 5090 moeten hebben.

Als men nou eens de 5080 16gb helemaal links laat liggen totdat er een 5080 super 24gb (?) komt.

[Reactie gewijzigd door HugoBoss1985 op 2 januari 2025 12:38]

Wachten had geen zin, want ze stegen alleen maar in prijs. Wat betreft AMD ik ben blij dat ik DLSS kon gebruiken en niet vast zit aan FSR. XESS wat toentertijd nog niet beschikbaar.
Trouwens geheugen is ook niet alles, ook al is het natuurlijk vervelend dat ze er op hebben bezuinigd.

[Reactie gewijzigd door mac5er op 2 januari 2025 11:34]

Toch is het op een gegeven moment genormaliseerd qua prijzen (nouja...).
Het is maar net hoe lang je had willen wachten.
Ik heb in oktober 2022 een 6800XT gekocht.

[Reactie gewijzigd door HugoBoss1985 op 2 januari 2025 11:36]

Dat is (bijna) 2 jaar later.
Yup. Laatst zat ik Black Ops 6 te spelen op 1440p met mijn 3080 en ik liep gewoon keihard tegen de 10gb VRAM muur al aan. Niet het eerste spel waar dat is gebeurt ook maar wel het recentste geval. Mijn broertje met een 7800xt (16gb) die kwa compute nagenoeg even snel is als een 3080 kreeg gewoon 30% meer FPS, en dat alles op hogere kwaliteit textures, want tja, 10gb is simpelweg niet genoeg buffer. Dus hier zit ik met mijn kleine 4 jaar oude 1000 euro high-end kaart die nu al stottert op games met hoge resolutie textures terwijl hij met 16gb vram het prima had gekund. Heb mijn 4k monitor zelfs al tijden geleden aan mijn broertje gegeven want daar is het probleem al helemaal erg. Had team rood moeten gaan en zal leren van mijn fouten, af en toe gebruik ik CUDA maar ik leef liever zonder als dat betekent dat mijn kaart voor games niet keihard tegen de vram limiet knalt.
Een 6800XT kan met wat spelen nog veel sneller zijn dan een 7800XT (En 3080 10gb) qua gaming.
Mijn 6800XT doet met tweaken 21.500 - 22.000 Timespy graphics.

Gelukkig dat jij er les uit trekt en in de toekomst rekening mee houdt.
Voor nu hebben we waarschijnlijk niet veel keuze in dit segment.
AMD komt met top 16gb en de 5080 krijgt 16gb (alles volgens de geruchten).

Ik overweeg zelf nog maar weer even te wachten op de kaarten met het nieuwere GDDR7 zodat 24gb configuraties mogelijk zijn.
AMD doet met "ouder" vram en de huidige gen 7000 series al 20 en 24gb configuraties.

16gb zou ik persoonlijk liever niet meer naar "upgraden" (side grade).

[Reactie gewijzigd door HugoBoss1985 op 2 januari 2025 11:27]

Hou er wel rekening mee dat de 3080 geen 1000 euro kaart was, die kaart had een €719 MSRP. Nu zijn er uiteraard wel mensen die deze kaart, vanwege de crypto / corona tekorten deze kaart voor veel te veel geld gekocht hebben, maar dat maakt dan natuurlijk niet dat je ineens prestaties mag verwachten die hoorden bij het €1000+ euro prijspunt op dat moment, het is en blijft een €719 kaart qua prestaties die je zou mogen verwachten.

Maar goed, dat was ook een periode dat men kocht wat men kon krijgen, een echte keuze tussen 'team rood' of 'team groen' was er niet. Het was of veel te veel betalen bij de gekende webshops e.d. of geluk hebben bij een Nvidia of AMD drop via hun eigen kanalen en dan maalde je er niet om of je nu geluk had bij Nvidia of bij AMD.com (Ik heb mijn 6900XT gekocht via een van die drops).

Daarnaast vergelijk je nu 2 kaarten, waarbij de ene kaart 3 jaar later uitkwam. Na zo'n periode mag je ook wel een beetje hopen de kaart die AMD in 2023 in het 80/800 segment plaatst voor die generatie de dan 3 jaar oude Nvidia kaart uit 2020 in het toenmalige 80/800 segment van de vorige generatie kan verslaan, anders zou het wel heel erg triest gesteld zijn met de AMD kaarten.
ik heb nog geen games die 16 gb nodig hebben, maar ik heb geen 4k. Maar we worden toch nergens heen geduwd?er is altijd een duurder model en straks is er weer een ti of super variant die hetzelfde presteert voor minder geld...
Dus een 6090 gaat dus waarschijnlijk rond de 4000-4500 kosten.

Even weer over de RTX 5080. Hij gebruikt dus 400w. Dat wil toch nog wel met een 850w voeding? Gebruik zelf een Ryzen 5800x3d. En zou het het met Ryzen 9800x3d ook nog willen? Als je verder maar een paar nvme en sata/hdd schijven erin hebt zitten?.

En nog een vraag ik gebruik deze kabel voor mn 4090.
Ik gebruik die kabel 12VHPWR van Corsair en nog niet de 12V-2X6 variant. Deze is toch nog steeds geschikt voor de 5000 serie?

[Reactie gewijzigd door jaaoie17 op 2 januari 2025 11:52]

En de 3080 10gb was een betere koop dan de 1080 Ti 11gb :+
Een prijs 1650 euro is past het wel redelijk in de lijn van afgelopen jaren. Je ziet wel dat na de 1080TI , Bitcoin mining en nu de AI-opkomst wat invloed heeft:
  • GeForce GTX 1080 Ti (2017): Released at $700. Inflation factor: 1.26. Inflation-adjusted price for 2024: $882.
  • GeForce RTX 2080 Ti (2018): Released at $999. Inflation factor: 1.22. Inflation-adjusted price for 2024: $1,218.
  • GeForce RTX 3080 (2020): Released at $699. Inflation factor: 1.17. Inflation-adjusted price for 2024: $818.
  • GeForce RTX 3090 (2020): Released at $1,499. Inflation factor: 1.17. Inflation-adjusted price for 2024: $1,755.
  • GeForce RTX 4080 (2022): Released at $1,199. Inflation factor: 1.10. Inflation-adjusted price for 2024: $1,319.
  • GeForce RTX 4090 (2022): Released at $1,599. Inflation factor: 1.10. Inflation-adjusted price for 2024: $1,759.
Jamaar dit mist wel nuance, de 1080ti was een van de allerbeste kaarten voor je geld ooit, en die was al duurder dan de 980ti (die ook heel goede waarde had voor $650 msrp). En toen kwam de 2080ti, die al matige waarde zou zijn op een msrp van $750 laat staan $1000, heus is de 2080ti een van de allerslechtste top-end kaarten die Nvidia ooit heeft uitgebracht. Op papier is de 3080 dan heel leuk maar die was bijna onmogelijk te vinden voor <900 euro, Same voor de 3090 die had ook een effectieve prijs van 2000+ euro. Dus sinds de 2000 series is de prijs gewoon achterlijk omhoog geschoten ineens. Nou dan mag het wel dat de prijs nagenoeg hetzelfde is gebleven sindsdien want de 2000 serie was echt niet eens een klein beetje zijn geld waard. Nu pas met de 4000 serie zou je kunnen zeggen dat het richting normaal gaat (op basis van 9xx en 10xx prijzen), maar het is nog steeds aan de dure kant. Als de 50xx serie dan weer duurder gaat worden is het toch weer gekkenhuis. Als de prijs werkelijk rond de $1500 msrp ligt dan zie ik het 20xx serie debakel zichzelf weer helemaal herhalen.
ik kocht ene 4090 aan 1750 euro niet lang na release.
Geen idee warom sommige zo absurde prijzen betalen.
En raar ook dat de winst/omzet na de 1000 reeks omhoog is gegaan.
Maar dan moet je wel kijken waarmee ze het geld verdienen. Kijkende naar de laatste 5 jaar is het voor Nvidia's gaming divisie niet alleen maar stijgen, stijgen, stijgen. Maar zie je ook matige kwartalen langskomen. Die omzet schommelt tussen de 1.49 miljard per kwartaal en de 3.2 miljard per kwartaal.

https://imgur.com/UFBggCD

Terwijl datacenter van 18.8 Miljard naar 30,77 miljard gaat zonder een enkele dip.

https://imgur.com/acsQpTO

Waardoor je dus nu ziet dat gaming nog 'maar' zo'n 11% is van Nvidia's omzet, en gezien de marges op grote chips vaak veel hoger zijn is het vermoeden dat gaming dus minder dan 11% bijdraagt aan de winst.
Tot aan q1 2023 ging het anders aardig goed met de gaming. https://www.reddit.com/r/...ing_last_quarter_vs_184b/

En dus tussen de 1000 en 3000 reeks liep het goed. Pas na de 4000 reeks ging het minder(logisch ook met de dure en weinig vram 4060) maar dat is ook het moment dat data center extreme vormen aannam.
Kijkende naar de grafiek die ik post zie je dat gaming eigenlijk al jaren niet echt meer groeit, het schommelt tussen hoogte en diepte punten van +- 3.x miljard per kwartaal tot 1.49 milard per kwartaal, wat enerzijds logisch is vanwege het verloop tussen de kwartalen vanwege seizoensgebonden uitgaven en het release data van generaties. Maar aan de andere kant laat het wel ziet dat er in gaming niet zoveel rek zit qua groei. Immers de pieken doen niet veel onder voor elkaar.

Ik zou ook niet direct zeggen dat tussen de 1000 en 3000 serie alles 'goed' ging, het diepte punt ligt immers zo'n beetje precies daar de laatste 5 jaar, met 1.49 miljard gaming omzet in Q1 2020. Daarnaast doet de 4000 serie het ook niet heel slecht, die daling zet immers al in voordat de 4000 serie uit is, en is meer de 'na corona / crypto' correctie en het dal wordt al geraakt voordat de 4000 serie volledig uit is, je ziet juist dat zodra de volledige 4 serie uit is, dat de boel weer een stijgende lijn te pakken heeft. Hou er ook rekening mee dat die jaartallen op jouw link niet gelijk zijn aan de daadwerkelijke jaren. Voor Nvidia is Q1 FY2023 bijvoorbeeld Q1 2022 zoals wij het op de kalender kennen (alleen begint bij Nvidia het financiële jaar eind januari in plaats van op 1-1), we zitten nu bijvoorbeeld in Q4 FY2025 voor Nvidia. De data uit jouw link stop dus op 28-1-2024 (en niet, zoals iemand logischerwijs zou denken op 31-12-2024).

Iets dat je nu ook wel ziet in survey's die de installed base bekijken, hoeveel ik het (net als veel Tweakers) geen goede kaart vind, is de 4060 wel de grootste kaart momenteel in bijvoorbeeld de Steamsurvey. Jammer genoeg doet die 4000 serie het dus zo slecht niet, ook al is het waarschijnlijk minder goed dan vooraf gedacht.

[Reactie gewijzigd door Dennism op 2 januari 2025 14:08]

Daar heb je inderdaad gelijk in. Had niet gezien dat q4 24 tot januari 2024 liep. Dan is de dip inderdaad voor de 4000 reeks en in lijn met de crypto dip.
Volgens mij is deze prijs nog nergens genoemd. Ik heb alleen geruchten gehoord dat een 5080 tussen de 1700-2000$ kan kosten met de usa tarrifs. Dat is voor ons niet van toepassing.

Het lijkt mij onwaarschijnlijk dat deze kaart boven de €1200-€1300 geplaatst gaat worden.
Ik denk zelf als ik alle geruchten bij elkaar neem dat de kaarten rond de volgende prijzen aangeboden gaan worden in de bekende winkels:
5070 Ti - 1100/ 1200
5080 - 1500/ 1600
5090 - 2700/ 2800

Ik wilde eerst voor de 5080 gaan, maar vanwege de te kleine verschillen tegenover de 5070 Ti ga ik denk ik toch maar voor de 5070 Ti. Of nivdia verast iedereen en stopt er 20/24GB in voor de 5080, maar denk het niet.
Ik vraag het me af.
Ze concurreren natuurlijk ook met de 4080 super van €999.

Willen ze €1500-1600 vragen voor de 5080, moet die wel minstens 30% sneller zijn dan de 4080 super. Stel hij is nét 30% sneller, dan is een 2e hands 4090 weer aantrekkelijker.

Ik denk zelf:
5070: €899-€999
5080: €1299-1399
5090: €2399 - €2599

We gaan het zien!
Dan moet de 4090 wel zo goed als nieuw zijn met garantie. Ik persoonlijk zou wel voor de 5080 gaan als de prijs hetzelfde is als een 2e hands 4090. In de praktijk zal je eigenlijk nooit meer dan 16gb nodig hebben tenzij je PT gebruikt welke ik nog steeds vreselijk vind bij zowel Nvidia als AMD.

De 5080 zal naar verhouding zuiniger zijn dan de 4090 wat ik ook heel belangrijk vind met de huidige energieprijzen en ook ivm warmte en geluidsontwikkeling die daarbij gepaard blijven.

Zelf denk ik dat de 5070ti 799/899$ zal kosten
5080 1099/1199$
5090 1899/1999$

Daar komt bij ons de btw nog bovenop en de wisselkoers. Dus ik denk dat je indicatie aardig zal kloppen. Enkel de 5090 zal denk ik iets goedkopere MSRP hebben. Verkoopprijs zal na 1 of 2 dagen wel richting de 3k gaan in de EU.

Want op de een of andere manier willen mensen toch het beste van het beste hebben en betalen ze gewoon grof meer.

Kijk naar de 9800X3D bij launch 529 bij Megekko en ik meen Alternate. Een paar uur later al een stuk duurder en uiteindelijk nu ruim 600€ bij deze zaken.
Inderdaad, vandaar dat ik erbij had vermeld winkelprijs en geen adviesprijs.

Adviesprijs mag je bij mijn redenatie er 200/ 300 aftellen.
2700 is 1000 euro meer dan een 4090 dat kan enkel als die effectief 40-50+% sneller is.
Het is een beetje naïef om te denken dat Amerikaanse bedrijven niet de Dollar = Euro omrekening gaan hanteren. Als de 5080 1600 Dollar gaat kosten, dan gaat hij ook gewoon 1600 Euro kosten.

Als de tarieven van Trump er komen, dan gaan we een gigantisch wereldwijd inflatiejaar tegemoet.
3000 euro gaat die 5090 niet kosten, een 4090 kost 1900 euro(en was zo laag als 1800)
Jup, wordt alleen nog maar erger. Alles wordt opgeslokt of gaat failliet.

Ze hebben de tactiek om langzaam maar zeker alles elk jaar een klein beetje duurder te maken waardoor mensen het voor lief nemen. (Amazon, Netflix tactiek). Hierdoor sterft de concurrentie vanzelf uit.

Er is maar 1 tegengeluid en die is erg simpel maar ook heel moeilijk, niet consumeren.

[Reactie gewijzigd door whiner op 2 januari 2025 12:29]

AMD kan wel degelijk fatsoenlijke concurrentie bieden. Ten eerste werken die gewoon zonder gedoe op Linux, en hoeveel mensen gamen er ook echt native 4K? Mensen kopen gewoon nvidia omdat ze het kennen en AMD "van horen zeggen" slechte drivers heeft.
Omdat vroeger hun flagschip onder de 1000 euro te koop was. Nu is dat bedrag nodig voor hoog mid range/laag high end kaart. En vroeger kon je met een 100 euro 2de hands kaart prima gamen nu heb een rx 6600 die 2de gans 150+ kost en duidelijk moeite heeft om games op 1080p 60 fps te draaien.
inflatie & gpu's die steeds sneller worden heet dat .
Je weet dat de prijzen van GPU'S harder gaat als de inflatie. Ik mag hopen de inflatie niet 100% is zoals de prijs tussen de gtx 980 en 4080 550/1119 ... want die is maar 25%...

En nemen we de duurste variant dan is het helemaal krom.
Je vergeet dat een 4080 veeeeeel sneller is dan een 980 .

In 4k een 400 tot 800% sneller , als je met raytracing en dlss begint zelfs nog veel meer.
Oh en de inflatie tussen 2014 & 2025 is 45% .

550 euro in 2014 is dus 800 euro nu
Alleen komt de 4080 niet uit 2025 maar 2022 ;) en dan zou het 672 euro zijn. en tuurlijk is hij sneller een 780 is ook sneller als een gtx 980 en duurder...

Maar wat je voornamelijk ziet is dat er een laag geprijsde kaarten zijn en iedereen gewoon de hogere prijzen accepteren

[Reactie gewijzigd door loki504 op 2 januari 2025 18:56]

Ik vergelijk als je die nu zou kopen.

EN ja je betaald dus een 400 euro meer (50%) voor een kaart die 4 tot 10 keer sneller is in games.
WIl je dat niet dan zijn er kaarten van 800 euro (even duur dus) en 3 tot 7 keer de performance geven.
Ja en kijk je daar de geschiedenis dan had je de zelfde prijs ex inflatie ook die performance winsten gehad. En daar kijk ik naar want anders had je stilstand gehad en dat klopt al helemaal niet. Want eigenlijk had je altijd de zelfde performance als 1 kaart hoger voor dezelfde prijs. Dus de 770 had de snelheid van de 960 voor zelfs iets minder :)
Toen het nog makkelijk was om winst te boeken. Nu is dat veel moeilijker dit is niet anders dan bij cpu’s.

Een 4060 kost nog geen 300 euro en kan zowat alles aan die hele dure kaarten zijn absoluut niet de enige optie.
En ja ik vind 300 euro als budget kaart absoluut geen geweldige optie 10 jaar geleden betaalde je 100 euro voor een budget kaart en was 300 euro een deftige kaart. Ala 970...
Waarom negeer je steeds inflatie?
350 euro voor een 970 is 500 euro nu of een 7800xt.Die kaart heeft vele maken keer de performance voor hetzelfde geld.

Wil je niet zoveel uitgeven koop dan iets van 150-200 euro en dan heb je nog vele keren de performance van een 970 tegend e helft van de prijs.
ik negeer infralitie helemaal niet jij overhemelt inflatie. wat jij niet lijkt te begrijpen is dat vroeger je altijd met een nieuwe release je voor dezelfde prijs(er was immers ook inflatie tussen de oude gtx reeksen en tussen releases van de gtx 900 reeks en rtx 4000 reeks was ook maar 25% en het was altijd normaal dat de prijzen bij release op advies prijs waren en daarna naar beneden gingen ongeacht inflatie) en daar zijn ze nu vanaf gestapt. en brengen uberhaupt geen laag geprijste videokaarten meer uit ongeacht inflatie.

Dus ik neem inflatie mee tussen releases en ik neem technologische vooruitgang mee. iets dat jij niet doet de gtx 285 en de gtx 980 is immers ook een wereld van verschil.

kijk voor de grap de prijzen tussen de gtx 1000 reeks en de rtx 4000 reeks dan zie je gewoon elk jaar een flinke upsell meer als inflatie kan goedpraten.
ik negeer infralitie helemaal niet jij overhemelt inflatie.
? Dat slaat nergens op inflatie is een feit.
En neen tussen 2014 (gtx 900 series) en 2025 is er 45% inflatie.

Je blijft gewoon negeren dat een 4000 of 5000 series kaart tot 20 keer zo snel is als een 900 series. Jij zaagt dan de pannen van het dak omdat die wat duurder is.

Kan het me zo al voorstellen bij EV's

tesla model Y 2014 : bereik 100 km kost 20 000 euro
tesla model Y 2025 : bereik 1000 km kost 40 000 euro

"ze vragen veel meer geld hoe durven ze"
en wanneer is de rtx 4080 uit gekomen? juist en toen had hij ook al die prijs....

Wel grappig dan dat tussen release 2022 en 2025 de prijs eigenlijk helemaal niet omhoog is gedaan terwijl dat wel een gegeven moet zijn volgens jou.

en ja hij kan 20 keer zo snel zijn maar dat is een gtx 285 en gtx 980 ook dat noem je technologische vooruitgang anders is er geen reden om een nieuwe reeks uit te brengen.
En? Nogmaals vroeger was het veel makkelijker om sneller vooruitgang te boeken.
Nvidia wilde toen net zoveel winst pakken hoor, daar is niks veranderd.
terwijl dat wel een gegeven moet zijn volgens jou.
Zeg ik langs geen kanten.
En? Nogmaals vroeger was het veel makkelijker om sneller vooruitgang te boeken.
Nvidia wilde toen net zoveel winst pakken hoor, daar is niks veranderd.


[...]

Zeg ik langs geen kanten.
Dat is je argument om te verklaren waarom kaarten de afgelopen jaren zijn geworden.
Nope, maar gezien je steeds maar alles blijft verzinnen maakt het weinig uit, zaag gerust verder over zaken waar je niks van weet.
Nee ik heb inderdaad geen verstand van bedrijven die Inflatie alvast toepassen op producten die 3 jaar eerder worden uitgebracht. Alleen jij en Nvidia weten dat blijkbaar. Veel plezier met die gaven kan je veel geld mee verdienen!
Haha ja je bent inderdaad zielig goed dat je het nu ook inziet. Fijn weekend!
Ik ben van de hele Nvidia kaarten "bandwagon" afgestapt, en op mn nieuwe pc-build gewoon voor een volledig AMD build gegaan, als het maar draait.
En op mn nieuwe pc, kan ik iig nog altijd netjes upgraden tot 2027, en straks fijn er een 2027 GPU insteken voor 5/600 eur :Y)

ik heb liever dat ze de games wat meer optimaliseren , want als ik bijvoorbeeld de laatste games op Ultra draai ..krijg ik een gevoel van ,huh ? ik kon de Witcher 3 op high draaien op mn geforce 960 draaien .
met de nieuwe games zie ik niet echt er een grafische vooruitgang in :O .. ja je hebt Raytracing , maar dat staat naar mijn mening ook nog in zn kinderschoenen .

[Reactie gewijzigd door Metallize op 2 januari 2025 10:58]

Draai eens cyberpunk met path tracing en je zal zien wat huidige games kunnen brengen.
De lichtjes zijn mooier. de characters en wereld zijn amper geëvolueerd.
Ja path tracing gaat over licht.
Dat weet ik. Daarom net: mooie lichtjes zijn ook maar dat. Waar zijn de betere character models?
Cyberpunk rendert ongeveer 4 keer aantal polygons, je ziet dat makkelijk terug hoor.
Prioriteit bij producties is time to market door game engine zo data driven te maken. Met efficiënte content pipeline zodat groot content artist team zo productief mogelijk is om deadline te halen.
Hardware target is mainstream niet kleine groepje high- end zooi owners. Omdat game producties duur zijn en dus volumesales nodig zijn dus die 2060 3060 etc midrange is belangrijk zo ook cpu load.
Dan moeten we vooral steamdecks gaan kopen. Dan krijg je optimalisatie terug.
Graphical fidelity staat al een hele tijd stil ja. Zeker als het om efficiëntie draait. Luie en incompetente developers smijten gewoon teveel assets in een scene, cullen niets en 'fixen' de framerate issues met FSR/DLSS en Frame Generation.

Ooh maar kijk global lighting. Ja ik zie het, ik zie de denoiser van een prima rasterized scene een korrelige onstabiele zooi maken.
Luie en incompetente developers smijten gewoon teveel assets in een scene, cullen niets en 'fixen' de framerate issues met FSR/DLSS en Frame Generation.
volgens mij inderdaad "on the money".

een dikke 6 maanden geleden al onderstaande YT over voorbij gekomen, over Unreal Engine dan specifiek, welke uiteraard een grote aanhang heeft.

https://www.youtube.com/watch?v=lJu_DgCHfx4&t=0s
ik heb liever dat ze de games wat meer optimaliseren , want als ik bijvoorbeeld de laatste games op Ultra draai ..krijg ik een gevoel van ,huh ? ik kon de Witcher 3 op high draaien op mn geforce 960 draaien .
met de nieuwe games zie ik niet echt er een grafische vooruitgang in :O .. ja je hebt Raytracing , maar dat staat naar mijn mening ook nog in zn kinderschoenen .
Het is duidelijk dat jij niet in 4K gamed en de laatste games die raytracing/pathtracing ondersteunen helemaal niet gespeeld hebt.

Wil je in 4K gamen met alle specs op maximaal zoals DLSS3/raytracing of pathtracing aan ?

Dat dwingt zelfs een RTX4090 op z'n knieën zoals ik laatst heb gezien bij Indiana Jones and The Great Circle en dit is net hetzelfde verhaal voor Cyberpunk 2077: Phantom Liberty.

Heb dit gespeeld op een recent samengestelde PC (zeg maar geleend/build, want is nu alweer terug)
RTX4090 / AMD Ryzen7 9800X3D / 64GB DDR5 RAM -> 4k scherm
alle instellingen op Ultra
en deze 24GB GPU rekte het maar nauwelijks om in dat spel nog de 50fps te halen .. !!

.. met sommige cutscenes waren er crashes, dus heb ik verschillende settings en pathtracing moeten verlagen


Ja hoor, wen er maar aan .. want dat gaat de toekomst van games worden.
Geïmplementeerde raytracing/pathtracing zoals bij Indiana Jones and The Great Circle .. ;)

Wil jij zulke games met alle settings op Ultra in 4K gaan spelen, dan heb jij een RTX5090 nodig en hoe lang gaat die dan nog meegaan ?


.
Voor mij hoeft 4k niet .. want ik zie het verschil niet zo echt met gamen tussen 2k en 4k op een 27 inch scherm .

Ikzelf heb Cyberpunk: phantom liberty grijs gespeeld wat een goed verhaal was dat _/-\o_
en vond het op 2k ultra settings wel goed genoeg , en heb heel wat uurtjes per ongeluk gespeeld waar raytracing vergeten had weer aan te zetten , zonder iets te merken... want als je 140mph door night city aant racen bent.. of als een netrunner rond springt als een pogo-stick , merk ik die reflecties niet zo .

ik probeer het wel in 2028 ofzo met een nieuwe mid-range amd kaart .. en mischien piep ik dan wel anders ;)

[Reactie gewijzigd door Metallize op 2 januari 2025 16:08]

Hij zal wel een stuk sneller dan de 4090 dankzij het geheugen niet de cores.
Daar zou ik niet vanuit gaan, laten we de benchmarks even afwachten.

[Reactie gewijzigd door sn3lders op 2 januari 2025 11:06]

Oh is dat zo ja? Waarop basseer je dat?
Een stukje sneller laten we het niet overdrijven.
Als we er van uit mogen gaan dat die gelekte prijzen kloppen anders koop natuurlijk iedereen een 4090 tog?
Als we er van uit mogen gaan dat die gelekte prijzen kloppen anders koop natuurlijk iedereen een 4090 tog?
Neen, want de 4090 wordt niet meer geproduceerd, er valt straks niets meer te kopen.
We gaan het wel zien. Ik denk persoonlijk dat ie een stukje sneller is. Ik verwacht een hoge klok speed van de GPU en het geheugen was al bekend.

En nee dit is inderdaad op niets gebaseerd dan mijn eigen verwachting.
Heb zelf de 4090 MSI X. Draai als een zonnetje op 1440P res. Ultra max.
Nou scalpers kom er maar in.
Hoe, wat en waarom denk je dat er iets te scalpen gaat vallen?

Met de geruchten over de prijzen lijkt me dat er overal genoeg voorraden zullen zijn.
Dat denken mensen elke keer maar dat was met de 4000 serie die ook een enorme meerprijs had bovenop de voorganger ook niet. Ik heb heel lang moeten zoeken naar mijn 4090 FE en moest constant telegram groepjes in de gaten houden of iemand ergens een paar stuk in voorraad had gevonden.

En nu is bovendien het hele AI verhaal bezig, en China die de hoogste AI kaarten niet mag hebben maar gaming kaarten wel...

[Reactie gewijzigd door Llopigat op 2 januari 2025 11:03]

Nutteloze GPU. Alleen de 5090 en 9070 XT zijn interessant deze generatie. Misschien dat een 5080 Super met 24 GB later nog de moeite waard is. Ik snap de 4080-kopers nog steeds niet; ga dan gewoon voor een 4070 Ti Super. Dat 9% verschil kun je beter ergens anders in investeren.

Of haal een XTX met een 384-bit bus en 24 GB VRAM. Als je toch de beste wilt, ga je gewoon voor een 4090. Man, man, man… Geen wonder dat Nvidia een multi-trillion dollar bedrijf is met zulke consumenten.
16 GB VRAM voor een highend-kaart die vergelijkbaar presteert als een 4090 is inderdaad echt te weinig. 20 GB had ik nog acceptabel gevonden, daarmee was de geheugenbus ook 320-bit breed geweest, maar beter was het om de geheugenconfiguratie van de 4090 over te nemen (24 GB aan 384-bit). Uiteraard zou de prijs dan ook (nóg) hoger zijn geworden.

Of er een 5080 Super komt met 24 GB is afwachten, aangezien Nvidia bij de 40-serie de 4080 geen geheugen upgrade heeft gegeven met de 4080 Super.

[Reactie gewijzigd door Degrader op 2 januari 2025 11:23]

Het hangt ervan af of ze de 3GB GDDR7 VRAM-modules van Samsung zullen gebruiken; dan moet het haast wel. Ik zag trouwens dat de 5090-laptop 24GB aan VRAM krijgt in vergelijking met de 16GB van de 4090-laptop. Dus er is hoop.
16GB misschien zat voor e-sports 1080p low restextures
240++ fps
Nouja de 5090 wordt ontzettend duur en de 9070 XT krijgt ook "maar" 16gb vram.
Die laatste kan wellicht interessant zijn qua prijs en prestaties.
Aan de Nvidia kant dan wellicht een 5060 ti mits deze 16gb krijgt en een 5070ti met 16gb.
Als je dan toch 16gb koopt zou ik daar zelf persoonlijk nu niet teveel meer aan uitgeven (geen 5080 kopen).
Wellicht wél als je van een 8 of 12gb kaartje af komt.

[Reactie gewijzigd door HugoBoss1985 op 2 januari 2025 11:46]

Misschien de reviews afwachten?
Gaan de reviews de 16GB verhogen?

https://postimg.cc/K4j14S4P
Wat heeft dat te maken met de bit bus size en vram aantal, waar heb jij het allemaal over?
Gaat niet interesant genoeg zijn denk ik vergeken met een 4090 oc.
je hebt gamen, en gamen. als je 200fps wilt hebben met alles aan, dan kost het veel geld.
maar als je gewoon een potje wilt spelen met redelijke resolutie en niet alles op max, dan gaat dat prima op een goedkopere kaart die niet last gen is.
ik ben het wel eens dat de prijzen buitensporig zijn voor een gpu.
het is vaak 50% van de kosten van het totaal.
maar. ik heb een oude xtx kaart en dat werkt soepel zat nog steeds.
video editing en gaming, beide verloopt snel en mooi.
ja mogelijk vervalt ray tracing, maar als je met 200kmh aan het racen bent ga je niet naar de zon reflectie op je dash zitten kijken toch?

[Reactie gewijzigd door lordleuter op 2 januari 2025 11:09]

Klopt je kan ook op 1080p blijven met een kleiner scherm en 144hz dit werkt net zo goed.
Zelf heb ik 1440p maar zie geen meerwaarde in 4K(ja ik heb zaken gezien en als je een heel groot scherm hebt voegt het nog iets toe).
Ja dat klopt, ga je naar 55 inch toe en heel dicht bij. Dan kan ik me voorstellen dat 4K of 8K gewenst is,
ik draai ultra wide 3440x1440 144hz ,
maar zet frame limiter op 60fps of 120 bij race spellen.
in ruil krijg ik een kaart die niet zo heet wordt, en geen loeiende koelers.
ik moet eerlijk toegeven dat ik een oude sok ben, en dus geen snelle reactie spellen doe waarbij snel schieten nodig is. dus vind ik 230fps wat overbodig.
wel ben ik qua video editing blij met 24GB video geheugen. 4K renderen gaat als een raket.
als ik zou adviseren, dan denk ik dat ik een kaart zou aanbieden met eerder meer geheugen, ipv de laatste chip set.
als de polygoon hoeveelheden stijgen heb je daar meer aan.
als ik vr beelden maak 8K tot 20K heb je de resolutie scherpte nodig. maar met een 24inch 1920x1080 kan je prima gamen :)
maar als je gewoon een potje wilt spelen met redelijke resolutie en niet alles op max, dan gaat dat prima op een goedkopere kaart die niet last gen is.
Zit hier met een rx6600 (goedkopere kaart die wel last gen is) en die werkt ook prima voor mij, vaak zelfs op 1440p.

Prijzen zijn, nu dat de pandemie- en cryptodolheid voorbij zijn, slechts zo buitensporige als men zich gek laat maken <haalt schouders op>

[Reactie gewijzigd door Verwijderd op 2 januari 2025 12:11]

Met welke games werkt hij dan prima op 1440p en met hoeveel FPS?
Ik speel zelfs eigenlijk alleen Fortnite en ik heb een 1440p scherm met een RX 5600 XT (die is wat ouder ja).
Ik had altijd het idee dat Fortnite niet zo'n heel zwaar spel was voor je GPU maar 60fps op high settings & 1440p is soms wat zwaar voor de kaart, vooral als er ineens 4-5 man in het scherm staan en je kijkt snel om je heen (precies op het moment dat je wilt dat je spel soepel draait dus eigenlijk).

Ik zit dus te overwegen om hem eindelijk eens te upgraden.
Idd een 4060 van 300 euro kan zowat alles aan.
Aaah ik kocht nog twee GTX780 (SLI) voor voor rond de 500 euro p/stuk. Was toen het top model, zelfde als 2 x 4090 in SLI 😅. Toen kreeg ik kinderen en alles verkocht en een Mac en Consoles gekocht. Wil best weer een PC (1440p) in elkaar wil knutselen maar niet voor dat geld. voor 1360 euro (best buy game pc) koop ik liever een een nieuw Mac mini M4 (koop met studenten korting) en een PS5 Pro of upgrade de Mac mini en een gewone PS5 of Xbox…
Was toen het top model, zelfde als 2 x 4090 in SLI
Nee, de xx90 kaarten zijn eigenlijk de vervangers van SLI opstellingen omdat SLI geen prestatiewinst meer oplevert.
Is toch anders in dx11 werd sli door nv in drivers geregeld.
Dx12/vulkan is de devs daar verantwoordelijk voor.
Die richten zich meer op volume sales daar waar alle 20mil game sales aan hebben dan promiel gamers 20000

Op dit item kan niet meer gereageerd worden.