Door Willem de Moor

Redacteur

Drie keer is scheepsrecht

RTX 4080 Super Review

31-01-2024 • 15:00

201

Singlepage-opmaak

Conclusie

Nu de 4080 Super beschikbaar is, kunnen we de balans opmaken. Zoals eerder vermeld, maakt de RTX 4070 Super de grootste stap ten opzichte van zijn niet-Super-variant. In onze indices is de 4070 Super ongeveer 11 tot 16 procent sneller dan de RTX 4070. De 4070 Ti Super is alleen op hogere resoluties sneller dan de 4070 Ti; op 4k is het verschil ongeveer 5 procent. De kaart met de kleinste verandering ten opzichte van de reguliere variant is de 4080 Super; we zien dan ook slechts een verbetering van amper twee procent over alle games. Het is zelfs de vraag of dat binnen de foutmarge van de benchmarks valt of dat het daadwerkelijk een significant, zij het klein, verschil is.

Upgraden is natuurlijk onzin van een 4080 naar een 4080 Super, en als je van plan was een andere kaart te vervangen door een van beide, wordt de keuze voor je gemaakt. De standaard RTX 4080 wordt immers uitgefaseerd, en zodra de huidige voorraden verkocht zijn, is dat het einde voor de 4080. Als je nu op 1440p gamet met een 4070 Ti, dan boek je met de RTX 4080 Super wel significante winst: over alle games is die zo'n twintig procent sneller en op 4k ruim een kwart. Ook als je een van de topkaarten van de vorige generatie bezit, zoals een RTX 3080 of 3090, zet je met de RTX 4080 Super een grote stap van respectievelijk bijna vijftig en dertig procent. Als we ook nog even naar het rode team kijken, dan presteert de RTX 4080 Super ongeveer gelijk aan de RX 7900 XTX, zij het met kanttekeningen: in sommige games is de AMD-kaart aanzienlijk sneller, en in andere games is Nvidia in het voordeel. Gemiddeld maakt het echter geen verschil, tot je natuurlijk aan het raytracen gaat: daarin is Nvidia nog altijd duidelijk een stuk sterker.

De 4070 Super is wat prestatiewinst eigenlijk de enige echt nieuwe kaart, terwijl de 4070 Ti Super de enige kaart met een andere chip is. De 4070 Ti Super scoort niet veel sneller dan de standaard 4070 Ti, maar de 4080 Super spant wat dat betreft de kroon. De 4080 Super is nauwelijks sneller dan de non-Super, maar de prijs maakt hem interessant. Of zou moeten maken, want in dollars is de 4080 Super van een 1200 dollar kostende kaart naar een 'sub-1000 dollar'-kaart gegaan. In euro's lijkt het verschil nog groter, maar in de praktijk is de RTX 4080 al in prijs gedaald. Met ongetwijfeld de nodige sturing vanuit Nvidia kosten de 4080 Super en de 4080 nu ongeveer evenveel, net als het geval is bij de 4070 Ti en 4070 Ti Super. Beide Super-kaarten zijn dus keurige vervangers voor de non-Super-varianten, met marginaal betere prestaties voor dezelfde prijs.

De 4070 en de 4070 Super blijven naast elkaar bestaan, en voor de meetbaar en merkbaar hogere prestaties betaal je gemiddeld (er zijn 29 identieke modellen met een prijs) ongeveer 70 euro extra. In procenten is dat iets meer dan 12 procent, en je krijgt daar gemiddeld 13 procent hogere prestaties voor terug: een prima deal dus. Daarmee komt de 4070 Super iets gunstiger in de prijs-prestatiecurve, maar voor de 7900 XT en 7900 XTX zijn onovertroffen op dat gebied.

De 4070 Super is een snelle 1080p-kaart die ook op 1440p nog goed meekomt, en hoewel de 4k-prestaties behoorlijk zijn verbeterd vergeleken met de standaard 4070, is dat te veel gevraagd. De 4070 Ti Super is ook op 4k iets verbeterd, maar verder is er weinig verbetering en kan die redelijk meekomen op die resolutie. Als je echt alles wilt opendraaien zonder je nieren te verkopen voor een RTX 4090, dan is de 4080 Super een mooie kaart: de voordelen ten opzichte van de 4080 zijn klein, maar zeker op 4k en raytracing net merkbaar, terwijl de prijs niet hoger geworden is. Met elk van de Super-varianten krijg je uiteindelijk net iets meer frames voor je geld, en daar kun je als pc-gamer alleen maar blij mee zijn.

Reacties (201)

201
200
81
8
0
84
Wijzig sortering
"Ook als je een van de topkaarten van de vorige generatie bezit, zoals een RTX 3080 of 3090, zet je met de RTX 4080 Super een grote stap van respectievelijk bijna vijftig en dertig procent"

Ik heb een RTX 3080 10GB, en het klopt dat de 4080 qua prestaties een leuke upgrade zou zijn, rond de 50%.. Maar als je er dan ook +/- 50% meer voor moet betalen dan wat ik voor de 3080 betaald heb voelt dat gewoon niet goed.. Als ik voor de zomer een 4080 ga zien voor rond de 1000 euro (kleine kans) dan ga ik er serieus over nadenken, tot die tijd niet.. Zo niet dan wacht ik wel nog wel even op de 50-serie volgend jaar.. Daarmee krijg ik hoogstwaarschijnlijk nog veel meer prestatieswinst voor rond de 900-1000 euro..
Denk niet dat het er beter op word, het is Nvidia waar we het over hebben..
Sorry, maar in performance/dollar staat nVidia nu al DRIE JAAR helemaal stil, ik vrees dat je jezelf sprookjes wijsmaakt als je daadwerkelijk gelooft dat de 5000 serie ook maar iets zal veranderen.

Je enige optie? Niet NVidia kopen. Nog betere optie? Wel Intel of AMD kopen. Want waarom doe je dat niet nu al? Die 4080 performance onder de duizend euro die je wilt, dat biedt de 7900XT en XTX! die bieden odner de duizend euro betere raster performance, enkel bij RT blijf je achter, maar daar heb je alsnog 20-30% meer performance dan je 3080.

nVidia behandeld gamers nu al jaren als stront, het wordt tijd dat men het stockholm syndroom loslaat.
Omdat AMD ook gewoon te duur is nu voor wat ze bieden qua GPU's.. En de betere features die Nvidia biedt vind ik wel belangrijk.. Zo wil ik o.a. graag Cyberpunk 2077 met Pathtracing aan kunnen spelen.. Ik denk dat ik bij de 50-serie straks echt wel een goede upgrade kan krijgen rond de 900-1000 euro.. Of dacht jij nou echt dat de prijs/prestatie verhouding nooit meer gaat verbeteren en dat b.v. een 5070 volgend jaar 50% sneller is dan de 4070 nu maar ook weer 50% duurder? Dat kan helemaal niet, want ook voor Nvidia zijn er gewoon grenzen aan hoe ver ze kunnen gaan met hun prijzen.. Dat de 4080 nu in prijs is verlaagd is daar ook een teken van, al vind ik 1100-1200 euro nog steeds teveel.. Ik vermoed (hoop) dat de 50-serie een beetje een herhaling wordt van de 30-serie, met veel betere prijs/prestatie verhouding dan de 20-serie daarvoor die ook veel te duur was vergelijkbaar met de 40-serie nu.. Dat de 40-serie nu net als de 20-serie ook een Super refresh heeft gekregen verstrekt die gedachte alleen maar.. Nvidia's nieuwe tik-tok beleid?!?

[Reactie gewijzigd door Inflatable op 22 juli 2024 16:52]

Ik denk dat ik bij de 50-serie straks echt wel een goede upgrade kan krijgen rond de 900-1000 euro.. Of dacht jij nou echt dat de prijs/prestatie verhouding nooit meer gaat verbeteren
Waarom zou het bij de 5000 serie zo zijn als het bij de 4000 serie niet gebeurde?
dat b.v. een 5070 volgend jaar 50% sneller is dan de 4070 nu maar ook weer 50% duurder?
Neuh, want ik betwijfel ten sterkste dat de 5070 50% sneller wordt dan de 4070. Zo was de 4070 20% sneller dan de 3070... En hij was ook 20% duurder. En dat was nog een redelijk goede kaart deze generatie: de 4060ti was slechts 8% sneller dan de 3060ti.

Als ik moet gokken wordt de 5070 15-25% sneller dan de 4070, maar ook zeker 15% duurder. De prijs/prestatie verhouding kan best ietsje beter worden, maar verwacht geen significante veranderingen. De rijden waarbij de xx70 kaart ongeveer dezelfde prijs bleef maar 30-40% sneller was is echt voorbij.

Want kijk naar je eigen comment: met fans die zo veel onzin verzinnen om toch maar nooit and te overwegen, waarom zou nvidia niet op hun klanten scheiten?

[Reactie gewijzigd door kiang op 22 juli 2024 16:52]

Waarom zou het bij de 5000 serie zo zijn als het bij de 4000 serie niet gebeurde?
Omdat je zoals ik al zei de prijs niet oneindig evenredig kan laten stijgen met de prestaties samen.. Zoals ik al zei, ze kunnen de 5070 straks niet 50% duurder maken dan de 4070 nu omdat die toevallig ook 50% sneller is.. Voor de 5080 en de rest hetzelfde.. Of dacht jij serieus dat ze straks €1800,- voor een 5080 gaan vragen?!? Dat gebeurt echt niet.. En ook zoals ik al zei, na de 20-serie gebeurde hetzelfde met de 30-serie, ook die bood een veel betere prijs/prestaties verhouding.. Ik verwacht bij de 50-serie een soortgelijke "correctie"..

Dat ze het nu met de 40-serie gedaan hebben komt puur doordat ze dachten op de idiote prijzen van 2021/2022 te kunnen voortborduren en omdat ze na een crypto-hype nu weer mazzel hebben met een nieuwe AI-hype waar ze veel aan verdienen.. Daardoor maakt het niet uit de de GeForce afdeling minder verkoopt.. En de hogere prijzen compenseren de mindere verkopen ook natuurlijk.. Als je iets 40% duurder maakt verdien je nog steeds meer ookal verkoop je 30% minder..

[Reactie gewijzigd door Inflatable op 22 juli 2024 16:52]

ze kunnen de 5070 straks niet 50% duurder maken dan de 4070 nu omdat die toevallig ook 50% sneller is
Dat deden ze dus wel met deze generatie: de 4070 is 20% sneller en 20% duurder.
En ook zoals ik al zei, na de 20-serie gebeurde hetzelfde met de 30-serie, ook die bood een veel betere prijs/prestaties verhouding.. Ik verwacht bij de 50-serie een soortgelijke "correctie"..
Zou leuk zijn als je gelijk hebt, maar ik zou er niet op rekenen: nvidia vindt gaming minder en minder belangrijk, want elke vierkante millimeter silicon die ze kunne krijgen raakt sowieso verkocht, en als het als AI silicon is, brengt dat 2-10x meer op per mm2 dan in een gamingchip.

Jij noemt het namelijk een AI-hype, maar dat is het echt niet: AI is een blijvertje, en in elke industrie zie je dat men nu heftig inzet op AI. En voordat al die bedrijven hun AI-cluster hebben aangekocht ben je zo lang bezig dat je echt niet meer over ene hype kan spreken.
Dat deden ze dus wel met deze generatie: de 4070 is 20% sneller en 20% duurder.
Dat klopt, en daarom verkoopt deze generatie ook een stuk minder qua aantallen.. Bij de 20-serie ook, maar dat "geintje" kunnen ze niet elke generatie flikken want er zit een grens aan wat de markt accepteert als prijs.. Daarom was de 30-serie ook een stuk beter betaalbaar (voordat de crypto onzin begon).. Ik verwacht (hoop) bij de 50-serie hetzelfde.. Enige probleem is inderdaad als AI blijft groeien en Nvidia echt steeds minder geïnteresseerd is in gaming GPU's verkopen.. Als dat zo is stappen we wel over op AMD misschien..

[Reactie gewijzigd door Inflatable op 22 juli 2024 16:52]

Zo was de 4070 20% sneller dan de 3070... En hij was ook 20% duurder.
Tja, ook Nvidia ontloopt de inflatie niet. Die $500 prijs in 2020 is nu eenmaal bijna $600 momenteel. Voor mijn winkelkar zie ik ook een sterke daling in prijs/prestaties tegenover 2020. Maarja m'n loon stijgt mee met de inflatie dus voor mij is de subjectieve kost ook niet hoger.

De 4090 zag wel een gigantische sprong in prijs/prestaties: 6% hogere prijs voor 70-80% meer prestaties. Die 6% zit dus sterk onder de inflatie wat dus wil zeggen dat Nvidia in de eigen marges is moeten gaan snijden. Met andere woorden ze voelden dus wel zeker enige druk met de prijzen.

Ik vind het altijd eigenaardig hoe gefrustreerd en kwaad sommigen zijn op Nvidia. Niemand is verplicht om een GPU te kopen of om bij Nvidia te kopen. In andere sectoren zie je dat toch zo niet bij de duurdere brands. De GPU markt lijkt veel last te hebben van tribalisme. Je ziet het ook sterk bij de consoles dus misschien eigen aan gamers.
Tuurlijk, veel gamers, en dan vooral degenen die wat sneller in de marketing trappen, zijn aan de jonge kant en veel iets oudere gamers zijn nooit de adolescentiefase ontgroeid.

Maar goed, ook volwassenen zijn niet vrij van tribalisme. Kijk om je heen op sociale media. Alles verwordt tot een wij/zij gevecht, want dat levert ad-centen op, verdeel en heers tactieken zijn heel erg 2024.

Verder helpt het ook totaal niet dat de GPU markt een duopolie is. Want Intel heeft nog niks competitiefs, ja op de lower midrange van vorig jaar wel, maar dat is entry level en daar geeft niemand een zier om. Het gaat juist om de top end, en hoe veel progressie daar is, want dat ga je lager in de GPU stack ook terugzien. Als er bovenin iets stagneert, stagneert de rest nog harder. Ook dat is een kenmerk van de afgelopen GPU generaties. Al met al is er weinig om echt vrolijk van te worden in GPU land de afgelopen, nou, 5-7 jaar denk ik al, eigenlijk is alles na Pascal gewoon diep triest.

Verder is de kwaadheid op Nvidia toch wel terecht. Het is een bedrijf dat zijn macht misbruikt, en daar totaal niet mee zit. Ik besef me ook dat dat een dubbel verhaal is: denk aan support aan developers en het pushen van features; je moet ook innoveren. Maar: Nvidia heeft de markt in de tang en maximaliseert zijn winstmarges ten koste van al zijn klanten, en zelfs ten koste van zijn directe partners (zie de Founder Editions, EVGA, zie GPP, enz.). Het laat zien dat de markt stuk is, en ja, dat is Nvidia echt wel aan te rekenen, enige maatschappelijke verantwoordelijkheid mag je bedrijven wel toekennen vind ik.

[Reactie gewijzigd door Vayra op 22 juli 2024 16:52]

Ik had 10 jaar geleden toch wel verwacht dat je tegenwoordig wel op een kaart van 500-600 euro op 4k zou kunnen gamen. Ergens lijkt het allemaal trager en duurder te worden. Krijg wel steeds meer respect voor de console-doosjes. Toch steeds meer bang for buck
Je vergeet even dat er in de afgelopen 10 jaar een inflatie is geweest van ~35%, dus €500 toen is €675 nu. Daarnaast een 4070 Super doet op 4k medium gemiddeld 60fps+ bij zowel Cyberpunk 2077 en Starfield, volgens mij twee van de zwaardere spellen van de afgelopen paar jaar... Een Doom Eternal doet het op ~170fps.

Niet alleen de videokaarten zijn in prestatie er op vooruitgegaan, maar games zijn ook visueel 'verbeterd' en dat kost performance, zeker op 4k. Als je een game pakt van 10 jaar geleden, dan is de kans groot dat je op 4k heel wat betere prestaties neerzet...
Dat dacht ik ook vroeger.

Aan de andere kant, goedkopere kaarten kunnen die games van "10 jaar geleden" nu wel op 4K draaien.

Waar ik op doel is dat games ook zwaarder zijn geworden, de GPU halen de games niet in en ook geldt hetzelfde de andere kant op.

Echter en dat is mijn persoonlijke mening, games anno nu zien er veel beter uit, maar gezien de soms absurde eisen vraag ik mij met een groot aantal AAA games af waarom ze zo onnodig zwaar zijn.

Want niet altijd vertalen de systeem eisen zich naar hoe een spel grafisch uitziet.

In ieder geval, inflatie terzijde zou het wel zo fijn zijn als nieuwe GPUs goedkoper worden, maar ik zie dat niet meer gebeuren helaas.
Reden dat games tegenwoordig zo zwaar zijn komt door:

- DRM, wat mensen tegen houd om de game te piraten. Deze software die constant checks loopt verlaagt ook je performance, soms wel met 10 - 15fps in het algemeen.

- Lumen bijvoorbeeld, developers gebruiken technieken zoals lumen meer zodat ze zelf lights niet hoeven te baken in games, essentieel besparen ze zelf geld en tijd door het stukje optimization jouw kant op te gooien door de lights zelf niet te baken.

- Tijd en geld, developers voor een of ander reden optimizen games niet zo goed meer. Games van een paar jaar terug zijn vaak veel en veel beter optimized dan veel recente games. Minder optimization bespaart geld en tijd, dit zal denk ik niet per se liggen aan de developers zelf, maar aan de suits die de beslissingen maken. Als developers meer tijd en geld krijgen om een game goed te optimizen en polishen zal het veel makkelijker zijn om het op meer systemen te laten runnen en ook om in het algemeen meer performance te halen. Het ligt er gewoon puur aan hoeveel tijd en resources ze erin willen stoppen.

[Reactie gewijzigd door Vhxrsion op 22 juli 2024 16:52]

Sorry, maar dat argument van Lumen vind ik heel raar. Lumen zorgt voor realtime lighting en dat is heel wat anders dan lightbaking. Heeft niet iets te maken met performance of luiheid (lightbaking, kun je ook gewoon geautomatiseerd doen), maar meer met de visuele effecten die ze willen toevoegen als developer.
Als een game lightmapping kán gebruiken gebeurt dat meestal nog steeds. Maar dynamische belichting is van alle tijden. Zelfs Unreal 1998 stond er al bekend om. Het word alleen steeds beter van kwaliteit.

Er zijn genoeg echte performanceproblemen in UE5 om over te klagen. Wanneer gaan ze Blueprints eens snel maken? Echt complete onzin dat hele stukken code herschreven moeten worden in C++ om er een beetje snelheid in te krijgen.

[Reactie gewijzigd door Wolfos op 22 juli 2024 16:52]

Je 1e en 3e claims kloppen niet, de 2e claim kan ik slechts beperkt iets over zeggen maar games met (deels) ingebakken lighting zoals CS2 zullen altijd aanzienlijk beter runnen ten koste van iets anders (map size en render tijd op PC van map maker).


- "DRM kost 10-15 FPS" het klopt dat DRM in sommige gevallen frames kost, en in het verleden (anno 2015) was dit behoorlijk aanzienlijk, maar inmiddels valt dit mee: https://www.youtube.com/watch?v=mcyOJ4Dxs7E (Bij DL2 geen verschil in FPS, wél verschil in load times, maar niet dusdanig dat er een business case is om het geheel weg te laten). Bij de overige games (die ik niet speel) is er A. geen noemenswaardig verschil of B. zijn de frames dusdanig hoog (160+) dat je zou moeten hertesten om tot (enige) significantie te komen.

- Developers optimaliseren er op los gegeven dat ze tijd krijgen. Maar, tegenwoordig heeft het (vaak) weinig zin om door machine code te gaan wroeten om te kijken of je het nog verder geoptimaliseerd krijgt "vroega" waren compiler optimizations nog iets nieuws *kuch* SM64 en waren er aanzienlijk meer mogelijkheden voor een developer om de boel soepel te laten draaien (zie RCT2, ronduit magisch).
Denuvo verlaagt wel degelijk je performance. Zelfde geld voor die DRM van Capcom. Als je wacht tot het word gecracked en je het gewoon download ben je EN je geld niet kwijt, EN je krijgt een beter product.
De voorbeelden waar Denuvo performance zichtbaar verlaagt zijn grotendeels voorbeelden van slechte implementatie of combinaties met nog meer DRM die problemen veroorzaakt (of soms zelf waar die andere DRM gewoon de schuldige bleek te zijn). Verder moet je vaak met je specs al tegen de ondergrens van speelbaar zijn om het verschil te merken.
Dat hoeft zeker niet. Als ik een game neem met Denuvo, maakt niet uit welke.

Als ik een game met Denuvo die ook cracked is zou kopen en dan ook nog cracked zou downloaden, garandeer ik je dat ik meer performance zal halen op de cracked build vanwege geen denuvo. Het verschil hoeft dan niet 45 vs 60fps te zijn, het kan ook het verschil zijn tussen 100 en 115, allebei zijn goed playable, sure, maar de cracked build haalt nog steeds meer performance vanwege geen Denuvo, en als je aan mij vraagt is meer performance altijd welkom, als is het maar 1fps.
Die stelling had ik ook willen maken. Je moet eens zien hoeveel games van een paar jaar oud zelfs op een RX6600 in 4K te spelen zijn. Er zijn zoveel top games van jaren geleden die er nog altijd super goed uitzien en kwa gameplay mogelijk zelfs een stuk interessanter zijn (ik heb het niet zo op de moderne tripple A games, studios zijn wat mij betreft de kluts kwijt). Dus ja we hebben zeker die 4K gehaald, makkelijk zelfs. Maar het probleem is inderdaad dat men altijd tegen de grens aan blijft ontwikkelen met games, waardaar het eigenlijk altijd 'ongeveer hetzelfde' draait op de nieuwste hardware op hoge settings. Gelukkig zijn er ook ontwikkelaars die expres een stapje terugdoen, om zo een game te maken die er nogsteeds mooi uitziet én heel erg goed draait. Daarnaast lijkt het er ook op dat de oude 'ambacht' van het slim programmeren niet meer bestaat, zeker niet bij grote studios. De complexiteit van veel games is ook zodanig toegenomen dat dit bijna onmogelijk is geworden. Daarom zien we nu veel kleine indie studios die dit veel beter doen. Laten we wel zijn, ook id Software en Doom was destijds vergelijkbaar met wat nu Indie wordt genoemd - een onafhankelijk team van knulletjes met échte passie. Ook niet gek dat mijn aandacht steeds meer naar dat soort kleine groepjes wordt getrokken, dát zijn de echte ontwikkelaars met kunde, daar komen de grote ideëen vandaan die later allemaal uitgemolken worden door de grote jongens. Dat laatste is nu zo extreem prominent aanwezig dat het stierlijk vervelend aan het worden is want ze kunnen en willen niets nieuws verzinnen dus zien we elk jaar een herhaling van hetzelfde. Ik zal nooit zomaar stoppen met een hobby, maar het spelen van games en het upgraden van hardware staat wel op een ultralaag vuurtje momenteel. Dat rare gevoel om de snelste videokaart te willen hebben maar niet weten welk spel ik er mee wil spelen is uiterst frapant vanuit mijn perspectief. En als ik dan eens iets nieuws koop (zoals de 3080 die ik nu nog heb), dan ben ik eventjes aan het klooien met settings, overclocking en benchmarks, want dat doet een tweaker! :Y) En daarna speel ik één middag een spel en raak de boel vrijwel nooit meer aan. Phuh :O
hoeveel games van een paar jaar oud zelfs op een RX6600 in 4K te spelen zijn
Je moet eens zien goe goed games van een paar jaar oud er uit zien op het 7,4 inch OLED scherm van de Steam Deck OLED.

Ziet er fantastisch uit op 60/90 fps en dat op 15 Watt

[Reactie gewijzigd door nullbyte op 22 juli 2024 16:52]

DIe 500-600 van 10 jaar geleden is nu 650-750euro

VOor datheb je 4070 super of 7900 xt waar je 90-100 fps in 4k hebt.

Gaat dus perfect hoor.

Zelfs een 4070 van 575 gaat dat in 4k hoor.
EN dan heb je nog fsr/dlss waarbij je elke game die dat ondersteund mits wat rondspelen met settings je dat met een 4060 van 300 euro kan doen.

Goedkoper dan vroeger dus.

[Reactie gewijzigd door k995 op 22 juli 2024 16:52]

Ik kocht vroeger de 3D Prophet Ti500 van Hercules voor €500, dat was dan het absolute topmodel, dus nu is de prijs dus x4 gegaan voor een topmodel..
500 euro in 2001 is 800 euro in 2023. Voor dat geld haal je nu de RTX 4070 Ti Super. Misschien niet de beste in de markt, maar wel een beest.
"absolute topmodel", er was nix beters of duurders te krijgen. Daar ga je nu een midrange kaart voor krijgen terwijl de duurste kaarten vlot nog eens 3x zo duur zijn. Vergelijk die 500€ met je loon van toen eens met de 2500€ die een topmodel nu kost met je huidige loon en je zal zien dat de verhouding helemaal anders is voor eenzelfde functie/ervaring.
Maar dat is toch met alles? Vergelijk je oude Nokia GSM eens met wat je nu voor topmodellen iPhone of Galaxy S betaalt? Zelfs de allerduurste Nokia's toen waren een paar honderd euro. Maar als we als consumenten dat soort bedragen blijven uitgeven, al dan niet met tegenzin, kun je het de fabrikanten amper kwalijk nemen dat ze dit soort telefoons (en videokaarten) blijven ontwikkelen.
Ik kocht vroeger de 3D Prophet Ti500 van Hercules voor €500, dat was dan het absolute topmodel, dus nu is de prijs dus x4 gegaan voor een topmodel..
Uiteindelijk is dat ook maar relatief het hangt ervan af hoe je topmodellen gaat zien. De Geforce 3 reeks had 3 modellen: de GF3 en als refresh de Ti200 en Ti500.
De differentiering is nu een pak groter, de Geforce 4000 series kent ondertussen 11 modellen. De xx90 product tier bestaat eigenlijk pas sinds vorige generatie. De xx80 reeks mapt waarschijnlijk beter op de toenmalige Ti 500. Niet dat het niet duurder is geworden, maar x4 is het nu ook niet, en zeker niet wanneer je inflatie meerekent. En dat moet je ook echt doen om het fair te houden.
De inflatie is misschien eens 50% over 20 jaar tijd. En ja, er zijn meer modellen, maar dat zijn vooral modellen die de gaten tussen de GF3-range zouden opvullen. Tussen instapkaart en topmodel zit dus meer keuze, maar het is niet alsof die veel verder van elkaar af zitten. Toevoegingen als -Ti of -Super of zelfs combinaties van die twee maken dat een 4060 ineens tegen de 4070 aanschurkt en het verschil eigenlijk nauwelijks nog waarneembaar is.

Daarnaast zorgt de opbouw van de huidige range ervoor dat consumenten steeds met een klein beetje extra geld weer wat extra krijgen, waardoor ze vaak meer uitgeven dan de bedoeling was.
De inflatie is misschien eens 50% over 20 jaar tijd.
De adviesprijs van de 4090 is 1775 euro. Dat was in 2021 1.014 euro. Dus een x4 in termen van koopkracht is het zeker niet.
En ja, er zijn meer modellen, maar dat zijn vooral modellen die de gaten tussen de GF3-range zouden opvullen. Tussen instapkaart en topmodel zit dus meer keuze, maar het is niet alsof die veel verder van elkaar af zitten.
Ik ben alleszins niet akkoord dat instap en top te vergelijken zijn en de rest opvulling daartussen is. Een GF3 Ti200 was een veel capabeler kaartje toenmalig dan een 4050 nu is. De Ti200 was in veel gevallen sneller dan het ultieme topmodel van de generatie daarvoor, de GF2 Ultra. Van een 4050 kan je dat echt niet zeggen. Zelfs van een 4060 en 4070 kan je dat niet zeggen. Dus het gamma is niet alleen tussen low en high end uitgegroeid, sowieso low end is al uitgebreid en ik vind hetzelfde over het high end.
De 4080 Super is eerder wat ik equivalent zou zien aan de toenmalige Ti500, de 4090 is er bovenaan bijgekomen.
[...]


De adviesprijs van de 4090 is 1775 euro. Dat was in 2021 1.014 euro. Dus een x4 in termen van koopkracht is het zeker niet.
Dat beweer ik ook niet, maar 1014 --> 1775 euro is 75% inflatie, geen 50%. 1014 * 1.75 = 1775. 1200 euro komt meer in de richting en nee, dat is geen 4x, maar wel ~2,5x. Dat is toch best een fors verschil.
[...]


Ik ben alleszins niet akkoord dat instap en top te vergelijken zijn en de rest opvulling daartussen is. Een GF3 Ti200 was een veel capabeler kaartje toenmalig dan een 4050 nu is. De Ti200 was in veel gevallen sneller dan het ultieme topmodel van de generatie daarvoor, de GF2 Ultra.
De stappen waren inderdaad veel groter, maar geldt dat niet voor alle elektronica tegenwoordig? Iedere volgende CPU was ook veel sneller dan de vorige generatie. Tegenwoordig zijn dat ook baby steps. Dat heeft niks te maken met de prijs/performance. Mensen doen nu ook langer met hardware. Dat is trouwens wel iets wat het weer een beetje goed maakt dat de prijzen zijn gestegen: je kunt je hardware over een langere periode afschrijven. Vroeger kocht ik soms na een jaar een nieuwe GPU omdat de oude te traag werd (nieuwe spellen onspeelbaar). Mijn 2060 Super gaat daardoor veel langer mee dan mijn Asus V3400 TNT 16MB :P
Van een 4050 kan je dat echt niet zeggen. Zelfs van een 4060 en 4070 kan je dat niet zeggen. Dus het gamma is niet alleen tussen low en high end uitgegroeid, sowieso low end is al uitgebreid en ik vind hetzelfde over het high end.
Dat komt dus omdat de stappen sneller ook veel kleiner zijn. Het topmodel van een volgende lijn is niet ineens 2x zo snel als de vorige, dus je mag niet verwachten dat een instapmodel dat dan wel ineens is. Die wet van Moore is doorbroken, dat geven chipfabrikanten ook aan.
De 4080 Super is eerder wat ik equivalent zou zien aan de toenmalige Ti500, de 4090 is er bovenaan bijgekomen.
Ik weet niet waar je dat op baseert, anders dan een onderbuikgevoel :) De 4080 is immers ook niet 2x zo snel als de 3080, maar "slechts" 50% en dan zat er nota bene nog 2 jaar tussen ook. De Asus-kaart die ik hierboven noemde was een Riva TNT van nVidia, kwam in juni 1998 op de markt en volgde de Riva 128 op die in augustus 1997 op de markt kwam, minder dan een jaar daarvoor! Die TNT was praktisch 2x zo snel als de Riva 128 en dat, nogmaals, binnen een jaar aan ontwikkeltijd!
Dat beweer ik ook niet, maar 1014 --> 1775 euro is 75% inflatie, geen 50%. 1014 * 1.75 = 1775. 1200 euro komt meer in de richting en nee, dat is geen 4x, maar wel ~2,5x. Dat is toch best een fors verschil.
Afhankelijk van hoe je het bekijkt, beschouw je de 4080 of 4090 als spirituele opvolger van de Ti500 :)
Dat komt dus omdat de stappen sneller ook veel kleiner zijn. Het topmodel van een volgende lijn is niet ineens 2x zo snel als de vorige, dus je mag niet verwachten dat een instapmodel dat dan wel ineens is. Die wet van Moore is doorbroken, dat geven chipfabrikanten ook aan.
De referentie die hierboven werd gegeven is de GF3 Ti500. Als ik snel even kijk naar reviews daarvan zie ik verschillen in games ten opzichte van de GF2 Pro (nog niet eens de Ultra) zie ik in uitzonderlijke gevallen verschillen van een paar procent, maar een range die vooral tussen de 50 en 100% betere frame rates lijken te liggen.
Kijk ik naar de 4090 vs 3090 kijk, lijkt dat rond de 65% te zijn.

Ja, overall waren de stappen vroeger wel groter, maar het is nu niet alsof RTX 3000 naar 4000 babystapjes zijn?
Ik weet niet waar je dat op baseert, anders dan een onderbuikgevoel :)
De hele discussie is buikgevoel, met veel invalshoeken, argumenten en parameters. :)
De 4080 is immers ook niet 2x zo snel als de 3080, maar "slechts" 50% en dan zat er nota bene nog 2 jaar tussen ook. De Asus-kaart die ik hierboven noemde was een Riva TNT van nVidia, kwam in juni 1998 op de markt en volgde de Riva 128 op die in augustus 1997 op de markt kwam, minder dan een jaar daarvoor! Die TNT was praktisch 2x zo snel als de Riva 128 en dat, nogmaals, binnen een jaar aan ontwikkeltijd!
Tja, vroeger kwamen de generaties heel veel sneller. Als je kijkt hoe snel de opkomst en ondergang van 3dfx zich voltrok, er binnen die tijd maar liefst 4 hele productgeneraties kwamen, en 3dfx zelfs dan nog volledig uit de markt ontwikkeld werden omdat ze te traag waren, dan weet je het wel.

Daar zit echter ook een argument aan de keerzijde: als het argument is dat je nu meer betaalt voor gelijkaardige modellen, maar je kan vervolgens weer veel langer door voor dat geld dan je vroeger kon, dan werkt dat natuurlijk ook weer positief qua waar voor je geld. :)
Vroeger werd er ook veel geld uitgegeven aan videokaarden dmv SLI.
Dat is 20+ jaar geleden. Dat is 800+ euro nu.
Die kaart die je daarmee kan kopen is oneindig sneller dan die.
Waarbij je Ti500 57 miljoen transistors had (op 150nm node) en een RTX4090 76 miljard (op 4nm node). De techniek om zo'n kaart te maken is zo eindelijk veel complexer geworden dat het bijne een wonder is dat de prijs slechts 4x zo hoog is voor een courant topmodel.
Uhm... de 4070 Super is geen competitor tot de 7900 XT, de XT is 20% beter volgens Techpowerup. Ze zullen niet dezelfde performance halen in games.
Uit deze review :

4070 super 94.5 fps in 4k medium
7900 xt 116 fps

Dus beide meer dan voldoende om 4k games te spelen.
Maar niet op 4K ultra toch ?
Jawel: 65 fps gemiddeld.

Daarbij is 4k medium ook 4k hoor
Een pentium 90 betaalde je vroeger zo 4000-5000 gulden voor. +/- 2500 euro

Een Athlon XP met geforce 2 systeem was nog geen 2300 gulden. +/- 1150 euro In 2001

Maar die tijd dat hardware goedkoper werd zijn we al weer een tijdje voorbij. Laatste goedkope kaart was voor mijn de GF1060 daarna is alles weer enorm duur geworden. We zitten nu weer op begin jaren 90 prijzen

[Reactie gewijzigd door Bintzak op 22 juli 2024 16:52]

Langs geen kanten het verschil is dat je heel dure top producten heb dezer dagen.

Een doorsnee computer in 95 kostte (in vandaag euro's , inflatie weet je wel) een 2500-3500 euro. Daarvoor heb je nu het snelste wat je kan krijgen. Voor 500-600 euro heb je vandaag een meer dan ruim voldoende systeem dat het werk van meeste mensen aankan voor 1000-1500 euro zit je aan 99% van de mensen.

Mensen vergeten hoe enorm pokkeduur computers waren in de jaren 80-90 en zelfs begin 00 .

[Reactie gewijzigd door k995 op 22 juli 2024 16:52]

VOor datheb je 4070 super of 7900 xt waar je 90-100 fps in 4k hebt.
Hangt er veel te veel af in welke settings en welke games, dit is absoluut geen standaard voor deze kaarten

Genoeg games die in 4K met de hoogste settings bij lange na geen 90-100 fps halen met een 4070 super of 7900xt.. maar wellicht in low of medium wel en kan je nog steeds zeggen ik speel 4K

Als voorbeeld: The Last of US, Starfield, Starwars Jedi Survivor.. in die games haalt een 4090 niet eens die framerates op 4k en hoogste settings en geen raytrtacing, laat staan een 4070 of een 7900
Als ik eens kijk haalt de super tegen de 50 fps in 4k ultra in starfield en tlou . Met wat tweaks zit je dan zonder problemen aan 60 fps hoor. Moet je echt niet naar low gaan.

Of je zet dlss quality aan en dan heb je dat ook. Wil je meer ga je naar frame generation.
zonder problemen aan 60 fps hoor
Je had het eerst over 90-100 fps, niet 60

dat is nogal een verschil.. de 4070 en 7900xt zijn gewoon geen kaarten die dat standaard kunnen halen
Gemiddeld halen ze dat -> zie review. Misschien die eens lezen?

De zwaarste titels zal je idd wat moeten in de settings iets doen om 60fps te krigen in high/ultra.

Maar die kaarten draaien dat zonder veel problemen.
Gemiddeld halen ze dat -> zie review. Misschien die eens lezen?
De hypocrisie om mij nu te vertellen dat ik moet lezen.. wow

https://youtu.be/vfI2CIcqWII?t=207
https://youtu.be/mL1l4jmxLa8?t=446
De zwaarste titels zal je idd wat moeten in de settings iets doen om 60fps te krigen in high/ultra.
Alles goed met je?? nu kom je weer met je 60FPS aanzetten... ik reageerde op jouw claim dat deze kaarten 90-100 fps kunnen halen

Ik weet niet hoe ik jouw nog meer duidelijk kan maken wat ik nu al meerdere keren heb gezegd
Deze kaarten kunnen niet standaard 90-100FPS aan in 4K.. dit hangt 100% welk spel en welke settings

Wellicht is het nieuw voor om meerdere bronnen te gebruiken... zou daar maar eens aan beginnen in dat geval

[Reactie gewijzigd door Sinester op 22 juli 2024 16:52]

De hypocrisie om mij nu te vertellen dat ik moet lezen.. wow
Realiteit: In deze review
4070 super : gemiddeld 90fps op medium settings 4K en 74 fps op ultra.
Als jij aan komt met "die kunnen dat standaard niet halen": jawel dat is het gemiddelde wat ze halen aka standaard.

En ja, zoals ik zei: in 4k ultra in startfield zit die een de 50, 53 in jouw voorbeeld. Settings aanpassen en-of dlss of fsr aanzetten en je zit vlot boven de 60fps op 4k ultra of nog steeds perfect speelbaar op zo'n kaart.
Alles goed met je?? nu kom je weer met je 60FPS aanzetten... ik reageerde op jouw claim dat deze kaarten 90-100 fps kunnen halen
Lol, gast LEES toch gewoon deze review :

review: RTX 4080 Super - Drie keer is scheepsrecht
berekenen we gewogen gemiddelden vanuit de gebruikte en hiervoor besproken games op basis van de resultaten.
En wat zien we dan? De 4070 super heeft op 4k medium 95fps/ ultra 75 fps gemiddeld in die games. Als jij dan afkomt "die kan dat niet aan" is dat wel heel achterlijk.

Wat jij niet snapt blijkbaar is hoe gemiddeldes werken, dus soms is het 75 fps op 4k ultra soms 100 fps en soms 50 fps, gemiddeld dus 75 fps? Snappie?

Voor die dat het 50 fps is moet je een halve minuut settings aanpassen en je zit zo vlot aan de 60-70 fps als er dlss/fsr is.
Valt best mee.
Mijn oude 1080Ti kan je 2e hands kopen voor grofweg €100-€150 en haalt makkelijk 40-50fps op 4K.
Vergelijkbaar met een 3060Ti.
De truc?
Raytracing.
Zodra je dat aanzet (dat ondersteunt de 1080Ti niet) dan heb je ineens een heleboel meer rekenkracht en geheugen bandbreedte nodig
En wat voor meerwaarde heeft raytracing voor welke games? In mijn opinie niet echt veel..
Meerwaarde valt over te twisten, net als ongeacht je nou de graphics op low of ultra draait dat het eigenlijk maar overbodige luxe is, maar het voegt zeker wel wat toe aan games in tegenstelling tot rasterization. Toen raytracing net uit kwam voor games was het verschil nog nihil, dat het alleen op lichtbronnen of reflecties werd toegepast, maar tegenwoordig is dat alsmaar meer en meer, kijkende naar bijvoorbeeld Cyberpunk en Alan Wake 2, waar men nog een stapje verder gaat door Path Tracing te implementeren.

Het verschil tussen raytracing en pathtracing is dat raytracing het exacte pad van reflecties en refracties elke ray berekend, en weer terug traced naar een of meerdere lichtbronnen, waar bij path tracing meerdere rays worden gegenereerd voor elke pixel, maar gestuurd worden in een willekeurige richting. Dat wordt herhaald wanneer een ray tegen een object kaatst, en dat blijft gebeuren tot een lichtbron is bereikt of een vooringestelde bounce limiet is bereikt, waardoor path tracing nog nauwkeuriger is dan raytracing.
In andere woorden, het voornaamste verschil is gewoon dat door deze technieken de schaduwen, belichting, reflecties en refracties er een stuk realistischer uitzien dan wanneer de oude rasterization technologie wordt toegepast.

Hier een mooi artikel erover:
https://www.techspot.com/...h-tracing-vs-ray-tracing/
Ray tracing kan niet stand-alone werken en is rasterization nog bij nodig. Path tracing maakt rasterization wel overbodig. Het klopt helemaal wat je zegt.

Daarnaast hebben alle materialen ook hun natuurlijke look. Alles ziet natuurlijker uit vanplaats artificial.

Huid textures zien er minder "glowy" uit, geen light bleeding meer en ze hoeven geen shadow mapping meer te gebruiken. Want bij path tracing heeft alles automatisch een schaduw.

[Reactie gewijzigd door Toonen1988 op 22 juli 2024 16:52]

Er zijn veel games die echt veel mooier zijn met ray tracing. Het verschil tussen Cyberpunk 2077 met en zonder path tracing is echt redelijk groot, het ziet er in sommige plekken gewoon compleet anders (beter) uit.

Nou kan je best beargumenteren dat het het niet waard is als je geen zware GPU hebt. Maar dat kan je ook over alle andere grafische settings. Ik zou eerlijk gezegd zeggen dat ray tracing juist een setting kan zijn die een grotere invloed heeft op het uiteindelijke beeld. En ik zet liever mijn interne resolutie (voor de upscaling) lager, dan dat ik ray tracing uitzet. 1080p -> 4k met DLSS ziet er gewoon goed uit.
Ga maar eens The Witcher 3 spelen. Daar is raytracing machtig mooi en al helemaal als de schemering invalt of als je aan het looten bent in de huisjes. In Cyberpunk is het ook heel mooi. In vind deze meerwaarde echt wel een geschenk.
Dat ligt nogal aan de game natuurlijk. Draai Alan Wake 2 maar eens op die kaart bijvoorbeeld, en dan bedoel ik gewoon zonder RT.
Alan Wake 2 gebruikt eigenlijk altijd een vorm van ray tracing gecombineerd met andere technieken. Maar op lagere settings is dat gewoon softwarematig. Pas met "full ray tracing" / "path tracing" wordt er hardware ray tracing gebruikt, en wordt het nog eens veel zwaarder. Maar eerlijk gezegd, de game ziet er al geweldig uit op de Medium settings. Volgens mij zijn die settings al beter dan de PS5 settings...
Alan wake 2 maakt gebruik van mesh shaders. Dat wordt hardwarematig niet ondersteunt door die 1080 ti. Draait daarom voor geen meter. 5700xt heeft hetzelfde probleem.
Je moet settings flink naar beneden gooien in moderne games wil je met die kaart nu nog op 4K spelen
Mijn oude 1080Ti kan je 2e hands kopen voor grofweg €100-€150 en haalt makkelijk 40-50fps op 4K.
Vergelijkbaar met een 3060Ti.
De truc?
Raytracing.
Zodra je dat aanzet (dat ondersteunt de 1080Ti niet) dan heb je ineens een heleboel meer rekenkracht en geheugen bandbreedte nodig
dat is geen eerlijke vergelijking en heel afhankelijk van het spel/detail level/... en dat weet je zelf maar al te goed, dus ik snap niet waarom mensen deze scheve vergelijking upvoten.
ik kan even snel rijden met een 50 jaar oude volvo als een recente, de truc: geen caravan trekken. |:( |:(
Ik had een HD 7970 toen ik met 4k begon. Het liep toen niet helemaal lekker voor de games toen ter tijd. Ben ik overgestapt naar een R9 290x en kon gewoon in 4k gamen. Toen de nieuwere games niet goed werkte, ben ik over gestapt naar een GTX 1080 en nu zit ik op een RTX 4080.

Clue van het verhaal, ik game al jaren in 4k zonder veel problemen. Ik heb al sinds 2013 een 4k monitor van Samsung en daar speel ik nog altijd op.

Ik heb ook nog een 1080p scherm op 144hz. Die gebruik ik alleen als ik CS2 speel. Ben nu aan het denken om mijn 4k scherm na 11 jaar ook weer te vervangen voor een 4k met 144hz.

Mensen die zeggen dat alleen high end gpu's 4k kunnen renderen is bullshit. Ook wanneer iemand zegt dat recente kaarten nu pas oudere games in 4k kunnen renderen.

Ik heb toen zelfs GTA V in 4k gespeelt toen ik een R9 290x had, met alles op de hoogste settings. Ik behaalde netjes 60 fps. Die GPU had ik toen ter tijd voor 400 euro gekocht.

Ik wil gewoon niks anders meer. Ik ben een persoon die graag van scherpte hou.

Ik bewaar me de originele doos van mijn RTX 4080. Wanneer de 50xx series uitkomt, zal ik mijn RTX 4080 verkopen in originele doos met ook nog garantie. En dat geld leg ik bij een RTX 5080 of een 5090.

[Reactie gewijzigd door Toonen1988 op 22 juli 2024 16:52]

Ja helemaal eens met alles hoor. Ik zelf zie de voordelen ook van een game pc. Maar goed die 4080 is toch met gemak 1000+ euro. Komt de rest nog bij. Een game pc van onder de 1000 die 4k draait op hoge settings met aardige fps is volgens mij best lastig? En juist dat had ik wel verwacht 10 jaren terug. De kloof (bang for Buck) tov consoles vind ik niet bepaald kleiner geworden
je ging er dan wel ten onrechte van uit dat games niet zwaarder zouden worden.
Je kan best een game van 10 jaar terug op 4K draaien met een goedkope videokaart, dus de vooruitgang is er zeker in de videokaarten.
Daarbij is een pc onder de 1000 euro van 10 jaar geleden nu met de inflatie al een heel stuk duurder. Dat heeft op zich niets met enige vooruitgang te maken maar met geldontwaarding.

Dan is er nog het feit dat de consolemakers weinig verdienen met hun hardware maar met name het geld verdienen met de games en dat consoles nu eenmaal alleen geschikt zijn voor games en daar voor geoptimaliseerd worden, en zelfs dan kunnen ze uiteraard qua grafisch geweld niet op tegen high end PC systemen, het is gewoon een ander product

[Reactie gewijzigd door Arjant2 op 22 juli 2024 16:52]

Ja dat is waar. Komt misschien ook omdat ik - gevoelsmatig- het idee heb dat de enorme grafische vooruitgang soms wat gestagneerd lijkt. Ik zie soms de aanbevolen specs en dan denk ik “zo dat is fors” en dan zie ik de game en dan denk ik “hoe dan?!”
Het is uiteraard logisch dat we in een tijd van diminishing returns leven. Voor wie de hele game ontwikkeling vanuit de jaren 80 tot aan vandaag heeft mee mogen maken is het wel duidelijk dat de vooruitgang in graphics niet zo heel erg interessant meer is. Het vergt iedere stap exponentieel meer rekenkracht maar levert maar hele kleine extra details op. Zo is ook raytracing leuk en aardig en heeft absoluut een toekomst maar de meerwaarde ten opzichte van de kosten zijn absurd. Voor wie ooit een Voodoo2 kocht en van 20fps in 320x200 (software renderer) naar 100fps in 800x600 in hardware ging is het duidelijk dat kans klein is dat we zo'n revolutie nog eens gaan meemaken gezien dit in de afgelopen 25+ jaar niet meer is voorgekomen. Een doorbraak in techniek waarbij het concept van huidige chips volledig op de schop gaat zou dit kunnen veroorzaken, stiekem hoop ik ooit nog zoiets mee te mogen maken want jammergenoeg is het huidige landschap in computerland bij lange na zo leuk niet meer als vroeger, voornamelijk vanwege de supertrage ontwikkelingen. Wij komen uit een tijd van super snelle vooruitgang, alles gaat ons te traag vandaag. Grappig eigenlijk, hoe dat precies andersom is ten opzichte van onze voorouders, voor hun ging de ontwikkeling veel te snel en konden het niet bijbenen.
Er zijn niet heel veel games uit de r9 290x tijd die je op hoogste settings hebt kunnen spelen op 4K. Ook GTA V zal op ultra meer richting de 40 dan 60fps zijn geweest, zelfs met een i7 4790k. Dit kan je gewoon in de benchmarks terug vinden. Er zal altijd iets gesleuteld moeten zijn in de settings om dat te halen.
Dat is niet erg, want 4K was zeker een ding, maar je moest wel concessies doen zoals anti aliasing uit, of toch even die shadows wat lager zetten.

[Reactie gewijzigd door Xfade op 22 juli 2024 16:52]

Als je puur kijkt naar wat jou de meeste bang for buck geeft, zijn het eigenlijk wel consoles, maar diezelfde consoles lopen in veel dingen achter.

- Geen ultrawide support
- Games niet op native kunnen spelen
- Geen mod support
- Consoles spelen op lage settings
- Betalen voor online
- ( vaak ) volle prijs betalen voor games
- Minder functionaliteit
- 30fps modes ( je zou van 9de generatie consoles wel verwachten dat ze fidelity modes tenminste op 60fps zouden kunnen spelen, 30fps moeten we echt achter laten. )
Het meeste bang for buck wat betreft performance is eigenlijk streamen via Geforce Now voor 20 euro per maand. Maar dat heeft uiteraard zijn eigen pakket aan beperkingen.
Geforce Now is een mooie dienst en werkt wat mij betreft technisch gezien ook goed genoeg, maar er worden gewoon te weinig games ondersteund. Nieuwe games, maar vooral ook net wat oudere games. Als je nou alles kon spelen wat je in je game libraries hebt bij Steam, EA games, etc... dan zou het best een alternatief kunnen zijn.
Dat is inderdaad de grootste beperking wat mij betreft. Daarnaast is het bij de meeste games niet mogelijk om mods te gebruiken.
Kijk ook naar de FPS van 10 jaar terug en naar de consoledoosjes. Veel draaien 30 FPS (Starfield) of 60 (ACC) bijvoorbeeld. De PC's draaien met een beetje leuke kaart het dubbele van die twee, waarbij je vaak ook nog eens meer eye-candy of DoF aan kan zetten ook.

Ga je op dezelfde FPS zoeken, dan kan je relatief makkelijk een kaart vinden voor dat geld die 4k@30 of 60 FPS voor je afspeelt met dezelfde consolegraphics.
Tja we hebben in die periode een behoorlijke stagnatie gezien in de ontwikkeling van game graphics. Tegenwoordig zie je dat de boel weer vooruitgaat. Zo is er bijvoorbeeld steeds meer VRAM nodig voor textures.

Overigens kun je met een 4070 prima op 4K gamen. Je ziet in deze review 84 fps voor F1 2023 op Ultra en dat is dan nog zolder DLSS.

Console is behoorlijk vertekenent. Ik heb als PC gamer zo'n Xbox Series X gekocht en Forza Horizon 5 ziet er inderdaad prima uit, maar je merkt dat hij op 30 fps draait. Pas wanneer je de game op performance mode zet speelt het lekker. Vervolgens ziet het er op de pc toch weer beter uit. Een console is dus niet zalig makend.
Met games van 10 jaar geleden zou je prima op 4K kunnen gamen, daarnaast als je de settings niet te hoog zet blijft dat met moderne games ook prima te doen.

Het probleem is dat zeker raytracing grote veranderingen heeft gebracht. Deze techniek staat nog redelijk in de kinderschoenen, en zelfs de 4090 heeft hier nog problemen mee. (Er zijn zelfs nog geen full-raytracing games beschikbaar omdat het teveel rekenkracht vergt)
10 jaar geleden speelde ik WoW op 4K. Ik had toen 25 tot 30fps, maar het was speelbaar. In die 10 jaar tijd is er echter een hoop gebeurd. Waar toen nog gesproken werd over 60fps als 'lekker gamen' is dat inmiddels gegroeid naar 120fps, 144fps of hoger. Gsynch en Freesynch hebben gevoelsmatig ervoor gezorgd dat we die snelheden ook willen halen. Er wordt dus op dat vlak al een hoop meer van de videokaart gevraagd.

Raytracing is daar ook nog eens bijgekomen, maar het voornaamste verschil is en blijft toch wel zitten in de games zelf. Waar men vroeger uitging van "We willen dat zoveel mogelijk mensen onze games in goede kwaliteit kunnen spelen" lijkt dit veranderd te zijn in "Als mensen met een lager budget onze games willen spelen moeten ze maar concessies doen in kwaliteit of diep in de buidel tasten. Niet ons probleem" . Slechte ports vergen ook steeds meer van de hardware. Er zijn natuurlijk uitzonderingen, maar er zou al een stuk efficienter geprogrammeerd kunnen worden. DLSS en varianten daarop zouden bijvoorbeeld een RTX3000 sergpu nog jarenlang actueel kunnen laten zijn, maar momenteel wordt die upscaling 'misbruikt' om nog slordiger te programmeren.
Waar men vroeger uitging van "We willen dat zoveel mogelijk mensen onze games in goede kwaliteit kunnen spelen"
Ik weet niet hoe lang je gamed, maar vroeger moest je gewoon bijna iedere 2 jaar nieuwe hardware kopen, anders kon je de nieuwste spellen niet eens spelen. En zeker niet op de hoogste settings. In de tijd van Unreal 1, Quake 1 en 2, gingen de ontwikkelingen zo snel dat je echt veel vaker moest upgraden voor de latest and greatest graphics. Tegenwoordig kun je juist veel langer met hardware doen. Prijzen van de hardware zijn ook wel hoger geworden.
Je moest helemaal niks. Even voor jouw beeldvorming: ik ging van een XT met CGA, naar EGA en later een 386sx met VGA. Toen naar een 486sx, 486dx, dx2, dx4 en een Cytrix 586. Toen het hele Pentium pad met Voodoo kaarten etc. Om over geluidskaarten nog maar te zwijgen. Ja, je kon vaker upgraden, maar dat was om hele andere redenen. Omdat je bijvoorbeeld FMV wilde kunnen afspelen, omdat je meer dan 256 kleuren en dus SVGA nodig had of omdat je advanced wave effects wilde hebben. Echter een spel draaide ook gewoon in EGA met een Adlib kaartje en was speelbaar. Ook al had je oude meuk: je game bleeft gewoon presteren en pas als je bij een kennis de pracht en praal zag ging je overstag en upgraden.

Games pastte zichzelf dus aan aan je hardware, waar je tegenwoordig je hardware aan moet passen aan je games. Vergeet niet dat een verhoging van 25 naar 100mhz enorm was toentertijd. Tegenwoordig is dat marginaal en zou wat efficiënter programmeren een evenzoveel verschil maken.
Games pastte zichzelf dus aan aan je hardware
Dat is gewoon niet waar. Zat spellen vroeger die je gewoon niet kon spelen als je hardware niet toereikend was. Genoeg spellen waar je destijds minimale specs voor moest hebben en die gewoon simpelweg niet werkten op oudere hardware. Toen had je juist vaak helemaal niet de optie om kwaliteit van de graphics naar beneden bij te stellen. Dan werkte het simpelweg niet.
Die opties had je niet nodig. Dat deed de game zelf. Je zei simpelweg tegen de game tijdens setup: ik heb deze videokaart (cga, ega,vga,svga), ik heb deze geluidskaart (soundblaster, gus, adlib) en de T string in je blaster variabel hielp daarmee), of je EMM of XMS wilde gebruiken.. dat soort dingen. Pas bij Windows 3.0 met Multimedia Extensions verplaatste dit zich naar detectie middels de geïnstalleerde drivers in Windows, maar pas tot de intro van Windows 95 was dat de meest gebruikte manier.
Dat is heel wat anders aanpassen van de kwaliteit aan de rekenkracht van de machine. Dat had alleen te maken met welke hardware interfaces er beschikbaar waren en hoe de chips uiteindelijk werken. Nu zijn werken games met APIs en zijn de kwaliteits instellingen veel flexibeler dan de spellen vroeger. Vroeger was het gewoon je moet specs tussen deze snelheden hebben op de CPU anders werkt het spel gewoon niet. Of spellen zoals outrun die makkelijker werden naarmate je CPU sneller was. De tijd ging via systeemklok, maar de snelheid van de auto was afhankelijk van de snelheid van de CPU. Hierdoor reed de auto sneller door de levels, maar de klok bleef hetzelfde.

En cga, vga, svga is niet anders dan de resolutie aanpassen wat je nu ook nog kan. Nou ja, cga was nog minder kleuren. Games paste daar niets voor aan, dan had je gewoon minder kleuren

[Reactie gewijzigd door hiostu op 22 juli 2024 16:52]

Dit is klinkklare onzin.
We hadden toen een heel ander besef van snelheid. Ik had bijvoorbeeld tweedehands een 486SX 33 maar een DX 2 66 was het advies voor de meeste games in die tijd. Kijk nu wel eens filmpjes van iemand die een 486 SX 33 tot DX 160 MHZ test maar het verschil is soms maar 10 FPS en dan praat je van 15 FPS naar 25. Nog steeds een diashow in mijn 2024 ogen, maar terug in 1996 was dat een enorme prestatiewinst.
Dat kwam omdat de consoles nog geen mainsteam waren. Er werd dedicated voor de PC ontwikkeld. Op dit moment is het console first en daarna een beetje oppoetsen of porten naar de PC.
Dat is echt onzin wat je typt ;)
Dat is toch ook zo. RTX 4070 is een prima 4K kaart voor iedereen die niet perse alles op ultra hoeft te draaien, 144fps wil of maximale raytracing wil.

De maximale performance op de allerhoogste settings is historisch gezien altijd peper duur geweest.
Ik denk dat je nu, een game van 10 jaar geleden perfect kunt gamen met een kaart van 5 a 6 honderd in 4k :)
Maar idd ik snap je punt, RTX 4080 Super heeft wel bijna 46 miljard transistors zeggen ze, das best wel veel.
Het is natuurlijk gewoon een never ending story, snellere kaart gaat gekoppeld met een zwaardere game engine en meer eye candy.

[Reactie gewijzigd door bZrk62 op 22 juli 2024 16:52]

Je snapt toch wel dat Game Developers hun maximale settings altijd afstemmen op het bovensegment van de markt en niet het middensegment. Natuurlijk kun je met kaarten die 500-600 euro kosten gamen op 4K, echter je moet dan wel de settings omlaag zetten.

Alleen oudere spellen, gericht op het bovensegment ten tijde van publicatie, zullen nu met maximale settings werken op de 500-600 euro range kaarten, want die hebben dezelfde of zelfs beter performance dan de bovensegment kaarten uit die tijd.

Dit principe is zo oud als de GPU zelf. Ouder zelfs, maar toen ging het over de CPU.

NB: ik laat even voor het gemak de problematiek van slecht geoptimaliseerde console ports en performance killing DRM buiten beschouwing, want dat kan de meest krachtige systemen op hun knieën krijgen.
Dat hadden we allemaal wel verwacht. Toen kwam die corona en verandere alles Bitcoin gekte

Maar alles is in prijzen omhoog gegaan

Zijn nu elite prijzen Gewone jan met de pet is het niet meer te betalen

hardware verouderd ook snel ook nog. ontwikkelingen gaan zo snel
Die tijden zijn voorbij.....na de 2serie ging nvidia achterlijk hoge prijzen vragen.en het gekke daarvan is....mensen betalen ervoor.
Toen de 3 serie 1200/2000 Euro's
De 4 serie wat gezakt maar nog steeds belachelijke prijzen.
5 serie zal ook een Ferrari kosten :)
Gelijk heb je, met mijn LG C1 in huis heb ik 2 maanden geleden voor 400€ een PS5 disk edition op de kop kunnen tikken. Meteen high end hardware, 4k 120hz op een 55" oled scherm gamen. Gewoon Zalig! :)
Begrijp deze prijzen niet.... én ook niet dat tweakers positief is over deze kaarten. Én, deze strategie van de fabrikant, maar blijft tolereren. Mensen, die day one hun centen investeren in een rtx4080 staan nu te kijken.
De 4070 Super is de enige positieve van de stack. De 4070 Ti Super haalt de 7900 XT nog niet eens in en de 4080 Super de XTX niet eens, en dat nog terwijl de 4070 Ti Super even duur is als een XTX en de 4080 Super nog steeds 1200 euro is hier, de price drop heeft ook geen moer betekent hier.

En dat nog terwijl er waarschijnlijk over een jaar al de 50 series uitkomen.
Ik ontvang morgen via Megekko de Asus Tuf gaming RTX 4080 Super voor 1119€ terwijl de RT7900XTX nu het goedkoopste voor 1065€ aangeboden wordt.

Voor mij een totale no brainer. De XTX is zo een 3 tot 3.5% sneller op 1440P en 4K en heeft 8gb extra Vram.

Dat is het enige positieve aan de AMD kaart. De rest is allemaal een stuk minder. Drivers zijn minder, DLSS is superieur aan FSR, Framegen idem. Render en cuda superieur. RT idem.

Zuiniger ook nog eens. Voor mij dus een zeer welkome stap van de ruim 1300€ dat de kaart was in mijn versie die ik nu heb en ik krijg ook nog iets meer performance.

Er waren veel verschillende modellen 4080 Super voor 1119€ te koop nu zijn de meeste uitverkocht overal.

De pricedrop was gewoon erg nodig. Ook met de 4070 TI S die eigenlijk dezelfde waardes heeft als de RX7900XT als de 4080 S tov de 7900XTX. Het verhaal van de 4080 S geldt hier ook weer voor de 4070 TI S welke ik nu draai. De kaart is gewoon geweldig. Onhoorbaar ook tijdens gamen! En blijft zoveel koeler dan mijn oude RX7900XT ook een Asus Tuf gaming en hoewel die zeker niet luid was was die wel duidelijk aanwezig met een veel hoger verbruikt.

Want de zogenaamde TDP van 355 watt werd vele malen overschreden tot zo een 450 watt piek terwijl de 4070 TI S niet boven de 285 watt komt tenzij je die meer power geeft en overclocked!
De goedkoopste XTX is 929 euro.

Drivers zijn al JAREN geen probleem meer. We leven niet meer in 2016.

FSR3 heeft ook frame gen. ( hoewel ik vind dat het echt een nutteloze "feature" is. ) Lekker een kaart van 1200 euro kopen om dan neppe frames ertussen te gooien en veel, veel meer input lag creeeren.

RT is ook een marketing gimmick. "Ja, je kan RT overdrive doen, maar dan moet je wel spelen met een interne resolutie van 144p met neppe frames tussen je echte om hoger dan 60fps te halen op 1440p." En realiseer je ook niet dat zelfs een 4090 in de toekomst zal strugglen met RT? Het is een limited time feature. En RT maakt geen bal verschil in 9/10 games, er zijn maar 3, hooguit 4 games waar ik zou zeggen dat RT wel een verschil maakt, en in 2 van die games is het niet eens RT meer maar PT.

Dat het zuiniger is merk je niet eens. Het gemiddelde stroomprijs is 40 cent per kwh. Een XTX verbruikt 355w, dus als ik in een jaar 1000 uur zou gamen zou dat 355.000w of 355kw x 0,40 = 142 euro per jaar. 4080 Super TDP is 320w. 1000 uur gamen = 320.000w of 320kw x 0,40 = 128 euro, dat is een verschil van 14 euro per jaar met 1000 uur gamen in dat jaar. 190 gedeeld door 14 euro = 13 jaar en 6 maanden afgerond. Om het verschil van 190 euro te verbruiken ( 1119 euro voor de 4080 Super en 929 euro voor de XTX ) moet je 13 jaar en 6 maanden lang 1000 uur per jaar gamen. Je zal de kaart vervangen voordat je het verschil zal verbruiken...

Price drop heeft best weinig gedaan, hooguit 80 euro minder, het is nog steeds zwaar overpriced.

Op de AMD kant moet je ook geen Nvidia parter kaarten halen, wist je dat niet? De Asus Tuf 7900 XT en XTX hebben een design flaw wat leidt tot hogere temperaturen. Als je AMD haalt moet je halen van Sapphire, Asrock, XFX of Powercolor.

En dan heb je het nog niet eens gehad over de software, AMD adrenaline is veel, veel beter dan Bloatware Experience. En AMD lukt het om jaren erna nog performance te kweken uit hun kaarten, Nvidia kan dat niet en doet dat ook niet vanwege een andere architecture elke nieuwe generatie, RDNA is gestapeld op elkaar, dus RDNA3 zal bijvoorbeeld ook profiteren van een performance increase op RDNA1.

Kijk, als je uiteindelijk blij bent met je aankoop is dat alles wat belangrijk is. Het is jouw geld, jouw keuze, maar een 1200 euro kaart kopen en dan praten over zuinigheid is een beetje tegenstrijdig.

[Reactie gewijzigd door Vhxrsion op 22 juli 2024 16:52]

Het is inderdaad geen 2016 meer, maar de stelling daarvoor over de drivers lijkt mij niet juist.

Om te beginnen ben ik niet bepaald gecharmeerd van NVIDIA, de prijsverhogingen en van het uitknijpen van de consument. Toen AMD met de 7000 serie kwam werd ik al heel snel enthousiast om over te lopen naar team red. Daar heb ik nogal spijt van.

Ik weet wel dat het anekdotisch bewijs is, maar ik heb met mijn voorgaande 3 NVIDIA kaarten geen enkel probleem op driver-gebied ervaren (GTX980 / GTX1070 / GTX 1080 ti), met mijn AMD R9 290X overigens ook geen problemen ondervonden.

Sinds begin november 2023 ben ik in het bezit van een RX 7800 XT en het is een doffe ellende geweest met de drivers. Sinds de firmware-update van begin dit jaar leek het er op dat het probleem opgelost was, maar na 3 weken toch weer een random crash (ook gewoon tijdens Netflix/Prime waar nauwelijks iets gevraagd wordt van de GPU).

Alles is kruislings uitgesloten (BIOS updates, chipset update, GPU firmware updates, alleen driver installatie zonder AMD Adrenalin, terugschroeven performance en alle andere zaken in Adrenalin, andere high-end HDMI / DisplayPort -kabels, alles opnieuw ingebouwd, ander RAM, single RAM, andere PSU (RM1000x / Focus GX-1000), DDU, - en ik zal vast nog wat zaken vergeten zijn). Het probleem van crashes blijft bestaan. Stresstesten van de GPU/VRAM, RAM en CPU verlopen zonder problemen. Mijn oude 1080 Ti draait op hetzelfde systeem volledig zonder problemen of crashes.

Sinds de laatste driverupdate zijn er wel minder crashes, maar ze zijn er nog steeds. Als ik € 600,- uitgeef aan een GPU zou het fijn zijn als het gewoon op dag 1 werkt en niet dat er na 3 maanden wat verbetering wordt geboekt.

Google op 7800 XT black screen en zie honderden / duizenden lotgenoten. Men krijgt ook gewoon hun RMA verstuurde units weer terug als zijnde 'geen defect'. Voor nu hoop ik dat de volgende driverupdate het probleem niet alleen een beetje minder maakt, maar gewoon eens oplost.
Wat ik ook zie is dat mensen vaak problemen die niet liggen aan drivers wel blamen aan drivers, ofterwel user error.

Ik heb zelf tientallen AMD systemen gebouwd voor vrienden en kennissen, nooit van problemen gehoord op die systemen. Het crashen kan komen door andere apps, want zelf ik weet ik bijvoorbeeld dat 1 game in mijn library crasht als ik ook Afterburner open heb, Afterburner dicht doen is al genoeg om dat niet meer te laten gebeuren.

Verder heb ik ook wel iets rond zien gaan van dat Nvidia drivers achterblijven op systemen en het daarna gaat fucken met AMD drivers, kan dit niet bevestigen of dergelijke, het is eenmaal iets wat ik rond heb zien gaan, zou altijd ipv DDU gewoon een clean install van Windows aanraden omdat niks dat overleeft.

En Nvidia zit zeker niet zonder problemen hoor, op Reddit enzo mag je geen Nvidia problemen posten, maar als je gaat naar de community support op de Geforce Forums worden er elke uur tientallen threads aangemaakt over "driver issues", of dit ook echt driver issues zijn zal per situatie verschillen. Bovendien heeft Nvidia ook de vorige 3 driver updates op Linux niks veranderd en elke keer de changelog ge-copy en paste, ook niet bepaald transparant. Ook doet Nvidia ook vaak geen bal aan known issues in mijn ervaring, had een 3090 FE met allerlei problemen, een maand later was nog niks gefixt, had van alles geprobeerd, uiteindelijk gewoon verkocht.

Natuurlijk is het meeste van dit best subjectief en zal per persoon verschillen, maar ik zou niet gelijk alles neerleggen op "driver issues", in mijn ervaring heb ik ook meegemaakt dat een redelijk deel ervan vaak gewoon user error is. Nog steeds wel jammer, maar ik vind eigenlijk niet dat op het gebied van drivers de een expliciet beter is dan de ander.

Drivers op mijn oude 5700 XT waren in het algemeen wel goed maar je had wel de ene driver versie die je dan moest vermijden bijvoorbeeld, het is lang niet perfect, niet bij Nvidia en ook niet bij AMD, Intel kan ik niet over spreken, nooit gehad persoonlijk.

[Reactie gewijzigd door Vhxrsion op 22 juli 2024 16:52]

Natuurlijk is het meeste van dit best subjectief en zal per persoon verschillen, maar ik zou niet gelijk alles neerleggen op "driver issues", in mijn ervaring heb ik ook meegemaakt dat een redelijk deel ervan vaak gewoon user error is. Nog steeds wel jammer, maar ik vind eigenlijk niet dat op het gebied van drivers de een expliciet beter is dan de ander.
Ik geloof best dat er meestal sprake is van een 'menselijke fout' en dat NVIDIA bepaald niet feilloos is, maar ik durf vrij stellig te zijn dat het in mijn specifieke geval wel degelijk een probleem van de drivers van de 7800 XT is. Ook bij een volledige clean install van Windows 11 bestond dit probleem met eenzelfde frequentie. Met de laatste drivers heeft het probleem zich geminimaliseerd naar slechts een crash in 3 weken in plaats van 3 crashes per dag.

Ik heb zelf ook een PC of 20 in elkaar geschroefd met zowel NVIDIA als AMD kaarten, maar dit is voor het eerst dat ik hier tegen aan loop. De lijst van ondernomen acties is langer dan in mijn post benoemd, maar het enige dat verbetering heeft gebracht zijn de nieuwe drivers.
Hmm, ja, dan ziet het er inderdaad wel zo uit. Maar ik dacht ik zeg het gewoon omdat mensen er vaak van houden om naar conclusies te springen.

Tenminste zie je wel dat de drivers worden gefixt haha.
AMD heeft al jaren geen driver problemen, vandaar dat mijn World of warcraft soms een aantal keren achter elkaar crashed met AMD en niet met Nvidia.

Ook de zogenaamde idle power fix was gewoon niet aanwezig. Er stond bij de drivers fix voor een aantal monitors, en iedereen denkt dat dus alles opgelost is terwijl het probleem op het merendeel nog steeds aanwezig was zoals bij mij.

Bij mij op 165 hz verbruikte ik 88 watt en 45 op 144hz. Nu 20 watt op 165 met Nvidia! En ik heb een meter aan de muur waar ik het echte verbruik meet!

En als jij de verschillen tussen DLSS en FSR niet ziet tja dan zie je wellicht ook geen verschil tussen 720P en 4K. Voor mensen met goede ogen is het verschil enorm! AMD maakt alles blurry terwijl met Nvidia het scherp en goed zichtbaar is.

Veel hekjes en dergelijke verschijnen bij AMD opeens en veel flikkeringen met objecten. Echt dat mensen dit niet zien is voor mij onvoorstelbaar! Zelfs Stevie Wonder zou het verschil nog zien!

Maar geloof lekker wat je wilt geloven. Als je denkt dat veel review sites objectief zijn kom je nog van een koude kermis thuis, want ze worden allemaal gesponsord om zo positief mogelijk te praten over hun product.

Tevens zijn er tegenwoordig spellen waar je raytracing niet kan uitschakelen zoals Pandora game en anderen. Dan is het verschil opeens nog veel groter.

Het is frappant dat mensen op Tweakers enkel fanboy gedrag hebben.
Ik heb jarenlang AMD gekocht om ze sterker te maken. Maar zoveel problemen met zowel CPU als GPU gehad dat ik de switch weer naar Intel/Nvidia heb gemaakt en heel blij ben met het verschil.

Nu is alles rocksolid. En ik zeg niet dat AMD niet stabiel kan zijn, maar ze zijn gemiddeld gezien veel instabieler. Als je de factoren van alle hardware en software neemt die met elkaar werken is het verschil tussen AMD en de rest enorm groot in het nadeel van AMD.

Maar blijkbaar mag je dat niet zeggen want dan trap je mensen op de tenen blijkbaar.
Maar men doet maar wat men wilt. Ik heb beide heel veel getest en weet welke veel meer stabiel is, en dat is niet AMD.

En nog even op je cijfertjes terugkomend van je stroomverbruik, leuke grafiekjes die je maakt die geheel de prullenbak in kunnen!

Ik gebruik ook HWinfo64 waar je dus zogenaamd verbruik kan zien, maar dat is toch anders met het echte verbruik! De meter op de muur liegt namelijk niet!

Mijn 4070TI Super gaat momenteel zonder overclocken niet over de 285 watt gebruik, terwijl mijn RX7900XT van hetzelfde merk en type(Asus Tuf Gaming) gemiddeld dus op 350 watt zat zonder overclocken en pieken had van 450 watt!

Wat fabrikanten opgeven is allemaal leuk en aardig, maar mijn ervaring leert dat dit vaak anders in de praktijk is. En ook Nvidia maakt zich daar schuldig aan zeker met de 3090 en 3090TI!

Maar de 4000 serie kaarten zijn op dat punt echt een stuk zuiniger.
En ik vergelijk de 7900XTX van Asus de Tuf Gaming omdat ik die ook heb en had van AMD.

Dat is een kart met zeer goede temps en laag geluid. Als je bv een Inno3D neemt is dat gewoonweg verschrikkelijk!

Je kijkt enkel naar de goedkoopste zonder andere zaken mee te nemen! Dat mag, maar ik wil van een 900 of 1100€ kaart er wel 1 die fluitsterstil is en laag in temps! Mijn Nvidia heeft beide! De AMD 7900XT was in dat opzicht al een stukje minder, nog steeds acceptabel maar wel minder.

Morgen zal ik het verschil tussen de 4070TI S en de 4080S zien. Ik verwacht amper een verschil met mijn huidige kaart in temps en geluid.
Had zelf een 5700 XT, nooit echt problemen mee gehad. Daarna geupgrade naar een 3090 FE, kaart werd super heet, black screens, crashes, en ik had een constante screen flicker.

User experience was daarop niet veel beter, account nodig hebben om drivers te installeren is bullshit, Geforce Experience is in zijn geheel bloatware, kon mijn kaart niet overclocken vanuit drivers dus had Afterburner nodig, FPS counter was ook slecht dus had ook RTSS nodig. Ook is alles op een per-game basis en niet op driver level, dus als ik een oudere games speel heb ik ook lekker geen Reflex of iets.

Dacht dat DLSS het tenminste waard zou zijn, maar nee. Het is wel een tik beter dan FSR, maar groot is het verschil niet echt voor mij. Allebei komen niet eens dichtbij native. Geen idee waar het consensus vandaan komt dat DLSS een triljoen keer beter is dan FSR, beter is het wel, maar niet bepaald iets waar ik wow tegen zeg. Ik zie het verschil gewoon amper.

Cuda gebruik ik sowieso al niet, dus heb daar weinig over te zeggen.

Ik ben bovendien geen fanboy, heb AMD en Nvidia gehad. Ik haal wat beter voor mij is op het moment van aankoop, al is dat nu Nvidia, AMD of zelfs Intel. Brand loyalty is dom.

Daarna had ik dus de hele PC verkocht en heb ik een nieuwe gebouwd met een 7900 XTX, na een paar maanden nu nog 0 crashes, geen black screens, geen flickering en al.

AMD was beter voor mij op het moment omdat de 4080 ( Super ) simpelweg te duur is, de XTX bied betere value en price to performance aan en ik wil het meeste voor mijn geld krijgen. Extra betalen voor een 4080 ( Super ) was het niet waard voor mij.

Mijn idle power consumption met een 3440x1440 240hz monitor en een 2560x1440 144hz monitor zit op 30w.

40 series runnen cool omdat alle koelers heel erg overbuilt zijn. De 4080 ( Super ) heeft gewoon een 4090 koeler erop, no shit dat het goed koelt en stil blijft. Dit is overigens ook het geval met de XTX, zitten ook gewoon koelers op zo groot als de 4090, die runnen ook koel en stil, mijn XTX haalt de 3ghz en de fans draaien maar op 1500rpm op full load met case fans op 38% op full load, kaart blijft rond de 65C core en 85C hotspot met +15PL. ( heb zelf een Taichi White, de Nitro+ zal nog betere temps hebben door de vapor chamber. )

En het is bovendien ook super stabiel. Memtest86, alle OCCT tests, alle games die ik heb gespeeld tot nu, geen errors, geen crashes of dergelijke.

Maarja, dit is gewoon mijn ervaring tot nu toe, Wellicht dat dit veranderd in de toekomst, zeg dit niet allemaal om die van jou te verwaarlozen, maar ik zie dingen niet vanuit hetzelfde perspectief als u, maar zoals ik al zei, het gaat er uiteindelijk om of u er blij mee bent of niet, dat is het belangrijkste.

[Reactie gewijzigd door Vhxrsion op 22 juli 2024 16:52]

De 3090 is een van de weinige kaarten van Nvidia die ik niet direct zou adviseren. De FE editie is trouwens gewoon een heel goede kaart. Probleem bij de 3090 is het geheugen wat vaak erg heet wordt doordat er toen nog 24 chips op zaten van elk 1 gb en de helft niet door het koelblok werd gekoeld maar door de backplate.

Ook verbruiken ze enorm veel. De TI had het geheugen probleem niet meer maar verbruikte nog meer stroom.

Ik heb zelf ook de Asus tuf gaming OC RX7900Xt gehad, en hoewel die ook redelijk koel bleef, was bv de hotspot temp na een uur gamen 25 tot 30 graden meer dan de core door alle losse ccd's of hoe ze heten waar Nvidia een monolithische die gebruikt.

Dus de 7900Xt van mij werd redelijk warm, zeker de hotspot en ook de mem temp ging te hoog wat mij betreft.

Mijn huidige 4070TI S doet het zoveel beter op dat vlak niet te geloven! Ook is mijn asus tuf gaming RTX4070TI S zoveel stiller nog dan de al redelijk stille 7900XT ook hetzelfde model.

Maar als je naar DLSS en FG kijkt is daar gewoon een absolute zeer duidelijke winnaar en dat is Nvidia.
Mensen vinden het blijkbaar normaal dat een 800 of 1000€ AMD blurry fsr heeft met allerlei glitches.

Er zijn zat YouTube filmpjes waar je ze zij aan zij kan vergelijken en het verschil is dus enorm. Ook zijn er al games die standaard RT hebben die je niet kan uitzetten. Het wordt dan helemaal ellende met AMD want of je hebt amper frames of je hebt een blurry upscaling.

Met AMD speelde ik enkel native omdat ik gek werd van de matige kwaliteit van FSR. Als je veel geld betaald wat je doet voor zulke GPU's mag je toch zoveel mogelijk perfectie verwachten? Bij AMD vind ik dat je dat gewoon kan vergeten in de meeste gevallen.

AFMF is gewoon 1 grote grap...je moet eens zien hoe slecht dat wel niet is! Dat ze zo iets releasen begrijp ik niet...of ik doe het wel in een poging bij Nvidia te blijven. Maar het resultaat is gewoon onacceptabel. Kijk maar eens online hoe dat er uitziet |:( dat mensen daar überhaupt een vergelijking met Nvidia durven te maken gaat mijn pet echt te boven.
LoL als er zaken zoals RT worden afgedwongen koop ik op voorhand die rommel dus ECHT nooit.
En nee mensen ik ben helemaal niet kapot van RT net zomin als die vreselijke glimmende bagger.
Voor mij voorlopig geen nieuwe spellen want al die glimmende bagger maakt op mijn geen indruk.
Als ik aan het knallen ben op monsters irriteert glans mij mateloos, dus WEG met die bagger.
is Asus Tuf 7900 XT zo slecht? Verschillende reviews geven aan dat het een van de deftigste 7900 Xt's is. Hoewel goed hebben jou merken bv meer plastic, alleen sapphire heeft een goede variant maar die is pak duurder (+100€).
Ja, zit blijkbaar een design flaw in omdat het essentieel gewoon een recycled 4090 koeler is.
https://www.reddit.com/r/..._flaw_on_the_7900xtx_tuf/

Als je AMD koopt, koop je van een AMD partner, Sapphire, Asrock, XFX of Powercolor. Die zullen betere kwaliteit hebben, betere koeling, betere garantie en betere support. Die maken al jarenlang kaarten specifiek voor AMD en zullen in het algemeen een beter product leveren dan Nvidia partners.
Asrock moet nog oefenen 6950 xt kreeg veel kritiek en hoewel minder, gelijkaardige kritieken bij 7900 Xt. Powercolour heeft een heel goede budget versie, maar vind de looks maar niets ook te veel plastiek, Duurdere versies voelen het geld niet waard. Sapphire ok instap, die speciale koeler van hun die altijd meerkost heeft is wel goed. XFX lijkt goed, maar Merci 310 vs 309? neemgeving heel verwarrend, wat wat is, en wat je krijgt.

Asus TUF heeft als ik het goed gelezen heb Metalen koelers, is koeler dan bijna elke ander merk terwijl ook stil blijft, maar zowiso is de 'package' metaal. Het aantal negative reviews is ook beparkt, veel sites met 30-50 zonder noemenswaardig negatieve review.

Kzal nog eens kijken. Maar bv Power colour Hellhound meer plastiek en +30€. Sapphire Nitro + is enigse die ik echt vertrouw, maar design is veel te wit, en +120€. Asrock heeft maar 4 sterren (instapmodel), XFX Speedster MERC 310 AMD Radeon RX 7900 XT lijkt goed zowel qua design, als prijs. XFX heeft alleen nog 'black edition' maar die lijkt zelfde, misschien overklok model? Powercolour Red Devil lijkt goed en mooi alleen +380€ op dit moment. Niet simpel.

https://www.youtube.com/w...ab_channel=O%21Technology is waarom ik de TUF als favoriet had.

[Reactie gewijzigd door Matti7950 op 22 juli 2024 16:52]

"De Asus Tuf 7900 XT en XTX hebben een design flaw wat leidt tot hogere temperaturen."
Heb je toevallig een linkje hierover? Dat is nl het eerste dat ik hiervan hoor... (ben best wel tevreden met mijn Asus TUF 7900 XT tot nu toe)
https://www.reddit.com/r/..._flaw_on_the_7900xtx_tuf/

Zal waarschijnlijk niet zo zijn op meeste kaarten, maar deze dingen gebeuren simpelweg niet op AMD partner kaarten.
terwijl de RT7900XTX nu het goedkoopste voor 1065€ aangeboden wordt.
Dat is simpelweg niet waar? De XTX zit al lang onder de 1000 euro, ook toen je deze comment plaatste, zoals je kan zien in de pricewatch: dit model zit al sinds juni 2023 onder de 1000 euro.
Maar, waarom wordt er dan zo positief over geschreven?
'Met elk van de Super-varianten krijg je uiteindelijk net iets meer frames voor je geld, en daar kun je als pc-gamer alleen maar blij mee zijn'.
Nee, je kunt daar als gamer niet blij mee zijn, alleen de fabrikant is hier blij mee, want die kan langer de prijzen hoog houden. En, de media outlets lopen dit continu goed te praten. Erg, jammer allemaal.

[Reactie gewijzigd door EMR77 op 22 juli 2024 16:52]

Jammer dat er nooit op 1440 Ultrawide wordt getest..

Dit blijft voor mij namelijk altijd de vraag (als UW eigenaar) wat het voor mij betekent qua upgrade profiel.
Yariva Moderator internet & netwerken @Secsytime31 januari 2024 15:07
Is dit niet redelijk lineair te berekenen? Ik heb thuis een 3440x1440 resolutie en pak altijd het gemiddelde tussen 1440p en 4k. Komt goed genoeg overeen om zelf een conclusie uit te trekken. Ook zijn de ultrawide monitors helaas nog altijd een niche in vergelijking met 1080p, 1440p en 4k.
In de meeste testen is er liniair verband tussen pixels en prestatie vanuit 1080p naar 4k (als je 1440p als tussenstap pakt) en is het best aardig te bepalen hoe dat uit de verf komt. Mijn geval heb ik een 3840x1080 scherm (32:9) welke dus praktisch een halve 4k (in hoogte) is.

En de testen die ik heb gedraaid zit redelijk in het gebied van het gemiddelde tussen 4k en 1080, mits natuurlijk je niet tegen een keiharde bottleneck aanloopt.
Vind ik ook. UW word steeds meer mainstream, word tijd dat reviewers ook testen op 3440x1440.
2,23% in de December hardware survey van steam...
En ik weet dat daar vervuiling tussen zit, dat steam bv ook op de niet gaming laptop staat, maar toch. Qhd staat op 16,39% en uhd/4k op 3,77%.
Aan een kant zou je dus kunnen zeggen dat uwqhd bijna net zo veel voorkomt als 4k, maar ik zou zeggen dat het beiden eigenlijk nog een niche is. Maar 4k is de zwaarste van de twee en als je dan een niche wil pakken om te tonen hoe de kaart het doet als er meer vereist wordt dan zou ik voor de zwaardere optie gaan.

Edit: had verkeerde waarde voor 4k vermeld...

[Reactie gewijzigd door Finraziel op 22 juli 2024 16:52]

2,23 op steam lijst betekend niets, want dan kan nog steeds 70% betekenen van de tweakers gebruikers die die reviews bekijken en graag UW willen zien. En als je naar aanbod kijkt van UW monitoren is het raar dat ze in reviews niet vertegenwoordigd worden.

Daarnaast vraag ik me persoonlijk af hoeveel mensen UW wel serieus gaan overwegen als ze er eindelijk ook eens performance metrics over krijgen van betrouwbaardere bronnen dan dat ene neefje met een bias dat vind dat een grotere 16:9 monitor beter is dan een 21:9 monitor en die ook graag dat steam statistiekje gebruikt om mensen om hem heen UW af te raden. 4k heeft maar een enkel procent meer gebruikers, maar 4k reviews zijn er ook al een tijdje, of hadden we dat ook niet moeten doen vanwege een arbitrair getal? Bedenk je eens hoeveel race simmers en cockpit simmers graag UW gebruiken. Waarschijnlijk staat het aantal UW gebruikers, en multimonitor gebruikers wat dat betreft, een stuk hoger dan de standaard 1080p gebruikers bij simgames zoals assetto corsa en DCS om er maar 2 te noemen.

[Reactie gewijzigd door jackyallstar op 22 juli 2024 16:52]

Mee eens! Game zelf ook altijd op 3440x1440
Ook 3440x1440 hier. Volgens mij liggen de prestaties doorsnee 20% hoger dan bij 4K.
Bij dezelfde FOV heb je vaak alleen minder lucht en grond in beeld, dus op zich logisch dat het niet evenredig schaalt met het aantal beeldpunten.
Zelf ook 3440x1440, die resultaten liggen tussen 1440P en 4K in.
Ik gebruik een triple monitor setup (7680x1440) maar daar vind je helemaal nooit iets over.
1440 UW betekent zoveel mogelijk GPU power. De 4090 is eigenlijk de enige optie. Tenminste, als je max settings, 100+ fps wilt spelen. Speel zelf op 1440 UW met een 4090 en dat speelt lekker maar haalt bij lange na de max refreshrate van mijn 165hz scherm niet.
Is de efficiëntie (fps per watt) van de RX 7900 XTX zo verbeterd? Ik weet namelijk niet beter dan dat NVIDIA efficiënter is dan AMD en nu doet deze met de besten mee.
XTX zal iets meer verbruiken dan de 4080 ( Super ), 355w TDP vs 320w TDP.
Je moet elke generatie opnieuw kijken, want telkens awordt er en een nieuwe architectuur en een nieuw procede gebruikt. Deze generatie is de voorsprong van nvidia verwaarloosbaar.

[Reactie gewijzigd door kiang op 22 juli 2024 16:52]

@willemdemoor op pagina 17 in de grafiek "Temperatuur GPU (maximaal)" zijn onder de tab "Geluid 100% fan" zijn de twee kaarten ineens omgedraaid; op de drie andere tabs staat de Inno3D kaart als tweede. Hier kijk je (te) snel/makkelijk overheen als je even snel de resultaten wil vergelijken?
Ze staan op volgorde gerangschikt van best naar slechtst en in die grafiek is de Inno3D beter dan de FE. Ik kan de volgorde wel fixeren, maar dan kun je weer zeggen dat de volgorde verkeerd is, want dan staat de mindere kaart boven :) Ze zijn color coded zodat je altijd je 'kaart of interest' snel spot
volgens mij klopt er iets niet in de volgende tabel:
Cyberpunk 2077 - 1920x1080 - Ultra (DXR - Ultra)
hier presteert de 7900xt beter dan de 7900xtx
Ik kijk even of we het kunnen hertesten: komt er iets anders uit, update ik de grafiek (y)

edit: fixed, stuk logischer zo

[Reactie gewijzigd door willemdemoor op 22 juli 2024 16:52]

De hele 4000 super lijn is wat mij betreft teleurstellend. En juist onder de 400 euro waar het aanbod van Nvidia in price/performance dus al jaren nauwelijks verbeterd en waar zeker RT minder er toe doet is er dus niks!

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 16:52]

Yup. Als je kijkt naar price to performance moet je ook ( voorlopig ) naar AMD kijken, Nvidia kaarten zijn vaak op elke tier te duur en het word er niet beter op.

Je kan een 4070 Ti Super halen voor dezelfde prijs als een XTX, echt belachelijk.
Mja maar juist in dat duurder deel van de markt doet Raytracing er wel toe en dan zakken die AMD kaarten aardig door de mand. Onder de 400 biedt zowel Nvidia (te lage performance voor de prijs) als AMD (teveel stroomverbruik) nauwelijks iets om enthousiast over te worden.
RT is tochal een marketing gimmick. Zelfs een 4090 zal straks strugglen met RT, de 2080 Ti was de pioneer van RT maar doet dat al lang niet meer met een playable framerate. Het is een limited time feature.
Ik vind RT geen marketing gimmick. Omdat RT zo zwaar is, heeft Nvidia met de introductie daarvan ook DLSS geintroduceerd. DLSS zorgt ervoor dat je met een goede beeldkwaliteit (al weet ik dat niet iedereen dat vindt, dat is iets subjectiefs) met RT ingeschakeld speelbare framerates kunt behalen. Zelfs met een RTX 2060 Supoer heb ik spellen zoals Deliver us the moon, Shadow of the Tomb Raider - die intensief gebruik maken van RT - in combinatie met DLSS zeer goed kunnen spelen. Nu met een RTX 4090 kan ik zonder DLSS deze spellen vloeiend spelen. Huidige en toekomstige titels met RT zijn dan weer met DLSS goed speelbaar.
Dat denk ik niet. Avatar en straks de nieuwe star wars game hebben RT ingebakken in de engine zonder mogelijkheid om het uit te zetten. Zullen in de toekomst meer volgen. RT kan heel wat toevoegen indien goed geimplementeerd.
Eh. Het is niet volop RT, het include geen primary camera rays. Zelfs dan vind ik het nog steeds een gimmick ( voor nu ). Dus in principe is het nog gewoon raster met wat RT elementen.

De enige vorm van RT wat echt een impact maakt op visuals is PT, maar dat is weer haast onmogelijk om met een ok framerate te runnen nu met de huidige kaarten.

RT heeft zeker het potentieel, dat sowieso, maar voor nu is het nog voor mij tenminste een gimmick omdat hooguit 4 games goede RT implementatie hebben. CP2077 ( path tracing / RT overdrive ), AW2 ( path tracing ), Metro Exodus Enhanced Edition en misschien Control.
Het lijkt me op de topmodellen toch echt meer dan wat marketing. Maar goed het duurt nog wel een tijd voordat ik er ooit mee zal spelen gezien het povere aanbod onder de 400 euro. Maar ach... een 1660 Super voldoet ook nog wel hoor. Je kunt eigenlijk alles wel als marketing gimmick beschouwen als je gauw tevreden bent :) Zeker de synthetische benchmarks overdrijven verschillen nog al eens. Maar tja er zijn natuurlijk altijd mensen die niet kunnen slapen als ze iets niet minstens 1fps meer dan hun buurman kunnen draaien.
De reden daarvoor is omdat het "reserved" is voor de top end kaarten alleen, anders run je het of amper of niet. En er zijn hooguit 4 games waar RT ook echt een verschil maakt.

Het heeft de potentie, maar daarvoor moet het eerst meer accessible zijn, en als tweede moet RT ook goed geimplementeerd zijn in meer games.
Hebben gelukkig frame generation mode werken aardig goed heeft mij 3060 weer aardig gered Bedankt AMD en de modders
Ik heb zelf een 3090 FE. Hoewel ik graag naar een 4090 FE zou willen gaan vanwege het geheugen denk ik dat een 4080 S FE voor mij de beste keuze is nu. Mijn 3090 FE gebruikt ongeveer 360W op 100% power (gaat dik over de 400W op 120%), terwijl deze 320W zou gebruiken op 100% en daarbij gemiddeld genomen ook nog 40 tot 50% sneller is!

Qua snelheid en geheugensnelheid ga ik er dik op vooruit, alleen het VRAM is wellicht een issue net zoals de verkrijgbaarheid.
Waarom zou je nu upgraden als je nog een 3090 hebt? Waarschijnlijk komt de 5000 generatie eind dit jaar uit.
En het jaar daarop komt de 5000 Ti / Super etc weer uit. Ik zou nu upgraden omdat het voor mij meerwaarde heeft (triple screen setups op 1440p die nog geen 50-60fps halen). Dat zou met een upgrade al naar de 75-90 gaan wat een aanzienlijke upgrade is voor mij.
Ik weet niet of het jaar daarop de 5000 Ti / Super uitkomt. De 4000 series kwam in 2022 uit, dat is alweer een tijd geleden. En vaak zijn de verschillen tussen generaties groter dan de SUPER varianten. Maar doe vooral wat voor jou uitkomt :)
Een jaar is lang als je de capaciteit nodig begint te hebben haha..
Wellicht ook handig te vermelden dat Avatar: Frontiers of Pandora raytracing heeft die niet uit te schakelen is? AMD is hier sowieso de mindere.
Werkelijk? Het is in zoverre interessant dat het laat zien dat de ontwikkelaars ofwel idioten zijn, ofwel zwaar gesponsord zijn door Nvidia. Allebei is natuurlijk ook mogelijk…
Daar zou ik wat dat betreft met een grote bood omheen lopen. Op de consoles gaat dat sowieso denkelijk te zwaar zijn. Ik krijg hier een Crysis gevoel bij…

[Reactie gewijzigd door batteries4ever op 22 juli 2024 16:52]

Avatar: Frontiers of Pandora is niet door Nvidia, maar door AMD gesponsord. En hun nieuwe RX 7000 kaarten blijven slechts iets achter op de concurrerende modellen van Nvidia. Dat doen ze best goed hoor.

Op dit item kan niet meer gereageerd worden.