Door Reinoud Dik

Redacteur

AMD Radeon RX 6950 XT Round-up

Vijf razendsnelle Radeons vergeleken

17-06-2022 • 06:01

98

Singlepage-opmaak

Conclusie

De vier Radeon RX 6950 XT-customvideokaarten die de boardpartners voor deze round-up hebben opgestuurd, zijn onderscheidend ten opzichte van de referentiekaart. Allereerst springen de forse afmetingen in het oog, die AMD's eigen model compact doen lijken. Die extra ruimte gebruikt elke fabrikant om met een grotere koeler een lagere temperatuur te behalen, maar de daaruit voortkomende geluidsproductie loopt uiteen, net als het vermogen dat de kaarten onder volle belasting opnemen.

In de koelerefficiëntie zien we tussen de custommodellen minder grote verschillen dan op basis van het energiegebruik wellicht verwacht wordt. De Sapphire Nitro+ Radeon RX 6950 XT Pure en Gigabyte Radeon RX 6950 XT Gaming OC zijn daarin aan elkaar gewaagd en net iets efficiënter dan de concurrentie. Sapphire heeft zijn model afgesteld om de geluidsproductie tot een minimum te beperken, waarbij de temperatuur net iets verder oploopt dan op Gigabyte's Gaming OC die net iets beter hoorbaar is.

De ASRock Radeon RX 6950 XT OC Formula en MSI Radeon RX 6950 XT Gaming X Trio zitten wat koelerefficiëntie betreft net niet op het niveau van Sapphire en Gigabyte, maar de kaarten zitten er dicht tegenaan. Bij MSI zorgt het ontbreken van een bios-switch ervoor dat we in de geluidstest geen stillere modus kunnen draaien. Omdat de Gaming X Trio tijdens belasting luidruchtiger is dan de referentiekaart, is dat geen gunstige besparing van MSI geweest. Bij ASRock blijkt de bios-switch voor de gemiddelde gebruiker juist niet zo nuttig te zijn, omdat de kaart in Quiet Mode veel stiller is zonder een noemenswaardig verschil in temperatuur ten opzichte van Performance Mode. Ook is het energiegebruik in deze modus met 336 watt vriendelijker voor de portemonnee en het klimaat.

Op basis van de koelprestaties en geluidsproductie heeft de Sapphire Nitro+ Pure onze eerste voorkeur, maar de beperkte verkrijgbaarheid en daardoor onvoorspelbare prijzen gooien roet in het eten. Gelukkig komen de lager geprijsde en beter verkrijgbare Gigabyte en ASRock erg in de buurt, met een hoge koelerefficiëntie dankzij de vaporchamber als voordeel voor de Gaming OC en een relatief laag standaardverbruik en eveneens lage geluidsproductie op Quiet Mode als plussen voor de OC Formula. Beide kaarten voorzien we daarom van een Excellent-award.

Reacties (98)

98
95
44
6
0
47
Wijzig sortering
Ik vind het persoonlijk jammer dat AMD geen referentiekaarten bij launch naar reviewers heeft gestuurd. Hierdoor waren 95% van de 1e meningen gebaseerd op het MSI gaming X model wat als enige verkrijgbaar was. Dit terwijl deze kaart een gigantisch veel hoger verbruik heeft, wat naar mijns inzien geen representatief beeld gaf van de efficientie van de RX6950XT.

Zelf heb ik momenteel een waterblok op een referentie AMD geplaatst. Wanneer ik het vermogen instel op 340 watt is deze kaart even snel als de MSI in Unigine Superposition. Alleen verbruikt hij 100W minder dan de MSI...
Ik mis een beetje de raytracing prestaties in de benchmarks.

Niet dat het uitmaakt met deze idiote prijzen, maar ik wil wel weten hoe goed AMD NVidia aan het bijhouden is.
Zijn terug te vinden in het algemene review van de 6950 XT.

Valt helaas een beetje tegen. De 6950 XT delft het onderspit ten opzichte van de reguliere RTX 3080.

Zoals ik hieronder al schreef vind ik persoonlijk dat je in dit segment en voor dit soort prijzen toch wel moet kunnen genieten van dergelijke extra effecten.

Het zou gaaf zijn als amd het gat met nvidia wat dicht gaat lopen. Ik zou graag de keuze hebben om mijn 3080 te vervangen met een 4080 óf een amd kaart.

[Reactie gewijzigd door DLSS op 22 juli 2024 15:23]

Omdat AMD deze generatie pas is ingestapt op hardware accelerated raytracing zijn ze simpelweg nog niet zo goed. Ze zijn nu ongeveer vergelijkbaar met de 1e generatie RT cores op de NVIDIA 2000 serie.

Nvidia heeft helaas gewoon 1 generatie (+- 2 jaar) voorsprong in hardware accelerated raytracing. Ik denk dat het niet simpel is voor AMD om dit gat snel dicht te lopen

[Reactie gewijzigd door A_Trouwborst op 22 juli 2024 15:23]

Omdat AMD deze generatie pas is ingestapt op hardware accelerated raytracing zijn ze simpelweg nog niet zo goed. Ze zijn nu ongeveer vergelijkbaar met de 1e generatie Tensor cores op de NVIDIA 2000 serie
Ik neem aan dat je bedoelt de RTX raytracing cores? De tensor cores worden niet gebruikt voor raytracing (wel voor DLSS en ML toepassingen).
Sure, ik zal het gelijk aanpassen ! thx :)
Mja ondanks dat jouw reactie natuurlijk correct is, helpen de tensor cores natuurlijk wel mee

Als je €1.400 gaat dumpen in een GPU is het natuurlijk wel de vraag of je jouw games plant te spelen met raytacing aan of niet en of dit op jouw resolutie wel of niet voldoende fps oplevert of niet

Vaak zijn vergelijkingen momenteel niet helemaal relevant omdat beide merken andere voordelen bieden per use case en prijssegment

Idem is het momenteel ook een persoonlijke afweging of je bv 10, 12, 16 of zelfs 24 GB VRAM 'nodig' hebt
Ik denk als je een poll plaatst RT On or Off, je nog verbaasd zou kunnen zijn over de uitkomst.
Als je bedoelt dat weinig mensen RT hebben aangezet: is dat niet logisch aangezien de meeste GPU's binnen hun budget dan veel te traag worden?
Maar ik heb het hier over mensen die wél 1200+ uitgeven. Dan is raytracing echt niet te veel gevraagd vind ik.

Weet overigens niet hoe hoog het percentage is dat het graag aan zet, maar ik denk dat dat hoger is in dit segment. Al gok ik dat die mensen hoofdzakelijk Nvidia kopen deze generatie.
Een spel moet het ook ondersteunen, he. Nu zullen mensen die >1000 euro aan een kaart uitgeven ook wel vrij nieuwe spelletjes spelen... Geen 2007 games en indie games ofzo, zoals ik persoonlijk :D
Hangt er vanaf van welk type gamer je bent of je dit al of niet nuttig vindt.
Het had idd wel in de test gemogen.

[Reactie gewijzigd door d3x op 22 juli 2024 15:23]

Dat is waar. Maar het zou beiden gewoon moeten kunnen. Hoge fps én max settings voor de gamers die graag maximal sfeer willen in hun singleplayer games.

Dat is niet te veel gevraagd voor 1300 euro vind. Persoonlijk ben ik daarom voor een 3080 gegaan. (Al vind ik wel dat de 6950 XT het erg goed doet tegenover de 3090 op andere vlakken.)
Is dus je eigen keuze omdat je RT belangrijk acht, ik heb al 1jaar dus 2 * 6800XT omdat deze de beste algemene perf/power/msrp prijs heeft voor standaard 1440p in deze generatie.
Dat is het mooie, als de kaart beiden kan hoef je dus niet te kiezen tussen het een of het ander.
maar we weten allemaal dat 3000 serie het nog niet kan zonder al te veel perf verlies (nogmaals afh van game en settings) dus geen echte optie.

Als ik zeg 1440p dan verwacht ik dus ook min 144fsp of hoger in volledig sync met refresh rate van monitor...
Zonder DLSS wordt het vaak lastig inderdaad.
en DLSS is wederom een oplossing bovenop een andere oplossing om FPS te winnen met lagere schaling en voor specifieke games only... eindeloos straatje. Daarom dus mijn antwoord native performance :)
Je hebt natuurlijk minder consessies nodig met een 30xx kaart dan bij de huidige generatie AMD kaarten

Maar goed zelfs Nvidia geeft te weinig voor deze bedragen vind ik. Hopelijk zijn prijzen beter de volgende generatie en hopelijk levert amd iets dan kan concureren met de Nvidia kaarten als heet gaat om gamen met alle toeters en bellen aan. (Voor de mensen die gewoon genieten van alle toeters en bellen zoals ikzelf)
Voor snelle shooters heeft het weinig nut en laat je pc alleen maar onnodig zwaar stampen....
Ligt er aan of je multiplayer speelt of singleplayer. Bij dat laatste wil ik zoveel mogelijk alle sfeerverhogende effecten aan hebben. RT werkt enorm immersion- en sfeerverhogend voor mij met de invloed op licht, schaduw en reflecties.

Iedereen geniet natuurlijk anders van games. Maar voor mij is dat de reden waarom ik voor een dure kaart ga.
Voornamelijk online gaming, dan heb je al die pracht niet nodig. Je hebt toch weinig tijd om rond te kijken...

Offline is weer een ander verhaal...

Iedereen is vrij om te kopen wat hij/zij wil...

[Reactie gewijzigd door Tourmaline op 22 juli 2024 15:23]

Als je het type gamer bent dat meer dan 1K aan een GPU gaat uitgeven dan verwacht ik wel een beetje dat je alles met alle toeters en bellen (incl. raytracing) wilt kunnen spelen, anders was je niet in dat prijssegment aan het kijken. Mee eens dat het dus een mooie toevoeging aan het artikel was geweest.
Meer dan 1K voor een high end gpu lijkt misschien voor velen onder ons inmiddels gewoon maar dat is het niet.
De markt is door crypto en covid ernstig uit balans gebracht en met als toppunt van schijt aan de gamers hebben gpu's uitbrengen zonder hdmi of dp aansluiting zodat ze geen 2e leven buiten crypto om kunnen hebben.
Is het technisch eigenlijk mogelijk om zo'n crypto-kaart zonder videoaansluiting te gebruiken als 2e kaart om je grafische performance te boosten? Nu crypto minen dood lijkt te zijn, komen er veel van dat soort (verder nutteloze) kaarten op de markt... Zou mooi zijn als je die toch nuttig kunt gebruiken?
Heb er 1 in me bezit waar ik misschien een mooi project mee kan starten.
Linus heeft een 1060 aan de gang gekregen via hdmi van het bord en drivers van een modder.
Een kilo is ook een kg. Daarom is context zo belangrijk.

Protip: zeik niet zo :+

[Reactie gewijzigd door Vayra op 22 juli 2024 15:23]

Als we zoals elke Nederlander één op één alle amerikanismen gaan overnemen wordt het hier een schone boel, dus ik ga zeker níét stoppen met hierover te zeiken.

SI heeft kilo gedefinieerd, SI zegt dat het een kleine k moet zijn, de rest moet het correct gebruiken, of anders.
Ik zie cyberpunk en 3D mark, geen ray tracing inzicht zoals bijvoorbeeld blender geeft.

[Reactie gewijzigd door djwice op 22 juli 2024 15:23]

Excuses, ik dacht dat het bij Bas.Bas.Bas om performance in games ging.

[Reactie gewijzigd door DLSS op 22 juli 2024 15:23]

De aankomende 7000 serie van AMD belooft veel verbetering wat betreft raytracing. Ik zie factoren van 2.5x voorbijkomen. Maar het is de vraag hoeveel daarvan door schaalvergroting komt en hoeveel nou echt verbetering is in de architectuur.
Een ding is zeker, de RX6950XT is geen refresh benoeming waardig. Het is simpelweg een chip uit de betere bin (XTXH waarschijnlijk) met een iets hoger geklokt geheugen en meer powerbudget.
Wat dat betreft heeft AMD eigenlijk net zoiets gedaan als Intel met haar 'KS' cpu's

De meeste RX6900XT hebben genoeg reserve om op het niveau van een stock RX6950XT te werken.
Het is verstandiger om gewoon te wachten tot eind dit jaar.
De huidige cryptocrash zorgt ervoor dat de videokaarten eindelijk goed beschikbaar worden en de prijzen daarvan normaliseren.
Als die geruchten over de 7000 serie kloppen zou dat wel geweldig zijn. Ik zet wat geld opzij voor een eventuele upgrade naar een RX 7000 of RTX 4000 voor het geval ze een significante boost in performance laten zien.
AMD verliest het inderdaad met RT in veel gevallen. Met name in de spellen die uit zijn gekomen voordat AMD ook RT hardware had; die zijn veel meer geoptimaliseerd voor Nvidia hardware.

In nieuwere titels is het verschil een stuk kleiner. Zie ook de review van TechPowerup:
https://www.techpowerup.com/review/sapphire-radeon-rx-6950-xt-nitro-pure/33.html

Daarnaast blijft het wel overduidelijk dat AMD het op hogere resoluties verliest doordat ze minder geheugenbandbreedte hebben en de infinity cache niet voldoende is in die gevallen.
Prijzen blijven ind hoog, maar als je het vergelijkt met de RTX 3090 Ti (pure prestaties zonder raytracing) ben je € 700 - 800 goedkoper uit :o
Dat vind ik nogal...
Als ik op 1440p of 4k zou gamen ging ik voor deze :P
Bij 1440p heb je meestal wel genoeg aan een RX 6750 XT voor 650 euro.
@Trygve Deze test https://opendata.blender.org/ zou een goede indruk moeten geven.

[Reactie gewijzigd door djwice op 22 juli 2024 15:23]

DLSS wordt wel weggelaten in deze review. Op Quality mode geeft dat een vergelijkbaar beeld als native. Daar kan FSR niet aan tippen en FSR 2.0 is er nog niet en komt waarschijnlijk niet in de oude games. Met sponsoring zou het ook geblokkeerd kunnen worden in nieuwe games. Zoals AMD in Far Cry 6 DLSS heeft geblokkeerd, maar dan van Nvidia's kant.

DLSS op quality mode levert ruwweg 50% meer frames op. In Cyberpunk 65%. Dat is een flink snelheidsverschil.
Op zich ben ik het wel met je eens, maar om een eerlijke review te maken moet je geen appels met peren vergelijken. Dus je zou native vs native, FSR2 vs FSR2 en FSR2 vs DLSS2 moeten doen. Dus dat betekent dat je elke AMD kaart 2x moet testen ( native en met FSR2 ) en elke NVIDIA kaart 3x ( native, met FSR2 en met DLSS2 ) voor een eerlijke vergelijking. Dat is best een hoop werk, en bovendien; de enige games (AFAIK) die zowel FSR2 als DLSS2 ondersteunen zijn Deathloop, Farming Simulator en God Of War, en die zijn helaas geen van allen meegenomen in deze review. Dus dat is wel een beetje jammer.

Het doel van een (goede) review is niet alleen te laten zien hoe goed een kaart presteert in een bepaalde game, maar vooral ook hoe de verhoudingen liggen met andere kaarten en wat je zou kunnen verwachten in andere games ( verleden, heden en toekomst ) in verschillende situaties. Je bent tenslotte de kaart aan het reviewen, niet de game. Zoals je zelf al zegt ondersteunen sommige games alleen DLSS2, sommige alleen FSR2, sommige beiden of misschien zelfs geen van beiden. Ik weet dat dit alles niet 100% lineair schaalt, maar als je van de geteste game(s) alle 5 scores hebt kun je in ieder geval een betere inschatting maken dan wanneer je al begint met een scheve vergelijking. Dus gezien de geteste games vind ik het persoonlijk niet vreemd dat ze DLSS niet hebben meegenomen. Maar ik vind het wél vreemd ( tot bijna onacceptabel ) dat ze niet een game hebben meegenomen die beiden ondersteunt zodat we de verschillen kunnen zien.
Maar dat zou dan meer iets zijn voor de algemene review van de RX 6950 XT-gpu zijn, toch? Of is er een reden dat je verwacht dat de RX 6950 XT van bv. Gigabyte meer baat heeft bij FSR dan die van bv. ASRock?
Ik denk dat dat een beetje samenhangt; wat is het nut van een vergelijkende review als deze als we al de review van de referentiekaart hebben ? Deze custom kaarten zijn getuned, hebben andere kloksnelheden. Dat is ook de reden dat er in deze vergelijkende review een hele pagina is gewijd aan "prestaties". Ook al weten we reeds hoe de prestaties zijn van de referentiekaart, is het blijkbaar toch relevant om de ( minieme ? ) verschillen te zien met deze custom kaarten. En dat zal dan ook gelden voor eventuele verschillen met temporal upscaling ingeshakeld. Als je het niet test / reviewt dan blijft het gissen.
Dat is dan eerder een argument om juist minder prestatietests te doen in dit soort round-ups, dan er meer toe te voegen. Doorgaans verschillen de prestaties van videokaarten gebaseerd op dezelfde gpu maar weinig. Juist de koeling, geluidsproductie en eventuele extra features zijn waar de fabrikanten het verschil kunnen maken.

Overigens draaien we in deze round-up al bewust andere prestatietests dan in de 'launch' review van de gpu. Dit zijn duurtests met focus op hoe goed de kaart blijft presteren tijdens een gamesessie, en een slechte koeler (of vrm, of afstelling) kan dan roet in het eten gooien. En het zijn er ook bewust een heel stuk minder (zowel aantal games als resoluties/settings) :)
Vroeger was het denk ik meer relevant toen custom kaarten nog echt significante perfomancewinst konden behalen t.o.v. de referentiekaarten.
En of je nu meer of minder performancetests wilt hebben in een review / roundup, de discussie in dit draadje is dat ALS je perfomancetests doet en daar upscaling in meeneemt, dat IK van mening ben dat je zowel native als upscaling resultaten moet weergeven om een zo eerlijk mogelijk beeld te vormen.
Dit omdat DLSS / FSR ook achteraf nog aan een game kan worden toegevoegd. En als dat gebeurd, dan kun je op basis van een review met native en upscaled scores een vrij nauwkeurige voorspelling doen.

Stel, je hebt een Radeon RX 6666 (fictieve kaart) en een game is volgens de review nauwelijks speelbaar op native met die kaart. Als er in dezelfde review een GeForce RTX 3456 (wederom fictieve kaart) staat die native bijna dezelfde score heeft als jouw RX 6666 maar met DLSS een goed speelbaar resultaat oplevert, dan kun je er redelijk zeker van zijn dat als die game achteraf ondersteuning voor FSR toevoegt dat het dan ook voor jou speelbaar zal zijn. Terwijl je die inschatting veel moeilijker kan maken als er voor de RTX 3456 alleen maar de DLSS score wordt gepubliceerd.
Misschien vind je dit leuk: Digital Foundry heeft in een zeer uitgebreide aflevering FSR 2.0 en DLSS met elkaar vergeleken.

FSR 2.0 schiet nog ruimschoots tekort maar AMD heeft grote steppen gemaakt ten opzichte van FSR 1.0
Thanks ! Ik zal die zo eens uitgebreid gaan bekijken.
Andere vergelijkingen die ik had gezien gaven aan dat FSR 2.0 al heel dicht bij DLSS 2.x zat, dus ik ben benieuwd wat DF voor manco's heeft gevonden.
De video is echt een aanrader. Het zit visueel nog niet dicht bij elkaar. Op het vlak van performance is het verschil kleiner.
AMD verliest het nog steeds op lage resoluties; op de hogere zijn ze nagenoeg gelijk. Digital Foundry heeft vaak een net iets te groene bril. Ze laten weg dat ook DLSS last heeft van ghosting.

HardwareUnboxed stipt deze punten wel aan en ik vind hun review objectiever:
Review van Hardware Unboxed.
Prima review inderdaad.

Ik vind echt helemaal niet dat DF een groene bril draagt overigens. Bij DF keken ze naar een andere game en gebruikten ze een nieuwere versie van DLSS. Je kan toch gewoon met eigen ogen, zeer goed, het verschil zien?

De side by sides laten een heel erg duidelijk verschil in kwaliteit zien. FSR 2.0 loopt (momenteel) nog fors achter op het gebied van image quality.

(P.S. ghosting is trouwens niet of nauwelijks aan de orde met deze versie van DLSS in God of War.)


Maar goed er zijn in elk geval wel flinke stappen gezet door AMD. Ik volg het op de voet en kan niet wachten op FSR 3.0. Het verschil zal ongetwijfeld kleiner worden.

[Reactie gewijzigd door DLSS op 22 juli 2024 15:23]

Ah ik dacht dat dit Deathloop was. Daar misten ze de punten waar DLSS last van ghosting heeft en FSR 2 niet of minder; die zijn dan wel gevonden door HardwareUnboxed.

Je hebt gelijk dat DLSS het in God of War met dat water een stuk beter doet. Hoewel het water met FSR 2 op afstand juist natuurlijker lijkt door de blur; de artifacts rond het wapen zijn echt lelijk. Ik kijk de rest van de video als ik tijd heb.

DF leunt wat mij betreft altijd richting Nvidia, ik heb nog enkele review of analyse gezien waar dat niet zo is. Het verschilt wel per persoon, ik vind Alex over het algemeen het meest neutraal.
Het komt gewoon naar boven in de manier hoe ze over de hard en software praten. Ze hebben objectieve kritiek op AMD; maar ze hebben niet vaak kritiek op Nvidia (terwijl er echt wel punten zijn waarop Nvidia ook kan verbeteren imho).

GamersNexus, HardwareUnboxed, Anandtech en TPU vind ik toch objectiever. Ze geven zowel AMD als Nvidia er langs en benoemen alle punten.

Maar goed, dit is mijn mening en laat niet weg dat DF interessante content maakt.
Wat je zegt, ik hoop op inderdaad een FSR 2.1 of 3.0 die nog beter is, want er zijn genoeg verbeterpunten, met name op de lagere resoluties.
Ik heb die deathloop video van DF niet gezien. Erg jammer als ze daar steken hebben laten vallen :| . Over het algemeen vind ik de videos van DF erg uitgebreid en van zeer hoge kwaliteit.

Deze is in elk geval objectief en zeer de moeite waard haha.

Het is een aanrader om af te kijken, die Alex gaat veel verschillende facetten van AI upscaling af. Heel erg leuk als dergelijke technieken je interesseren.
Je hoeft niet FSR 2 met DLSS 2 te vergelijken, want FSR 2 wordt in bijna geen enkel spel ondersteund. Leuk voor een eventueel toekomstbeeld, maar er is geen garantie voor support.

Wat er wel is zijn veel big budget games die DLSS 2 ondersteunen. Daarom vind ik dat voor Nvidia kaarten zowel de native als DLSS 2 Quality score in de benchmark moet staan. Naast de native score van AMD.

Want dat is het huidige speelveld. Het is het resultaat van 3,5 jaar DLSS ten opzichte van 1 jaar FSR. En misschien ook de support vanuit Nvidia om DLSS te implementeren.

DLSS 1 en FSR 1 kunnen trouwens worden weggelaten want die liggen te ver van de native resolutie.
Je hoeft niet FSR 2 met DLSS 2 te vergelijken, want FSR 2 wordt in bijna geen enkel spel ondersteund.
FSR 2.0 is net een maand uit. DLSS 2.0 is ruim 2 jaar uit. Logisch dat die een voorsprong hebben.
Met die redenatie kun je ook zeggen "je hoeft überhaupt geen AMD GPUs te reviewen, ze hebben toch minder dan 15% marktaandeel". Zo komt er nooit verbetering in de situatie.
Maar FSR zal groeien en om een vergelijkingsbasis op te bouwen moet je niet pas beginnen met het meenemen in reviews als het aantal ondersteunde games een arbitraire grens bereikt heeft want dan ben je te laat.
FSR 2 is er en blijft er, want ik zie AMD niet snel de handdoek in de ring gooien wat betreft upscaling. Ze weten dat ze door moeten. Juist om meer marktaandeel te veroveren. AMD zal nooit DLSS krijgen, dus als upscaling een must wordt (voor zover dat niet al het geval is) dan MOET AMD iets hebben omdat ze anders nooit meer met NVIDIA mee kunnen komen. En dat is slecht voor ons als consumenten. Dus FSR is relevant. Nu al.
Wat er wel is zijn veel big budget games die DLSS 2 ondersteunen. Daarom vind ik dat voor Nvidia kaarten zowel de native als DLSS 2 Quality score in de benchmark moet staan. Naast de native score van AMD.

Want dat is het huidige speelveld. Het is het resultaat van 3,5 jaar DLSS ten opzichte van 1 jaar FSR. En misschien ook de support vanuit Nvidia om DLSS te implementeren.

DLSS 1 en FSR 1 kunnen trouwens worden weggelaten want die liggen te ver van de native resolutie.
Je zegt dat DLSS 1 en FSR 1 weggelaten kunnen worden ( waar ik het overigens volledig mee eens ben ) maar je gaat wel uit van de releasedates van de 1.0 versies. Wees dan eerlijk en zeg 2 jaar DLSS en 1 maand FSR.

Ik snap denk ik wel wat je bedoelt, maar ik ben het er niet helemaal mee eens.
Games weglaten die DLSS en FSR beiden niet aanbieden is ook niet echt representatief vind ik. Het hangt sterk af van of je bepaalde games wel of niet speelt. In een Cyberpunk 2077 of Escape from Tarkov is DLSS echt een must om het op hoge resoluties wat vooruit te laten gaan. Ik vind mijn RTX3080 al maar net voldoende om op 3840x1600 in ultrawide te spelen ( nog niet eens 4K ). Je settings wat lager zetten hoor ik dan, welja, geen optie vind ik met een topmodel grafische kaart ).
Stel je voor dat je dan een Radeon koopt op basis van deze review ( waarin de RX69050XT mooie resultaten lijkt te halen ) , dan gaan er een paar serieus teleurgesteld zijn. Op zich klopt de review wel, maar dan wel met een dikke vette note dat als je games/resoluties speelt die DLSS echt nodig hebben, dat je dan aan de huidige AMD's echt niet veel gaat hebben.
Games weglaten die DLSS en FSR beiden niet aanbieden is ook niet echt representatief vind ik.
Oh nee, maar dat bedoel ik ook niet. Ik bedoel dat ALS je upscaling meeneemt in je review dan moet je minstens 1 titel hebben waar je 1-op-1 kan vergelijken.
En voor de rest van de ( DLSS ) titels moet je zowel de score met als zonder DLSS vermelden, zodat je de impact van DLSS duidelijk kan zien. Voor FSR geldt dat dat op zowel AMD als NVIDIA kaarten zou moeten werken, dus dan kun je voor die games kiezen voor òf AMD en NVIDIA met FSR aan, òf AMD en NVIDIA met FSR uit, of alle scores voor alle kaarten met zowel FSR aan als uit.

Zolang er maar geen scheve vergelijking gemaakt wordt door bij DLSS titels alleen de NVIDIA score MET DLSS weer te geven.
DLSS wordt wel weggelaten in deze review.
Wellicht omdat het geen review, maar een radeon RX 6950 XT roundup is. Dlss is hier dus gewoon niet relevant.
Snap niet zo waarom iedereen zo graag raytracing wilt. Ik zie het echt als een gimmick die de performance halveert voor een paar realistisch weerkaatsing die je vaak niet eens opmerkt.

Ik ben juist voor AMD gegaan omdat ik geen raytracing wil gebruiken en totaal geen behoefte heb aan de functie
Ik snap die raytracing hype ook niet, ja het is mooi om ingame de zon te zien schijnen, maar dat was het dan ook wel.
AMD geeft toch meer bang for the buck, om oa die reden ook overgestapt op kamp rood, en het bevalt prima :)
Er bestaat echt een breed scala aan raytracing en aan raytracing gerelateerde settings in games hoor.

Maar goed als max settings je niet veel uit maakt is amd in veel gevallen inderdaad betere keuze denk ik.

(Al blijf ik van mening dat een kaart vsn 1300 euro gewoon max settings moet kunnen draaien met de meest geavanceerde effecten in de nieuwste games zonder mitsen en maaren...)
Ik deel die mening, op dit moment zijn die prijzen ook nog steeds belachelijk hoog, laten we hopen dat het weer beter word, misschien dat door de (waarschijnlijk) komende recessie de prijzen gaan dalen, dat word afwachten....
Want het is natuurlijk mooi als de prijzen flink dalen, maar als je dan daardoor zonder werk komt te zitten heeft het geen zin :|
Eens. De prijzen zijn buitensporig.

Denk trouwens niet dat we snel een hoge werkloosheid zullen krijgen gelukkig. Het lijkt er wel op dat crypto mining minder profitable begint te worden... Dat zal nog wel eens een slok op een borrel kunnen gaan schelen mbt gpu prijzen voor de volgende generatie kaarten.
Deze maand een 6900XT aangeschaft voor 850,- (2e hands)
De reden waarom ik dat nu heb gedaan is omdat ik alweer meldingen zie van een nieuwe Corona golf.
Ik kreeg meteen flashbacks naar vorig jaar waarin dus ook chiptekorten zijn ontstaan door gevolgen van Corona. Ik heb dus al een jaar gewacht met de upgrade, ik denk dat dit een goed moment is.
Slim van je idd. Ik had een 3080 gepreorderd voor €730 oid. Kaart is nooit geleverd. Uiteindelijk heb ik €1260 moeten neerleggen. Een absurd bedrag maar er was geen zicht op beter.

Het heeft uiteindelijk ook bijna een jaar gekost voordat prijzen een beetje verder zijn gaan dalen

[Reactie gewijzigd door DLSS op 22 juli 2024 15:23]

Elke generatie heeft een achilleshiel kwa setting. Naar mijn idee kan je met dit soort kaarten prima max settings draaien. Alleen is raytracing hier die achilleshiel. Dan kan je kiezen om alle settings op ultra te gooien @4k, raytracing uit en +100fps halen. Of je kiest voor raytracing aan en zakt ergens in de 40fps. De performance hit van raytracing is gewoon nog veel te zwaar. Het is mooi, dat zeker. Maar het is niet zoveel frames waard zou ik persoonlijk zeggen. Ik vond de evolutie van anti aliasing veel belangrijker destijds. Ik weet nog dat 10-15 jaar geleden het aanzetten van de AA setting in een game je hele performance onderuit haalde. Nu is dat niet meer zo, als je het al nodig hebt met die extreem hoge resoluties tov vroeger.
Euh, SSAA is bvb natuurlijk exact hetzelfde als de resolutie omhoog gooien :)
Heeft, zoals je zelf aangeeft, nog steeds een hoge impact op de framerate.

De combinatie van steeds beter wordende upscaling en ray-tracing is duidelijk de richting die we uitgaan.
AI upscaling/invulling zal alleen maar beter worden zodat er effectief minder pixels echt gerenderd moeten worden wat meer ruimte laat voor ray-tracing.

Dus "gereduceerd" renderen + AI invulling, in een lagere resolutie + AI upscaling is de nabije toekomst volgens mij.
Ja maar reguliere AA niet meer. Ik weet ff niet meer wat de naam ervan is. Maar ik weet dat sinds de 1080TI het aanzetten van AA slechts een 5 tot 10% performance hit gaf, waar dat eerder 30 tot 40% was. Alle "betere" varianten van AA kosten inderdaad nog steeds meer rekenkracht. Maar laten we wel wezen, als je al gamed op 1440p of 4k zelfs, is de simpele variant echt zat. Alles daarboven staat niet in verhouding tot de hoeveelheid extra pracht en praal.

En eens dat het nieuwe upscalen de way to go is. Ben daar zelf erg enthousiast over. Raytracing "ultra" vind ik zelf ook mooi. Maar bijvoorbeeld in Spiderman Miles Morales voor de PS5 zag je dat ze op een gegeven moment een 1440p mode inclusief raytracing hebben geimplementeerd, die weer minder was dan de raytracing op quality mode. Dus we hebben nog wel een slag te slaan.
(Al blijf ik van mening dat een kaart vsn 1300 euro gewoon max settings moet kunnen draaien met de meest geavanceerde effecten in de nieuwste games zonder mitsen en maaren...)
Welke kaart kan volgens jouw dan wel max settings aan met acceptable framerates?
Want zelf bij Nvidia moet je de settings vaak naar beneden halen of terug vallen op technieken als DLSS om acceptabele framerrates te krijgen met Max Settings + Raytracing

Raytracing vind ik een mooie techniek, maar tot nu toe vind ik het effect niet goed en duidelijk genoeg dat ik er extra geld voor neer zou zetten, en de dip in framerate is al helemaal om te huilen
Ik ben ruim 12 jaar lid geweest van team groen.
Vorig jaar dus overgestapt naar mijn eerste AMD CPU (5800X) en nu dus ook naar een AMD GPU.
I.c.m. Smart Acces Memory voelt mijn systeem nu sneller en stabieler dan ooit! Erg tevreden dus.
Ik geef er inderdaad geen reet om. Er wordt gesteld dat je je er in moet lezen, nou, weet je, ik zie het verschil gewoonweg niet zo erg. Kan ik mij best inlezen, wat ik (let op: ik) nauwelijks kan zien boeit mij ook niet. Ik heb het geprobeerd. Games zien er net zo tof uit op mijn 6900xt als dat ze deden op mijn 2080ti. Alleen heb ik nu meer frames. Het heeft vast de toekomst maar volgens mij is de techniek nog niet zo ver. Zowel amd als nvidia niet. Dus ik ben blij met mijn rasterisatiebeest, lekker zonder raytracing.
precies, zowel nvidia als amd zijn onspeelbaar voor raytrace games

ik heb een 6900 besteld omdat de 6950 me wat te duur is voor wat je er voor krijgt ( 100W meer hitte )
Ik geniet er dan weer heel erg veel van. Het helpt als je jezelf wat inleest in de materie en weet waar je naar kijkt. Een kanaal als Digital Foundry kan ook enorm helpen met de voorpret.

Toegeven, je moet wel een liefhebber zijn. Maar als je dit soort bedragen uitgeeft is dat relatief vaker toch wel het geval vermoedelijk.

(Sowieso is het met deze bedragen ook niet te veel gevraagd dat RT performance een beetje op orde is vind ik)

[Reactie gewijzigd door DLSS op 22 juli 2024 15:23]

nogmaals doelgroep specifiek, velen kopen deze kaart om max fps te hebben op specifieke settings niet om wat extra looks in specifieke games.
Ik heb juist een kaart in dit prijssegment gekocht om alle toeters en bellen aan te kunnen zetten in singleplayer games als cyberpunk en metro.

Ik heb niet heel erg veel tijd om te gamen dus ik wil graag maximaal genieten. Raytracing werkt in mijn ogen sfeer verhogend. Het maakt de games meer atmosferisch. Het is hele gave technologie.

Maar goed, hoe je het ook wendt of keert, als je zo veel centen uitgeeft moet de kaart wat mij beteft beiden kunnen. Zowel hoge fps als max settings.

[Reactie gewijzigd door DLSS op 22 juli 2024 15:23]

... max fps te hebben op specifieke settings niet om wat extra looks in specifieke games.
Dat is toch feitelijk hetzelfde: je zegt dat je die kaart niet koopt voor de looks, maar voor fps bij specifieke settings. Die specifieke settings zijn je extra looks, want dezelfde FPS had je met een goedkopere/tragere kaart ook wel gehaald met mindere settings.

Iedereen wil zo hoog mogelijke fps bij acceptabele looks en wat acceptabel is, is heel persoonlijk en iets dat verschuift met de tijd. Let maar op: over 5-10 jaar wil niemand meer zonder RT gamen. Het is alleen net even te vroeg geïntroduceerd voor mijn gevoel. Werd er over de 4000-serie van NVidia niet gezegd dat dat de eerste generatie is die RT serieus aan kan op fatsoenlijke FPS en resolutie?
Als je je moet inlezen om het effect überhaupt te merken, dan maakt dat voor mij wel duidelijk hoe goed de techniek is....
Niet om het effect te merken natuurlijk, maar om er wat meer lol aan te beleven door beter begrijpen wat er precies gebeurt.

Raytracing is echt een hele interessante techniek.

[Reactie gewijzigd door DLSS op 22 juli 2024 15:23]

Ik vind betere raytracing prestaties ook niet heel belangrijk, maar het heeft wel toegevoegde waarde. dlss heeft ook toegevoegde waarde, zeker bij de langzamere modellen waar fsr 2 soms meer performance opslokt dan het met een lagere resolutie weer goed kan maken.

Als ik een nieuwe kaart zou kopen moet amd wat mij betreft wel significant betere bang/buck hebben bij spellen zonder raytracing/dlss. En bij het overgrote deel van de lineup hebben ze dat niet.
@Trygve 8 tot meer dan 10Watt Idle is behoorlijk wat, meer dan een spaarlamp als die aanstaat.

Wat betekent Idle? Dat de kaart een statisch beeld op je monitor zet? Of dat hij echt gewoon niets doet? Waar komt dat Idle gebruik vandaan en waarom kan dat niet minder?
Tijdens de idletest wordt de videokaart vanzelfsprekend niet belast.
geeft me niet voldoende informatie op bovenstaande vragen.

Voor de lezer: bij de huidige stroomprijs van €0,48 per kWh is 10W als je dat dag en nacht verbruikt: 10W*24h*365d*€0,48/kWh = €42,- per jaar.

[Reactie gewijzigd door djwice op 22 juli 2024 15:23]

Dat valt toch best mee? Er van uitgaande dat de pc de helft v/d tijd niet aan staat (als je je bekommert om energieverbruik zet je de pc uit als je hem niet gebruikt) blijft daar nog maar de helft van over. Zet dat tegenover de kosten van aanschaf van je high-end pc, plus het verbruik wanneer dit systeem belast wordt (gemiddeld 380 watt, en dat is dan alleen de videokaart), dan is die 10 watt idle mijns inziens aardig verwaarloosbaar.

[Reactie gewijzigd door r03n_d op 22 juli 2024 15:23]

Idle is (volgens mij) gewoon beeld geven, als de pc aanstaat maar verder niks aan het doen is waar de gpu voor gebruikt word.
Alle electronische circuits gebruiken stroom als ze aan staan, bijv een tv die op standbij staat.
Klopt, alleen hebben we voor een TV die stand-by staat in de EU een reglement voor het maximaal toegestaan verbruik:
nieuws: Standby-verbruik vanaf 2010 beperkt tot 2W
In 2013 moet het stroomverbruik bij dergelijke apparatuur verder zijn teruggebracht tot respectievelijk 0,5 en 1W, zo is in het zogenaamde Ecodesign-regelement vastgelegd
dat heel veel lager is dan 10W, daarom verbaast me dit idle-verbruik.

[Reactie gewijzigd door djwice op 22 juli 2024 15:23]

De idle-test betekent de Windows-desktop weergeven :)
Het zou ook mooi zijn om in deze sample to sample review de default boostclocks van iedere kaart te weten. Daarmee bedoel ik dus niet die op de doos, maar de eigenlijke boost die de chip zelf geeft. Zo weet je meteen of je een goede of minder goede chip (bin) hebt. De MSI in deze vergelijking lijkt een zeer goede bin te zijn. Ik ken een tweaker hier met een Asrock Formula OC, en zijn default boostclock is 2600+ MHz
Wat zou je precies willen weten? De ASRock RX 6950 XT heeft volgens z'n productpagina bv. een boostclock van 2495MHz (in Performance-bios), wat 'ie in de praktijk doet tijdens 10 minuten gamen (in verschillende games) zie je in de Kloksnelheid-grafieken op pagina 5. Bedoel je dat je van die duurtests nog een gemiddelde per kaart zou willen zien? Of bedoel je iets anders?
De ingebakking default boostclock van de chips. De waarde op de doos, 2495MHz bij de Formula OC, is de mimimum waarde in dit geval. Je kan deze default waarde terugvinden in de AMD Adrenalin software. Die geeft een goede indicatie van hoe goed je chip (bin) is.

In deze forumpost van me kan je zien wat ik wil zeggen: https://gathering.tweaker...message/69144784#69144784
We hebben het even gecheckt met de referentie-RX 6950 XT, de ASRock en de Sapphire, maar daar lijkt amper tot geen verschil in te zitten:
ASRock: 2659MHz
AMD reference: 2659MHz
Sapphire Nitro+ Pure: 2654MHz

Nu verschilt de kloksnelheden die die drie kaarten tijdens het gamen behalen behoorlijk, dus wat precies de waarde is van deze getallen ontgaat mij eerlijk gezegd even.
Ik weet niet of je op deze manier goed kan zien of het een goede miner is, want elke fabrikant geeft zijn kaart iets andere voltages/klokfrequenties dan de concurrent.
Als MSI bijvoorbeeld stock een lager voltage geeft aan zijn kaarten dan Asrock, zou het goed kunnen dat die MSI hogere boostclocks heeft omdat er meer ruimte is qua temperatuur door het lagere voltage, zou je die Asrock dan op dezelfde voltage zetten dan is de kans groot dat die dezelfde boostclocks haalt ( als de koelers gelijk zijn).

De enige manier om te testen of die kaarten eventueel goede miners zouden kunnen zijn lijkt mij dat je ze dan test op allemaal hetzelfde voltage/voltage-curve. Stock testen is appels met peren vergelijken in dit geval sinds alle fabrikanten hun kaarten verschillende voltages meegeven in de bios.
Net als bij de vorige benchmarks, zou het leuk zijn als jullie ook blender classroom renderen en bijvoorbeeld een standaard 4K video bewerking in adobe en davinci resolve zouden doen.

Dat geeft veel inzicht over de rendercapabelheid van de kaarten in de test. We zijn tweakers, dus we doen meer dan alleen gamen.
Prima kaarten. Helaas aan de dure kant, maar vergeleken de 3090 ti best redelijk.

Wel jammmer van de raytracing performance. In dit segment en voor dit geld wil je toch wel van die leuke exta toeters en bellen kunnen genieten.

Benieuwd of amd met de volgende generatie het gat weet te dichten met Nvidia op dit vlak.

[Reactie gewijzigd door DLSS op 22 juli 2024 15:23]

Leuk zo'n vergelijking maar wie koopt er in vredesnaam zo'n dure kaart? Een review van midrange kaarten (300-500 euro) zou voor mij veel meer waarde toevoegen. En zelfs dat vind ik al veel geld.
Opvallend dat die MSI toch een wat hoger energieverbruik heeft; juist dat merk had de energieconsumptie van hun videokaarten (net als de geluidsproductie) altijd als een van de besten op orde.

Wel prettig te zien dat de prijzen van deze high-end videokaarten nu eindelijk weer eens richting normale niveaus afdalen; persoonlijk ben ik niet direct in de markt voor een videokaart die 1200-1600 euro moet kosten, maar hun directe voorgangers kostten nog niet zo heel lang geleden 2, 2½ keer zo veel.

Op dit item kan niet meer gereageerd worden.