Door Reinoud Dik

Redacteur

Radeon RX 7900 XT en XTX Review

Strijd barst los in nieuwe generatie

12-12-2022 • 15:00

359

Singlepage-opmaak

Conclusie

Met de komst van de AMD Radeon RX 7900 XT en RX 7900 XTX is de strijd tussen de videokaarten van de nieuwe generatie nu echt losgebarsten. Concurrent Nvidia kwam kortgeleden al met zijn GeForce RTX 4090 en RTX 4080, en in deze review hebben we gekeken hoe de eerste zet van het Radeon-kamp eruitziet.

Radeon RX 7900 XTX versus de RTX 4080

De Radeon RX 7900 XTX is in de traditionele rendertechniek rasterization gemiddeld een paar procent sneller dan de GeForce RTX 4080. Op 4k-ultra behaalt de kaart gemiddeld 108fps, wat bijna 40 procent meer is dan de RX 6950 XT van de vorige generatie. De RDNA3-kaarten weten zich op hogere resoluties relatief beter staande te houden dan RDNA2. Van de andere kant bekeken is het voordeel op lagere resoluties tegenover de concurrentie met deze generatie minder uitgesproken dan bij de RX 6000-serie.

De raytracingprestaties maken met RDNA3 ook een flinke sprong. Gemiddeld is de RX 7900 XTX in games met raytracing ingeschakeld 60 procent sneller dan de RX 6950 XT. Omdat Nvidia ook niet stil heeft gezeten, verandert er voor AMD vrij weinig in de verhoudingen ten opzichte van zijn concurrent. Bij de RX 6000-serie konden we concluderen dat de raytracingprestaties grofweg gelijk zijn aan die van Nvidia's vorige generatie, de RTX 20-serie. Met de nieuwe RX 7000-serie kunnen we nu eigenlijk hetzelfde zeggen; ze presteren min of meer gelijk aan de snelste RTX 30-serie videokaarten.

De RX 7900 XTX is zonder raytracing gemiddeld dus een paar procent sneller dan de RTX 4080 en krijgt een 240 euro lagere adviesprijs mee. Of de betere raytracingprestaties die meerprijs waard zijn, kun je zelf het best bepalen. Met de huidige staat van raytracing in pc-games en de ontwikkelingen van hardwarematige versnelling hiervoor merken we dat de voorkeuren per persoon sterk verschillen.

Radeon RX 7900 XT versus de RTX 3090 Ti

De RX 7900 XT heeft momenteel nog geen directe concurrent in Nvidia's RTX 40-serie. AMD's kaart is op 4k-ultra een paar procent sneller dan de RTX 3090 Ti en valt op 1440p precies tussen dit topmodel en de RTX 4080 in. Dat betekent dus ook dat het prestatieverschil tussen de RX 7900 XT en XTX vrij beperkt is, doorgaans maar 10 tot 15 procent. Niet geheel toevallig is de RX 7900 XT ook 10 procent goedkoper dan de XTX. Dat geeft de RX 7900 XT grofweg dezelfde prijs-prestatieverhouding als zijn grotere broer. Hetzelfde hebben we bij Nvidia gezien, waar de prijzen van de RTX 4080 en 4090 gamers vooral richting de snellere modellen lijken te lokken vanwege de relatief beperkte meerprijs.

Chiplets zijn de gamechanger

Met de komst van AMD's Radeon RX 7900 XTX heeft Nvidia voor zijn RTX 4080 nu een directe concurrent. Het GeForce-topmodel, de RTX 4090, blijft vooralsnog ongeëvenaard. Op 4k-ultra is deze kaart 25 procent sneller dan AMD's nieuwe vlaggenschip. Hoeft Nvidia zich dan nergens zorgen over te maken? Zeer zeker wel.

Het prestatieniveau van RDNA3 is maar een van de aspecten waarop AMD zich in de ontwikkeling van de RX 7000-serie heeft gericht. Het gebruik van chiplets is een enorme stap op de markt van videokaarten. Het stelt AMD in staat om de meest prestatiebepalende onderdelen van een gpu op het nieuwste en dus duurste proces te fabriceren, terwijl andere zaken op een ouder, goedkoper en beter beschikbaar proces kunnen worden gemaakt. Het aan elkaar knopen van deze chiplets is geen eenvoudige taak, maar door schaalvergroting zal deze techniek verder worden geoptimaliseerd en steeds goedkoper worden. Een bron kon ons bevestigen dat de marges voor RDNA3-kaarten beduidend hoger liggen dan bij Nvidia's RTX 40-serie; AMD's slides lijken dus niet uit de lucht te zijn gegrepen. Of AMD binnenkort ook de concurrentie met de RTX 4090 wil aangaan, is onduidelijk, maar wat productietechnieken betreft is er in elk geval alle ruimte om een graphics compute die te maken die groter is dan de 300mm² van de RX 7900 XTX. Niet de lagere prijzen, maar vooral de hogere marges zouden Nvidia op zijn minst bezorgd moeten maken.

Reacties (359)

359
352
165
9
0
148
Wijzig sortering
Aan die prijzen zijn er niet veel goeie redenen meer om voor NVidia te kiezen.
Wordt ook interessant om te zien wat NVidia gaat doen met prijzen en nog te lanceren kaarten nu algemene vraag lager ligt en AMD een volwaardig alternatief is. Voor de 30 serie is AMD eigenlijk een beter alternatief omdat daar geen absurd lage geheugen configuraties aangeboden worden. NVidia staat met hun 10GB en minder kaarten met de broek op de enkels.
(linux) drivers, is en blijft (ook na jaren) voor mij -de- reden om voor groen te gaan.

hieronder komen reacties van kamp rood, dat dit 'al lang niet meer is' :+ blijf het [amd] proberen, maar nvidia (icm linux) blijf voor mij beste prestatie geven minste koppijn geven
Vroeger was dit inderdaad de consensus, dat Nvidia veel betere Linux-drivers biedt. Maar dat is al enkele jaren niet meer zo. Open een willekeurige Reddit-thread over dit onderwerp en je zult zien dat vrijwel iedereen je AMD adviseert vanwege de ondersteuning die ingebakken is in de kernel en dus juist minder koppijn geeft (theoretisch) dan de proprietary drivers van Nvidia. Nu moet ik zeggen dat ik zelf ook al heel lang Nvidia combineer met Linux (Fedora momenteel) en dat ik in mijn specifieke situatie nauwelijks problemen ervaar, en dat ik vermoed dat men op fora een beetje is doorgeschoten in het bashen van Nvidia. Maar ik geloof gerust dat de ondersteuning van AMD flink is verbeterd sinds mijn laatste GPU-aankoop. Voor mijn volgende videokaart zou ik AMD beslist overwegen...
Enfin, mijn punt is: zo zwart-wit is het volgens mij niet. Er zijn nog steeds goede redenen om voor een groene kaart te kiezen, NVENC om maar iets te noemen. Maar 'minder gedoe' is nou juist een argument dat in mijn ervaring meestal door Radeon-eigenaren wordt gebruikt. ;-)
Op het gebied van NVENC zou deze generatie AMD kaarten ook een gigantische inhaalslag hebben moeten maken. Helaas dat reviewers dat zelden bekijken.
EposVox heeft al wat info, het ziet er helaas niet goed uit. Nog steeds slechter dan Nvidia en Intel. En bovendien neemt het veel te veel van de GPU in beslag, bij streaming niet ideaal.
het ziet er helaas niet goed uit.
Ziet er prima uit, met wel nog wat ruimte voor verbetering
https://www.techspot.com/...1-encoder-almost-par.html
En laat dat nou net zeer interessant zijn voor mensen zoals ik, die hun computer vooral gebruiken voor videobewerking en niet zozeer voor gaming. In combinatie met Adobe Premiere Pro presteren Nvidia videokaarten traditioneel fors beter dan hun AMD equivalenten. Het prestatieverschil daarbij is groter dan bij de meeste games.
Wat is de naam van de tegenhanger van AMD ?
VCE.
Wil je het weten voor hardware encoding van video of realtime encoding voor streaming?
Voor encoding zou nu hardwarematig AV1 en HEVC t/m 8K 60fps supported moeten zijn.
Voor streaming zie ik ook de term AMF.

edit: Lijkt er op dat alleen AV1 nu 8K 60 doet, en HEVC beperkt is tot 8K 48.
Beetje verrassend en ook misleidend in de AMD presentaties. Lijkt er op dat er een speciale chip voor AV1 is toegevoegd en dat daardoor dat nu extreem goed presteert, maar HEVC niet in dezelfde mate verbeterd is.

[Reactie gewijzigd door mjtdevries op 22 juli 2024 13:34]

Ik streamde inderdaad vandaar de vraag, maar is vrij duidelijk zo!
In mijn ervaring zijn Linux gebruikers wel een beetje bevooroordeeld ten opzichte van AMD door die semi open source drivers. Nu is er zeker veel over te zeggen, ik heb AMD en het integreert gewoon beter, Wayland is ook erg fijn, ze hebben geen ongelijk. Maar je zag mensen al AMD aanraden toen fglrx nog maar pas dood was en de nieuwe drivers nog steeds allerlei mankementen hadden. Dat was in mijn optiek nog wel voorbarig.

Maar tegenwoordig heeft AMD wel duidelijk mijn voorkeur vanwege de drivers. Nvidia heeft wel functies, zoals CUDA, DLSS, raytracing, daar loopt AMD echt achter, maar de basics zijn bin AMD tegenwoordig ook wel echt beter. Dat begon met de 5000 serie toch serieus te worden, en sinds de 6000 serie al helemaal.
Zelfde ervaring hier. Ben echt blij van Nvidia afgestapt te zijn, eerst een 5500xt gehad, nu een 6700XT en alles werkt out of the box, geen proprietary drivers. Ideaal als je een rolling release gebruiken bent of af en toe voor de lol zelf een kernel compileert. Een verademing.
En nog afgezien van rolling releases of kernel compilaties, het integreert gewoon fijner. Ik heb een 165Hz display met Freesync (eerder was dat 144Hz zonder Freesync), plus 2 60Hz schermen. Op Nvidia zouden de zijpanelen flink wat last hebben van tearing. En dan had ik Freesync kunnen vergeten. Hier werkt dat zoveel beter.

Wat alleen niet fijn werkt is de combinatie 1080P en 1440P, waarbij je ook eigenlijk iets van desktop scaling zou willen gebruiken, maar ik heb ook een soortgelijk probleem op het werk waar ik wél Windows gebruik, en daar werkt dat nóg slechter.
Oh ja, multi-monitor... Ja voor dat soort dingen zijn proprietary drivers gewoon shit.
Jawel, het is nog steeds zo dat AMD drivers slechter zijn. LINUX geeft dit ook duidelijk aan in zijn video, terwijl hij dik voor AMD gaat nu.
https://youtu.be/TBJ-vo6Ri9c
Deze thread gaat over Linux. Ik heb de video niet bekeken, maar aangezien het Linus is neem ik aan dat het over de Windows driver gaat, een totaal andere dus. Linus heeft afgelopen jaar ook een reeks gemaakt waarin hij zgn probeerde over te stappen naar Linux, laten we het erop houden dat dit geen succes was. Vandaar mijn aanname.
Volgens mij haal je wat namen door elkaar...
Ja….auto correctie iPhone haha
Linus

Je weet wat ik bedoel
WTF!? Linux drivers van Nvidia zijn een ramp... security bugs die al in jaren niet gepatcht zijn, gebonden aan bepaalde kernel versies, closed source etc...

Je ziet zo geen dergelijke verhalen over AMD : https://www.linuxjournal....r-security-risk-still-not

AMd drivers op Linux zitten in elke distro bij en hebben geen extra werk nodig. Die dingen werken out-of-the-box, super stabiel en zijn open source. En dat is al jaren zo. Linux ondersteuning is waarom Nvidia er bij mij niet inkomt...
Redelijk recent kwam er wel een belofte op beterschap uit kamp groen:

nieuws: Nvidia maakt zijn gpu-drivers voor Linux open source beschikbaar
Je koopt resultaten geen beloftes als je slim bent.
Ik draai zelf nu al jaren AMD (6800 & 6900XT naast een 2060 mobile en een 1080). De drivers zijn enorm veel beter geworden, ze waren waardeloos. Ze zijn nu meer dan prima. Ik prefereer ze inmiddels boven die van Nvidia. maar dat is persoonlijk. Dus ik ga niemand tegenspreken over de "betere drivers".

Wat ik leuk en enorm vervelend tegelijk vindt is dat AMD-kaarten vaak een ja na release een stuk beter zijn dan op moment van release. Mijn oude 5700XT was toen ik hem kocht soms wel 25% zwakker dan een jaar later. Mijn 6800 en 6900XT zijn ook aanzienlijk krachtiger nu dan een jaar eerder als ik de benchmarks van 1,5 jaar geleden moet geloven.

Mijn verwachting is dat AMD dat deze generatie ook weel zal hebben, maar dat is GEEN reden om deze kaarten nu te komen. Als ze je NU aanstaan, dan kan je de trekker overhalen. Want de belofte dat het beter gaat worden is niks waard.
Zijn er goede benchmarks te vinden waarbij de resultaten aantonen dat de 5700XT of een vergelijkbare kaart dergelijke sprongen heeft gemaakt, simpelweg door drivers? Ik geloof best dat in sommige games een 25% gelukt is, maar verwacht zelf dat dat dan ook komt doordat de drivers of de ondersteuning vanuit de game makers in het begin zo slecht waren.
Daar heeft het ook mee te maken. Maar ik heb zonder veel moeite een artikeltje weten te vinden waar de 5700XT een 10% verbetering ogenschijnlijk kreeg in 2019 (Bron: https://www.techquila.co....-rx-5700xt-driver-update/)

Daarnaast heeft AMD natuurlijk ook wat voordeel met het feit dat nagenoeg alle games met hun RDNA-architectuur in gedachte worden gemaakt (Xbox & PS). vervolgens wordt er op PC natuurlijk veel voor Nvidia geoptimaliseerd omdat een enorm deel van de markt op die kaarten draait, maar dan nog.
De titel van dat artikel luidt
AMD Radeon RX 5700XT and 5700 Should Get a 10% Performance Boost via Driver Update
Zie het woord "should", dat betekent hier "zou moeten".

Het artikel bevat de volgende tekst.
AMD’s latest Adrenalin 19.7.1 drivers once again show a clear lack of optimization. This isn’t just a Navi problem: The folks over at PC Gamer benched the RX 590 with the old drivers and compared them to 19.7.1: They came to the conclusion that 19.7.1 exhibits as much as a 10 percent performance regression relative to older drivers.
Daar staat dus dat de 19.7.1 drivers 10% langzamer zijn dan de drivers daarvoor, met een RX 590.

Dat betekent dus, dat AMD met de 19.7.1 drivers, blijkbaar de eerste drivers die de RX 5700XT en 5700 ondersteunen, dingen heeft moeten doen waardoor de drivers in het algemeen 10% langzamer worden voor (sommige van) de bestaande/oudere kaarten.

Als dit artikel betrouwbaar zou zijn (ik heb sterk mijn twijfels maar daarover zo meer), dan bewijst dit artikel exact het tegenovergestelde van wat je beweert: de bestaande kaarten (in dit geval de RX 590) gaat dus 10% in performance achteruit.

Nu wil je misschien zeggen, ja maar de schrijver beweert dat dit goed nieuws zou kunnen zijn, zie:
This is actually good news if you just purchased a 5700XT or 5700: It means that the Navi cards may have an additional 5-10 percent of extra performance that’s untapped as of now.
Ik zit niet goed genoeg in de logica / formal fallacies (https://en.wikipedia.org/wiki/Formal_fallacy) om gelijk te zeggen welke fallacies het hier betreft, maar minstens 1 zal hier flink van toepassing zijn. Het klopt niet, het is niet logisch. De schrijver gaat ervanuit dat de performance nog 10% omhoog gaat voor de nieuwe videokaarten omdat de drivers voor de oude videokaarten de performance met 10% hebben verlaagd. Dit is toch een belachelijke redenatie? Het gegeven dat de performance van de oude videokaarten 10% verminderde met de nieuwe drivers, kan toch op geen enkele wijze een argument zijn om te redeneren, dat de performance voor de nieuwe videokaarten, waar die nieuwe driver speciaal voor is gemaakt, en blijkbaar grondige wijzigingen voor zijn aangebracht (anders zou de performance bij de bestaande videokaarten niet zomaar met 10% omlaag gaan), dat daarom, in de toekomst met een nieuwe driver, de performance voor de nieuwe videokaart nog met 10% omhoog gaat. Het raakt echt kant nog wal.

Ik heb nu zelf ook even gezocht. Er zijn blijkbaar ook artikelen te vinden die niet door een zolder journalist met de logica van een koekepan zijn geschreven, alleen maar om headlines te scoren, want dat is het eerlijk gezegd. Heb een bron gevonden die mijns inziens wel betrouwbaar is en grondig te werk gaat: https://www.techspot.com/...preview-driver-benchmark/

Hier wordt tot op zekere hoogte je vermoeden bevestigd: in een aantal games wordt een snelheidswinst van 10% gehaald, met een uitschieter of 2 naar 14% en 17%. Echter, onderaan het artikel staan de totaaloverzichten voor alle 50 games bij de 3 resoluties waarop ze hebben getest, met de gemiddeldes erbij, en het gaat om 3% snelheidswinst op 1080p, 2% op 1440P en 2% op 4K. Ondanks dat de grafieken nog best indrukwekkend uitzien, een performance boost van 5 a 10% komt vaak voor en is zeker niet niets(!), sluit dit wel beter aan bij mijn beeld van wat driver updates al 20+ jaar doen bij zowel AMD als Nvidia: het wordt voor de meeste games wat beter, lost soms zelfs merkbaar issues op, maar het verandert uiteindelijk niet bijzonder veel aan de propositie.

Kantekeningen hierbij zijn dus: het betreft nog een preview driver, dus nog een soort van beta, waarvan niet alle features de officiele drivers halen vanwege stabiliteit, en Nvidia heeft ook driver updates die performance winst opleveren.

Zie bijv. onderstaande artikelen van mijns inziens betrouwbaar site, met daadwerkelijke benchmarks in plaats van beloftes, marketing materiaal of drogredenaties:

10-11-2022: https://www.kitguru.net/c...nce-boost-to-rtx-30-gpus/
Nieuwe drivers zorgen hier ook voor een nette performance winst bij de 0,5 jaar oude 3090 Ti (zou zeer vergelijkbare impact moeten hebben bij de veel oudere 3090 met dezelfde GA102 chip)
Here are some of the games we retested on the RTX 3090 Ti and how much performance changed at each resolution:
Assassin's Creed Valhalla – 13% at 1080p, 11% at 1440p and 3% at 4K
Cyberpunk 2077 – 18% at 1080p, 11% at 1440p and 4% at 4K
Dying Light 2: Stay Human – 8% at 1080p, 6% at 1440p and 5% at 4K
Horizon Zero Dawn: 8% at 1080p, 6% at 1440p, 2% at 4K
08-2018: https://www.tomshardware....mance-tested,5707-13.html
Ondanks dat dit een wat ouder artikel is het wel een mooie grondige analyse, waarbij een conclusie getrokken wordt die aansluit bij de informatie die ik ken (uitzonderingen en echte fixes zoals stutters in slecht geoptimaliseerde game/driver combinaties daargelaten):
Bottom Line

As expected, new video drivers increase frame rates in most titles, but the differences are often subtle. AMD averages a 2.3% speed-up across our benchmark suite, while Nvidia averages 4.3%. In some games, you will see noticeable improvements, with frame rate boosts as high as 15%. But in others, the change is so modest that you might not notice it. It's unlikely that a driver update will make a game that was formerly sluggish or unplayable suddenly run well on the same hardware.
Die uitzonderingen zoals stutters of zelfs crashes (AMD black screen anyone?) zijn mijns inziens de voornaamste redenen om alsnog nieuwere drivers te installeren. En natuurlijk games waarbij de game/driver combinatie specifiek slecht was, waardoor je inderdaad die 15% performance boost haalt. Maar alle fabrikanten brengen nieuwe en over het algemeen betere drivers uit, waar wat winst mee valt te behalen. En het wordt telkens aangetoond wanneer er grondige reviews worden uitgevoerd, dat het uiteindelijk maar weinig aan de verhoudingen tussen verschillende videokaarten verandert in die zin, dat je de benchmarks die nu gedaan zijn over 2 jaar in grote lijnen en wat betreft de onderlinge verhoudingen (voornamelijk over meerdere games heen), nog uitstekend zullen voldoen, indien we de resultaten van AMD en Nvidia uit het verleden mogen gebruiken als voorspelling.

[Reactie gewijzigd door xtlauke op 22 juli 2024 13:34]

Prima!~Mijn ervaringen met mijn 5700XT waren positief over de 2 jaar dat ik het draaide en het werd in de game die in die tijd veel speelde (Destiny 2 en dat is een game die niet bijzonder goed met AMD werkt) werden de prestaties over die 2 jaar beter, toen ik begon was het 65-70 FPS en tegen het einde 80-85 FPS. Of dit optimalisaties van Bungo waren of AMD heb ik niet in detail bij gehouden. Het viel me wel op dat het tussen drivers kon verschillen.

Maar goed, dit is N=1 en meer een anecdote dan waarheid. Dus... doe ermee wat je wilt. Ik vind het mooi en vervelend tegelijk dat AMD dit gedrag vertonen. Want het vertelt mij dat de drivers nooit af zijn, zoals ze dit bij Nvidia wel zijn. Want double digit prestatie verbeteringen krijgen is natuurlijk leuk, maar het laat achterstallig werk zien.
Huh?

Ik game al sinds de GeForce 8800GTX exclusief op nVidia, maar heb de afgelopen 24 jaar altijd AMD kaarten voor mijn Linux systeem gekocht omdat elke nVidia kaart mij op Linux hoofdpijn bezorgde.

nVidia was altijd wel flink sneller, maar wat koop ik daar voor als hun drivers crashes veroorzaken die een complete harde rest eisen waarbij de volgende boot een eeuwigheid duurt vanwege de filesystem check?

AMD heeft in die 24 jaar minder crash problemen gehad en belangrijker, meestal geen reboot nodig maar de driver (automatisch) opnieuw opstarten en klaar.
Hoezo bezorgde AMD je geen hoofdpijn? Tegenwoordig zijn de drivers wel fijn, maar ik kan me nog wel fglrx herinneren. Had je echt helemaal niets aan. Dat was pas hoofdpijn, en was was de reden dat ik wel een decennium Nvidia heb gebruikt op Linux. Pas dit jaar gebruik om weer AMD.

[Reactie gewijzigd door Amanoo op 22 juli 2024 13:34]

Anoniem: 63072 @Amanoo12 december 2022 22:28
Voor R300 en R400 gebruikte ik de OS drivers. 3D was heel traag, maar de drivers heel stabiel.

Zoals ik al zei gamen deed ik er niet op, linux machines zijn voor (voornamelijk c++) software development.

De AMD proprietary fglrx heb ik derhalve nooit gebruikt. Veel interessante games waren er indertijd overigens ook niet op Linux en Proton/Wine was ook niet echt bestaand/viable, dus ik heb nooit het idee gehad dat ik wat miste.

Als je 3D modelling software gebruikte dan kan ik me voorstellen dat je het worstellen met de nVidia drivers voor lief nam, daar was AMD toen niet echt geschikt voor.
Sorry maar dit is toch wel echt lijnrecht het tegenovergestelde van mijn ervaring.

bij het selecteren van een laptop voor linux is echt mijn voornaamste, leidende criterium dat er GEEN nvidia gpu in zit. Ik weiger OOIT nog een seconde van mijn tijd in Nvidia op Linux te steken

Mijn huidige laptop heeft een quadro M1200 en er is maar 1 distributie die uberhaupt succesvol boot out of the box en dat is Pop_OS. Alle andere distributies die ik heb geprobeerd, en die lijst is LANG, hebben showstoppende problemen met nvidia. Echt om gek van te worden gewoon. 99% van de distributies haalt na een verse installatie werkelijk nieteens de desktop, de meesten nieteens de login manager

Daarentegen zitten de AMD GPU drivers tegenwoordig gewoon in de kernel gebakken. Dus ik weet niet hoe lang het geleden is dat je amd hebt geprobeerd, maar minstens 5 jaar denk ik. Zelfs debiab stable heeft ondertussen een nieuw genoege kernel

Vandaar ook de welbekende video van linus torvalds waarin hij nvidia vervloekt en zijn middelvinger rechtstreeks tegen de camera opsteekt

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:34]

Geen problemen hier met Ubuntu 22.04 en 22.10 (beide geprobeerd) op een Dell XPS 9510 met een RTX 3050ti. Ook blijkt dat Nvidia samen Ubuntu werkt voor het server GPU geweld (kwam ik tegen bij het zoeken naar de driver :).
Als je voor de Nvidia driver hebt gekozen kunt je door nvidia-settings in de terminal te typen het settings grafische programma gwaarmee je grafisch zaken (power/anti-alias etc). kunt regelen en zie je op hoeveel MHz het geheugen en de GPU werkt.
Voor mij goed genoeg!
ben je nu aan het trollen ? Nvidia is een ramp op Linux met de proprietary drivers. Daarnaast zoals andere al aangeven zitten de AMD drivers in de Kernel ingebakken plug en play. Voor mij nooit maar dan ook nooit Nvidia het werkt gewoon niet goed op Linux.

Daarnaast nu steamdeck, Ps5 en Xbox gebruikt maakt van AMD architectuur is het maar een kwestie van tijd tot dat alle nieuwe games echt in het voordeel van team rood gaan vallen. Je kan tegen optimalisatie niet genoeg invoeren op hardware. Je ziet het al bij Modern Warfare.
Dat word al jaren geroepen sinds het begin PS4 dat games beter draaien op AMD. COD is daar niet echt een voorbeeld van want het is zelfs een Nvidia sponsored game geloof ik want de game heeft DLSS en Nvidia reflex en is maar 1 uitschieter. Je zou al jaren lang moeten zien dat games met AMD hardware sneller zou zijn dan vergelijkbare videokaarten van Nvidia. Ik vind dit tegenwoordig meer een mythe.
Game heeft ook gewoon FSR, Fidelity CAS en XESS....

Daarnaast ben ik zelf juist vaker van DLSS aan het stappen omdat het toch echt wel een lagere kwaliteit beeld is en uiteraard altijd met artifacts.

[Reactie gewijzigd door marco-ruijter op 22 juli 2024 13:34]

Je ervaring is valide, maar ik had eigenlijk andersom verwacht omdat de AMDGPU driver in de mainline kernel zit.
Linux en Nvidia is een regelrechte nachtmerrie. Weet je zeker dat je niet op Windows zit?
Toegegeven, ik had laatst wat problemen met de pro diver, maar dat is niets vergelijken met wat ik met Nvidia op Ubuntu heb meegemaakt.

En om Phoronix the quoten:
Without a doubt the Radeon RX 7900 series launch is the most successful open-source driver debut at launch for them.
Blij dat je goede ervaringen hebt met Linux en Nvidia.

Echter, mijn eigen ervaring wijkt hier toch redelijk sterk vanaf. Integratie van de drivers in de kernel zoals bij de concurrentie (Intel iGPU drivers en AMD) was voor mij toch steeds volledig pijnloos op Manjaro en Fedora. Met Nvidia ook, toch op Manjaro, altijd last om in de TTY te proberen raken als de desktop env vastliep. Om nog maar te zwijgen van wat er gebeurt met je systeem eens Nvidia de support voor jouw kaart laat vallen (Desalniettemin kudos voor de mensen achter Nouveau).

Maar ik kan natuurlijk ook enkel uit persoonlijke ervaring spreken.
De NVidia linux drivers zijn naar mijn ervaring allesbehalve vlekkeloos. Op zowel Arch als Ubuntu serieuze problemen met tearing (vooral bij scrollen) gehad totdat ik enkele opties heb aangepast in het NVidia control center. Ook werkte hibernation niet meer tussen april en begin deze maand op Arch (zwart scherm bij resume) terwijl dat op een ander system zonder NVidia gpu niet het geval was.

Ik ga hoogstwaarschijnlijk een AMD GPU kopen waarbij het driver fiasco van NVidia een grote rol speelt.
(linux) drivers, is en blijft (ook na jaren) voor mij -de- reden om voor groen te gaan.

hieronder komen reacties van kamp rood, dat dit 'al lang niet meer is' :+ blijf het [amd] proberen, maar nvidia (icm linux) blijf voor mij beste prestatie geven minste koppijn geven
Ik snap wel een beetje waar je vandaan komt want ik ben ook jarenlang steeds weer bij NVidia teruggekeerd. Toch ben ik afgelopen BF overgestapt naar rood omdat de drivers van AMD (meer) open source zijn. Het is nog wat te vroeg voor grote conclusies maar ik moet zeggen dat het dusver vlekkeloos gaat. Dan bedoel ik niet alleen dat games lekker lopen maar ook userland ervaring zoals het omgaan met mijn ingewikkelde en flexibel multi-monitor setup. Out-of-the-box een betere ervaring dan ik de afgelopen 10 jaar met nvidia heb gehad
Daar moet ik wel bij zeggen dat ik die kaart pas kort heb en alleen nog maar een paar games heb gespeeld. Met kerst wil ik ik een HPC/AI-projectje doen. Mijn beleving is dat die wereld erg op NVidia is gericht. Momenteel heb ik echter het vertrouwen dat dit ook goed gaat werken.

Dusver mijn anecdata.
Het is juist andersom, AMD heeft betere drivers voor Linux.
Nee hoor, je moet het zelf weten.

Echter de opensource drivers van AMD zijn fantastisch en zeer stabiel onder Linux. De opensource versie van nVidiab is daarentegen lachwekkend als het niet zo triest zou zijn. Dat is voor mij de redenom AMD in mijn setup te hebben en houden.
"Vroeger" was het toch zo dat je zo ongeveer Intel + nVidia moest hebben ook maar een kans te maken om spellen met WINE te draaien? Ik ben pas sinds vorig jaar 100% overgestapt op Linux (en dus ook gaan gamen met WINE), en ik heb eigenlijk nooit iets anders gehad dan Intel + nVidia, maar er ook nooit problemen mee gehad. Ik moet wel zeggen dat ik altijd een half jaar tot een jaar achter de feiten aan loop: ik ben zelden of nooit een early adopter van hardware. Ook nu heeft mijn (oude) i7-6700K met GTX 1070 geen problemen onder Debian 11. (Ik draai dan wel KDE op Xorg; ik ga pas over op Wayland als Debian er de standaard van maakt.)

Wel staat er een nieuwe computer op het programma, na de release van Debian 12 Bookworm. Die computer komt er daarom waarschijnlijk ergens in juni-augustus. Die gaat een Ryzen 7950 in Eco mode bevatten (want ik wil per se 16 "normale" cores in dit systeem), en mogeljk / waarschijnlijk een Radeon 7000-serie videokaart. Iets dat in de range van een GTX / RTX x60 Ti of GTX / RTX x70 zit was in de vorige serie de RX 6700; ik ga ervan uit dat er ook iets als een RX 7700 ofzo gaat uitkomen, de ergens rond de performance van een RTX 4060 Ti / 4070 gaat vallen.

Het enige waar ik een beetje mee zit is het volgende: als ik de open source driver wil gebruiken, dan is daarvoor Linux 6.0 nodig (vandaag is 6.1 LTS uitgekomen, dus ik ga ervan uit dat die in Debian 12 terechtkomt), en Mesa 22.2 (die zit al in Bookworm; 22.3 zit al in Sid, dus ik ga ervan uit dat Debian 12 Mesa 22.3 gaat bevatten).

Voor mijn gevoel is dat een beetje te kort dag, omdat ik niet verwacht dat Debian bugs gaat fixen of backporten, behalve security fixes; als iets niet goed werkt in de RX 7000 serie kaarten en daarvoor een nieuwe kernel + nieuwe Mesa nodig is, dan zal het niet werken voor 2 jaar lang, behalve als er (heel snel) een nieuwere kernel + Mesa in backports terecht komt.

Hoe makkelijk / lastig is het tegenwoordig om de proprietary AMD-driver te installeren? De nVidia driver is ... eh ... niet makkelijk, als je secure boot nodig hebt, maar op een nieuw systeem gaat dat mogeljik gewoon uit staan omdat het alleen Linux gaat draaien. Mijn desktopcomputer krijgt geen Windows meer. Nooit meer.
Ik begrijp niet zo goed waarom.je nieuwe hardware met Debian wilt combineren. Neem dan een distro die de kernels wat sneller volgt, en dat moet ook geen Arch zijn, zit nog wel wat tussen.
Ik koop al 10 jaar lang enkel radeon en heb altijd op HD of nu 4K ultra kunnen spelen en nooit problemen gehad met drivers of spel/ stability issues.
Kiezen voor het groene kamp is gewoon fanboi zijn en je geld over de balk smijten.
Je bedoelt de oude fireglx elende of de huidige amdgpu driver? Die oude was brak, die nieuwe is top.
Aan die prijzen zijn er niet veel goeie redenen meer om voor NVidia te kiezen.
Bij de RTX 4080: DLSS3.0, Raytracing performance, CUDA, power efficiency. vs een 20% hogere prijs. Het prijsverschil verdien je terug met 3-5,5 uur per dag (5 jaar lang) gamen in stroom verbruik... (Het is weird om Nvidia als energie 'zuinig' neer te zetten!)

Persoonlijk zou voor mij het prijsverschil de genoemde features waard zijn om toch voor Nvidia te gaan. Maar ik sla deze generatie even over. Wellicht wanneer de energie prijzen weer zijn gedaald naar normale niveau's dat ik weer eens ga kijken naar een PC build met een losse kaart. Tot dan zal ik hier primair zeer energie zuinige AMD CPUs gebruiken met intergrated graphics + cloudgaming (naast de Steam Deck, welke ook AMD gebruikt).
En dan hebben we het nog niet over idle verbruik, want schijnbaar lukt het AMD alweer niet om fatsoenlijke drivers te hebben bij multi-monitor setups: https://www.techpowerup.c...adeon-rx-7900-xtx/37.html (iemand linkte deze in AMD topic op GoT).

En zelfs als je zegt: "Maakt mij niet uit, heb toch maar één monitor", je gaat je dan wel afvragen wat er verder nog meer aan de hand is met hun drivers.

Verder ook geen idee wat het probleem is van een kaart zonder 12GB+ geheugen. Volgens mij loopt mijn 3070 nog niet vol.
Schijnbaar lukt het Nvidia niet eens een fatsoenlijke driver te leveren bij een single monitor setup: https://arstechnica.com/g...o-fix-display-output-bug/

Om dan meteen te gaan afvragen wat er verder allemaal mis is met de drivers gaat mij een beetje ver, maar ik begrijp waarom je nog een 30 series kaart hebt want de 40 series kan jij niet vertrouwen.

Het geheugen is belangrijk voor hogere resoluties en nieuwere spellen, de 8 gb van de 3070 gaan makkelijk gevuld worden over een paar jaar. Erop bezuinigen bij een dure kaart is gewoon planned obsolescence.

Met meerdere monitoren zou ik zeker ook even wachten of dit issue weggaat.
De spellen die over een paar jaar makkelijk de 8GB geheugen vullen, gaan toch niet op hoge settings draaien op mijn 3070. En op lagere settings past dat vast weer wel binnen de 8GB.

Een specifieke bug bij bepaalde moederborden als geen drivers geinstalleerd zijn, is natuurlijk iets wat wat makkelijker door QA kan glippen dan 100W+ verbruiken gewoon standaard bij een multi-monitor setup (en iets soortgelijks bij een Youtube videotje). En bugs kunnen er altijd zijn, liefst niet al teveel, maar het zal helaas nooit nul zijn. Maar dit verbruik is schaar ik daar niet onder, het is niet zozeer een bug als gewoon heel slecht geoptimaliseerde drivers.

En was dit nou een enkel dingetje, dan was ik het met je eens hoor dat de stap naar slechte drivers groot is. Maar laten we wel wezen, dit is het zoveelste deel in AMDs drivers die het slecht doen bij meerdere monitoren qua verbruik en/of bij monitoren die niet op 60Hz draaien. En algemeen is één van de grote problemen van AMD al een tijdje langer de drivers. (Tot mijn 3070 was het merendeel van mijn kaarten AMD. Na de 5700XT had ik daar voor voorlopig wel genoeg van).
Het is niet alleen multimonitor verbruik, maar kennelijk ook bij het afspelen van video's, zoals van Youtube.

Genoeg VRAM kan een punt zijn als je graag exorbitante texture mods draait zonder verdere optimalisatie.
Definitie van multimonitor setup is heel breed en wordt nooit terdegen uitgezocht door review sites.
Ik had dit probleem voorheen ook met mijn 6800XT, na het plaatsen van 2 *4K op 144hz refresh sync was het probleem weg, voorheen was het een FullHD+QHD met 60-144hz combo.

je geeft aan alsof als er 1 probleem is het vol met problemen is en nvidia er geen enkele heeft }:O
helaas is soms zelf wat onderzoek doen moeilijk tegenwoordig en is het leuker om een issue gewoon te blijven linken. :O
En zelfs als je zegt: "Maakt mij niet uit, heb toch maar één monitor", je gaat je dan wel afvragen wat er verder nog meer aan de hand is met hun drivers.
I got three...
Ouch!
5.5 uur per dag gamen gedurende 5 jaar. Nu niet echt een gebruikelijk scenario.
Inderdaad. En dat moeten dan ook games zijn die je videokaart zwaar aan het werk zetten.
Als je dan tussendoor ook nog wel es wat minder vereisende spellen speelt klopt de berekening ook al niet meer.
Bij gelijkblijvende energieprijzen.
DLSS3 = stront tussen je frames net zoals tvs van 10 geleden dat deden. Nee dank je, ik hoef geen interpolatie.

RT: zoals Jelle in de video zegt: leuk om even aan te zetten, maar uiteindelijk zet je het uit, want visueel is het verschil erg klein, en de impact op fps is enorm (en die impact wordt niet kleiner: bij de 4000 serie verlies je net zoals 2 generaties terug in de 2000 serie ongeveer 50% van je framerate).

CUDA: wordt in geen enkele game gebruikt, dus voor de meeste consumenten. Uitermate irrelevant.


Zoals ik op vorige artikelen al zei: het is erg vreemd hoe mensen deze punten telkens weer opnoemen terwijl de realiteit aantoont dat dat slechts niche toepassing zijn die de gemiddelde consument niet gebruikt. Uiteindelijk draait het oh altijd om raster performance, tegen de tijd dat RT er echt toe doet is je 4000 serie kaart echt niet meer relevant.
Raytracing, betere professional software support etc zijn toch zeer sterke redenen.

Die 10GB is overigens helemaal geen probleem.
Nee dat is wat individueel relevant is. Dus voor de een, de enigste keuze en voor de ander heeft meer keuze.
Verkondig het dan niet als een feit.
Wellicht als games het enige zijn wat je doet op je PC maar wanneer je bijvoorbeeld bezig bent met 3d, renderen of AI dan is er eigenlijk geen enkele serieuze keuze buiten nVidia. Vrijwel alle software/tools zijn geoptimaliseerd voor nVidia en wanneer je bijvoorbeeld de CUDA cores in wil zetten voor andere taken/berekeningen dan biedt nVidia een heel scala aan gratis tools.
Helaas komen deze kaarten vanwege hun buitensporig idle verbruik in een multi-monitor setup bij voorbaat al niet meer in aanmerking:
https://www.techpowerup.c...radeon-rx-7900-xt/37.html

Het is te hopen dat AMD hier nog een driver update voor uitbrengt. Echter is, voor zover ik weet, de R390/R9 Fury generatie de laatste die niet een bovensporig verbruik hiervoor met zich meebracht.

@Trygve Omdat zeker onder Tweakers vaak met meerdere beeldschermen wordt gewerkt, is het misschien een goed idee even snel een twee monitor aan het systeem te hangen om dit ook expliciet in de Tweakers reviews mee te nemen.

Een idle verbruik van 80W wanneer je een extra beeldscherm aan je GPU hebt hangen, zal afgezien van de hogere stroomrekening ook niet meer passief te koelen zijn.
Bij laptops kan je switchen naar IGPU, jammer dan het bij desktops niet kan..
Laptops hebben hier dan ook een hardware onderdeel voor die het ingebouwde beeldscherm kan switchen tussen de igpu en dgpu. Die zogenaamd fysiek de connectie om.

Meestal als ze een hdmi poort hebben voor externe monitoren zit die wel direct op de dgpu aangesloten zonder mogelijkheid om die via de igpu aan te sturen.

Dat ben ik gaan onderzoeken toen ik me afvroeg waarom mijn hdmi poort het niet deed als ik in linux mijn dgpu op disabled had staan. Het is blijkbaar heel normaal
Als ik het destijds goed gelezen heb is dat wel een AM5 feature. Helaas hebben zowel Tweakers als Techpowerup op AM4 of Intel getest.

Ik hoop in ieder geval dat het een oplossing kan bieden of dat AMD middels de drivers het verbruik de kop in kan drukken.
Je kunt zover ik weet met 13th gen ook gewoon je monitor op het moederbord aansluiten met een dgpu erin en dat ie die gewoon gebruikt. Vorige week ook een paar keer geprobeerd en dat ging prima.
Ja maar dan draait hij altijd op je igpu, en nooit op je dgpu zover ik weet. Dus niet dat je dan desktop werk op igpu doet en spellen op de dgpu.
rsnubje Testlabcoördinator @Sissors13 december 2022 09:31
Nee hoor, had in de games gewoon fps zoals met de videokaart zelf.
Dit doet mijn GTX 1080 default ook gewoon. Als je een tweede monitor aansluit weigert hij naar idle state te gaan en blijft hij 1200-1700 MHz draaien en warm worden. Ik heb ooit een of ander tooltje geinstalleerd die specifiek hiervoor is gemaakt waarin je kunt customizen bij welke 2D en 3D load de kaart uit idle mag komen

Dus ik ben het zeker met je eens dat een multimonitor idle test zeer nuttig zou zijn, maar ik denk niet dat de resultaten per se zo zullen zijn als jij schetst

Dat het niet passief te koelen is maakt mij niet uit. Ik zet die 0 fan mode per definitie uit. Gewoon altijd minimaal 5% dutycycle. Daar merk je in geluid helemaal niets van, maar het scheelt je sowieso meer dan 10 graden idle.
Ik test het met iedere nieuwe gpu altijd even. in de avond als het stil is thuis zet ik even met het handje de duty cycle steeds 1% hoger totdat ik hem kan horen veranderen. Dan zet ik hem weer 1 of 2% terug en dat wordt het minimum percentage

Om dezelfde redenatie hebben bequiet voedingen bijvoorbeeld ook geen semipassieve fan, maar draait hij gewoon heel langzaam bij lage load

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:34]

Maar als je gpu idle 80W verbruikt zal een minimale snelheid mogelijk ook niet afdoende zijn. Afgezien daarvan dat zoiets een serieus verschil maakt op de jaarrekening als je je PC ook voor kantoorwerk gebruikt zo’n 1600 uur op jaarbasis.

Dat scheelt gerust een kWh of 100 even snel gerekend.

Mijn ervaringen met tools om verbruik van AMD kaarten te drukken zijn met m’n R9 niet erg positief. Die wordt bij de geringste aanpassing overigens al instabiel. Vandaar dat een officiële correctie voor mij wel wenselijk is. Maar dat terzijde. Het is wel een goed alternatief en goede tip :)
Misschien even kijken of anderen er al een oplossing voor hebben. Ik had er ook last van. Mijn GTX 1080 liep 50-60 watt idle. Nvidia inspector geinstalleerd, multi display power saver aangezet en hoppa, 13 watt. Stukken beter.

80 watt is voor de gemiddelde gpu koeler piece of cake. Een 6800-6800XT bijvoorbeeld trekt meer dan 250 watt onder load. Een schamele 80 watt kunnen ze prima geruisloos koelen. De meeste aardige kwaliteit AIB kaarten zijn al bijna onhoorbaar tijdens het gamen. Dan kunnen ze echt wel op minimaal toerental 80 watt aan.

[Reactie gewijzigd door youridv1 op 22 juli 2024 13:34]

staat wel niet bij met welke multimonitor setup dit getest is en in hoeverre deze monitors op elkaar afgesteld zijn.

op mijn 6800XT had ik dat probleem ook tot ik 2 * monitor met zelfde resolutie (4k) en refresh rate (144hz) eropzet en het was opgelost... weet dus niet of het aan refresh rate ligt of aan resolutie.

het is wel een pak hoger verbruik dan de 6000 serie idle met dit probleem...

[Reactie gewijzigd door d3x op 22 juli 2024 13:34]

Als dat de oplossing is, dan worden Nvidia GPU's ineens relatief een flink stuk goedkoper. Daarnaast is er, zeker voor niet-gaming doeleinden, vaak sprake van een asynchrone setup natuurlijk. Is het niet vanwege het gebruiken van een oudere monitor als secundair scherm, dan wel omdat de ene in landscape en de ander in portrait modus staat.

Maar je hebt gelijk, die nuance dient wel gemaakt te worden, er zijn mensen waar dat natuurlijk de situatie is.
combinatie van oude monitor, kleuren afstelling en verschillende pixel size ga je je enkel toch maar irriteren op de verschillen en het windows ongemak.... ;)

[Reactie gewijzigd door d3x op 22 juli 2024 13:34]

Dat is geen normale OCD maar OC’D OCD :+
Dit doet mijn 1070 ook anders. Al is daar een Quick fix voor. Maar loopt hij warm te draaien en hoge clocks terwijl hij niks doet.
Dus denk AMD het wel fixt met een drivers.
Interessant, want mijn 1070 doet dat niet. Ik zit nu in dual monitor set-up en hij verbruikt ongeveer 10 watt en de gpu clocksnelheid is 139mhz. Ik heb hier ook nooit problemen mee gehad
Met de huidige prijzen is dat imo zeker wel iets dat ze even aan de test of iig aan de conclusie zouden moeten toevoegen.
Helaas komen deze kaarten vanwege hun buitensporig idle verbruik in een multi-monitor setup bij voorbaat al niet meer in aanmerking:
Komt snel een update voor, is al aangekondigd.
Dit is een driver issue en bevestigd door AMD. Hier wordt aan gewerkt en wordt door middel van een patch opgelost.

Zie de review van LTT op YouTube.
Haha in mijn appartement gaat de kachel ook al amper aan. Stadsverwarming verbruik is bij on bijzonder laag. Dit jaar is het wel lang leven de vega 64, de gratis elektrische kachel!
Ondanks dat de prijs prestatie verhouding qua Raster Prima is heeft AMD wat mij betreft wel een beetje de plank mis geslagen.
Ze laten mooie presentaties zien met 50-70% prestatie winst vervolgens is het eerder 35-40% en worden die hogere prestaties alleen enigszins met RT gehaald. In het verleden waren AMD presentaties nog te geloven en kreeg je ook echt wat je in die slides zag. Maar nu zijn ze dus gigantisch aan het cherry picken geweest en komt het resultaat niet in de van de beloofde waardes in de presentatie. Helaas gaan ze dus ook met dit soort dingen meer de kant van nVidia op. Erg jammer want je hebt hier helemaal niets aan. Consumenten komen er toch wel achter als ze maar een review lezen.

Een beetje jammer want op deze manier verpest je het vooral voor jezelf. Voortaan dus ook bij AMD niets meer van de marketing slides geloven.

Dan over het resultaat. Een erg magere winst tov de 6950XT gezien dit een hele nieuwe generatie is. Waar de 6900XT en 6950XT het nVidia in raster moeilijk konden maken lukt AMD dat nu nog helemaal niet. Sommige games doen het heel goed en dan zie je de potentie van de architectuur maar meestal komt dat niet naar boven. Of dat nu de Drivers zijn of toch wat nadelen van de eerste keer met chiplets werken zal de tijd leren.
Er gaan ook geruchten over een eventuele N31+ / respin die mogelijk hoger kan clocken. Of dat waar is zal de tijd ook leren maar deze resultaten vallen toch wel tegen na alle leaks en eigenlijk ook als je naar de spec's en het productie process kijkt. Ik had verwacht dat die kaart toch wat hoger zou gaan clocken. Pas als N32 uit komt kunnen we zien of er inderdaad wat mis was met de N31 opzet waardoor die minder hoog clockt of dat RNDA3 toch minder potent is dan gehoopt.

Al met al is het wel een upgrade maar qua prijs prestatie verhouding gaan we er niet heel veel op vooruit.
Ze laten mooie presentaties zien met 50-70% prestatie winst vervolgens is het eerder 35-40% en worden die hogere prestaties alleen enigszins met RT gehaald.
AL hun presentaties waren dan ook "tot" en ze halen dat gewoon. Misschien wou je het gewoon geloven maar dit was niet anders dan elke keer ervoor.
Dan over het resultaat. Een erg magere winst tov de 6950XT gezien dit een hele nieuwe generatie is.
De 6950XT is een pak boven de 7900 xtx als je appelen met appelen vergelijk is qua prijs de 7900 xtx de 6900xt van vorige generatie. EN daar zie je 50-100% winst mee in 4k/ultra wat heel mooi is qua winst tegen een gelijke prijs bij release.

vergelijken met de enorm veel duurdere 4090 is beetje absurd, de 7900 XTX scoort een pak beter dan de 4080 in raster en kost een pak minder. Als je dat niet goed genoeg vind ...
AL hun presentaties waren dan ook "tot" en ze halen dat gewoon. Misschien wou je het gewoon geloven maar dit was niet anders dan elke keer ervoor.
Klopt maar dit is wel marketing ten top natuurlijk tot 70% average maar 31-38% halen afhankelijk van de site die je leest.
Dat is wel heel wat anders dan het beeld van 50-70% wat ze schetsen in de presentatie want daar laten ze geen lagere scores zien.

De RDNA2 GPU's konden waar maken wat ze lieten zien in de slides en deden dat consistent in het merendeel van de games. Maar hier is het andersom. Dan is het af en toe een uitschieter waar de prestaties goed zijn. De Drivers of de chiplet strategie zijn duidelijk nog niet op orde. Ik neig nu nog wat meer naar driver issues en hopelijk kunnen ze de prestaties wat opkrikken.

Maar voorheen schetste AMD een realistisch beeld in presentaties van wat je gemiddeld kon verwachten. Dat is nu overduidelijk voorbij. Ik draag AMD al jaren lang een warm hart toe maar dit soort dingen keur ik gewoon niet goed. Ik snap niet waarom ze zich tot het niveau van nVidia moeten verlagen. Waarschijnlijk omdat ze het product zelf ook tegen vonden vallen en op meer gehoopt hadden?
De 6950XT is een pak boven de 7900 xtx als je appelen met appelen vergelijk is qua prijs de 7900 xtx de 6900xt van vorige generatie. EN daar zie je 50-100% winst mee in 4k/ultra wat heel mooi is qua winst tegen een gelijke prijs bij release.

vergelijken met de enorm veel duurdere 4090 is beetje absurd, de 7900 XTX scoort een pak beter dan de 4080 in raster en kost een pak minder. Als je dat niet goed genoeg vind ...
Die 100% is zeker met RT aan? Dat moet ook wel want daar liepen ze al zwaar achter.
En ik vind de vergelijking met de 6950XT zeker rieel. Hier zijn ze niet goed meer te krijgen maar in de USA wel voor prijzen die iets boven de 600 dollar. Gezien de prijzen van de nieuwe 7900 serie zijn die nog steeds relevant als je er een kan kopen.
De 6950XT is niets meer dan een 6900XT met wat sneller geheugen en meer Power headroom (van 300 naar 335 watt gegaan dus 11% meer). Het is dezelfde Navi 21 chip niet eens een nieuwe stepping of zo. Enige wat AMD heeft gedaan is er sneller geheugen op plakken en bepaalde memory bus voltages en SOC voltages verhogen. Daarnaast hebben ze wat interne clocks van de cache enz verhoogd en thats it. Het is geen nieuw product. En is toen qua prijs te hoog in de markt gezet omdat het kon omdat het toch wel ging verkopen voor die prijs. Dat zie je nu ook wel aan de verkoop prijzen die flink gedaald zijn. Alleen hier in de EU gaat het niet zo rap door andere factoren maar in de USA is de markt al weer een stuk normaler.

Als je puur naar Raster kijkt wat voor de meeste mensen nog steeds het belangrijkste is is de winst maar heel erg mager.

De 4080 is de slechtste kaart van nVidia in tijden. Niet omdat het een slecht product is maar omdat de prijs veel te hoog is. De 4090 rechtvaardigt zijn prijs omdat het de snelste kaart blijft en er is altijd een markt voor dat soort producten en er zijn dan altijd mensen die dat soort bedragen over hebben voor het snelste van het snelste.

Als je kijkt naar prijs performance en performance per watt kan de 7900XTX zich meten met de 4080 maar ook alleen maar omdat die 1200 euro kost. Als die 1000 zou zijn was dat duidelijk de betere keuze geweest. In Raster is hij te vaak maar even snel waar hij duidelijk had moeten winnen en qua RT prestaties zit de 7900 XTX meestal rond een 3090 of 3090 Ti en kan die de 4080 niet evenaren. De 4080 verbruikt een stuk minder voor vergelijkbare prestaties. En dat is vandaag de dag steeds belangrijk aan te het worden gezien de hoge kosten voor energie. Dan mag de aanschafprijs misschien lager zijn. Na 2 jaar kan je dan nog duurder uit zijn als je de kaart veel gebruikt. Elke wat kost nu op jaar basis 4-8 euro waar dat vroeg 2 was. En in en volgend jaar blijft dat waarschijnlijk 4-5 euro met dan aan het prijs plafond maar ik zie energie niet snel onder die prijs komen. Idle verbruik is veel hoger dan dat van de RDNA2 kaarten maar ook hoger dan dat van de RTX3000 en 4000 kaarten en het is nog maar de vraag of dat zo laag te krijgen is met de huidige chiplet setup.

Daarnaast zijn de review drivers niet helemaal in orde. Idle power gebruik met bepaalde monitoren is heel hoog. De fans's gaan niet uit. De fan ramp is niet optimaal. Allemaal zaken die bij RDNA2 @ launch wel op orden waren en we hebben het hier over een kaart die wel 1000 dollar gaat kosten en hier waarschijnlijk 1100-1200 euro. Ik mag hopen dat de launch drivers toch ietsjes beter zijn dan de review drivers maar ik vrees een beetje het ergste.

AMD was er met RDNA2 nog niet. En nu is RDNA3 in mijn ogen een stap achteruit qua kwaliteit en ook qua prestaties. Hun beste kaart meet zich met een GA103 die van nVidia en dat is dus niet eens de GA102. Daarnaast is de 4090 de cut down versie een Ti kan zo uitgebracht worden maar die noodzaak is er nu duidelijk nog niet.
Waar Navi 21 wel met de 3090 kon concurreren qua raster prestaties kan N31 dat niet bij de 4090.

Het is nu hopen op wat FineWine wat zou kunnen gezien de architectuur veranderingen maar dat is nooit een garantie. Ook is het hopen op een eventuele respin van Navi31 als N32 ineens veel hoger kan clocken. Wellicht kunnen ze er dan nog 15-20% hogere clocks uit persen bij een vergelijkbaar verbruik en het nVidia wat lastiger maken.

Maar overall ben ik wel teleurgesteld ja. Ik had op 50-60% prestatiewinst in raster gehoopt. Dan was het een hele mooie kaart geweest. Qua RT had ik al niet veel verwacht ik zat daar al te denken aan 3080 Ti - 3090 Ti prestaties en dat doet hij ook wel. Daarnaast vind ik RT ook niet zo belangrijk.
Maar als ze dan vervolgens maar rond de 35% laten zien terwijl hun presentaties ook duidelijk 50-70% wilde laten geloven ben ik wel teleurgesteld en vind ik 1000 dollar persoonlijk erg veel geld tov de huidige RDNA2 kaarten.

Het kan natuurlijk dat je het zelf anders ervaart en het wel een mooi product vind.
Maar ik had er meer van verwacht en vooral wat meer consistentie. Zoals gezegd in sommige games doet de kaart het inderdaad goed en haalt hij die 70% in andere games is het maar 20%. Gezien de spec's zou je dat gewoon niet verwachten.
Een N21 Die shrink naar 4nm met sneller geheugen zou ook die 20% winst kunnen boeken. Dus er gaat iets gewoon niet lekker in de architectuur of de drivers waardoor die prestaties per game zo wisselend zijn. RDNA2 was super Consistent en dat had AMD ook nodig want nVidia is dat al jaren.

Vergeet niet dat in tegenstelling tot de CPU markt AMD in de GPU markt al lang niet meer zo dichtbij is gekomen als met RDNA2. Ze hadden minimaal moeten zorgen dat het prestatie gat gelijk zou blijven. En liever wat inlopen / de 4090 verslaan want er komt nog een 4090 Ti. vervolgens kunnen ze de 4080 maar net aan. Dus de 4080 Ti, 4090 en 4090 Ti zullen allemaal sneller zijn dan de 7900XTX (tenzij AMD een wonder driver kan uitbrengen). En dat is een duidelijke achteruitgang.
Ook qua performance per watt doen ze het momenteel niet goed ook daar val RDNA3 tegen tov RDNA2 ja het is een vooruitgang maar niet zo goed als je van een 5nm product mag verwachten. En mogelijk zijn de chiplets daar wel de oorzaak. Maar je ziet dat nVidia hier echt voordeel heeft met hun monolithic 4nm design.

Ik ben in ieder geval klaar met AMD free passes geven omdat ze de underdog zijn. Ze staan er nu goed voor. Hebben meer geld dan ooit. En vragen ook veel hogere prijzen voor hun producten. Dan mag je ook wat kritischer zijn en er meer van verwachten.

[Reactie gewijzigd door Astennu op 22 juli 2024 13:34]

Klopt maar dit is wel marketing ten top natuurlijk tot 70% average maar 31-38% halen afhankelijk van de site die je leest.
Neen dat is niet correct: de 70% was specifiek in 1 benchmark, de rest van de cherry picked benchmarks gaven tot 50%. Toen ik die zag dacht ik "mooi dus kan je ergens tot zoveel verwahcten in bepaalde games" als je dan denkt dat het in alle games 50-70% is dan maak je jezelf gewoonweg iets wijs.
De RDNA2 GPU's konden waar maken wat ze lieten zien in de slides en deden dat consistent in het merendeel van de games.
Enkel als je specifiek dezelfde settings overnam en dat was het in andere games in veel gevallen minder. Hier hebben we geen settings en zelfs geen specifiek getal gewoon "tot x%" (wat ze de vorige keer ook zo vermelde trouwens maar dan met fps ) .
Die 100% is zeker met RT aan? Dat moet ook wel want daar liepen ze al zwaar achter.
En ik vind de vergelijking met de 6950XT zeker rieel. Hier zijn ze niet goed meer te krijgen maar in de USA wel voor prijzen die iets boven de 600 dollar. Gezien de prijzen van de nieuwe 7900 serie zijn die nog steeds relevant als je er een kan kopen.
Neen bepaalde games, maar idd met RT kom je op nog hogere waardes tov de 6900's, en wat ze kosten in de VS doet er weinig toe. Hie kost een 6900xt nog steeds 850-900 euro je moet vergelijken met wat er nu te koop is. De 4080 is duurder en in wat voor de meeste mensen belangrijk is : raster , trager en duurder. De 4090 is absurd duur, maakt weinig uit dat het de snelste kaart is de prijs maakt dat die zichzelf enkel voor de meest kapitaalkrachtige of "pro's" daar is. Het grootste deel vand e markt blijft iets zoals die xt 7900xtx en zelfs nog belangrijker : daar onder.

Tov de 4080 is deze 20% goedkoper frames/euro en neen het stroomverbruik is verwaarloosbaar hoger. Die 4-5 euro/wat is voor 24/7/365 , misschien belangrijker voor crypto maar niet voor een gamer.

En gezien nvidia smeltende stroomaansluitingen heeft en die nog steeds goed verkopen denk ik dat deze problemen veelal meevallen en ongetwijfeld opgelost worden. Maar idd dat zijn ook minputnen waar menr ekening mee moet houden.
Maar overall ben ik wel teleurgesteld ja. Ik had op 50-60% prestatiewinst in raster gehoopt. Dan was het een hele mooie kaart geweest. Qua RT had ik al niet veel verwacht ik zat daar al te denken aan 3080 Ti - 3090 Ti prestaties en dat doet hij ook wel. Daarnaast vind ik RT ook niet zo belangrijk.
Maar als ze dan vervolgens maar rond de 35% laten zien terwijl hun presentaties ook duidelijk 50-70% wilde laten geloven ben ik wel teleurgesteld en vind ik 1000 dollar persoonlijk erg veel geld tov de huidige RDNA2 kaarten.
4090 heeft 42% betere prestaties voor een smak meer geld dan de 3090 , 4080 32% weeral voor een smak meer geld dan de 3080, 7900 xtx 37% voor eenzelfde(infaltie meegerekend lagere) prijs als de 6800 xt.

Dat je dan nog veel meer prestatie vraagt tegen een log lagere prijs is een beetje absurd. Vergeleken met wat nvidia uitbracht is deze kaart gewoon beter geprijsd qua performance zelfs tegen de 4090 .

Het geld ligt niet in het high end segment, dat ligt vooral daaronder. High end is vooral om aandacht te krijgen en de mensne dan te doen geloven dat de lagere kaarten even goed zijn. 4080 en 4090 zijn absurd hoog geprijsd, dat amd daar niet mee meedoet is goed (en logisch ze zijn de underdog en moeten in princiepe wel) dit een flop noemen omdat ze alle achterstand niet kunnen wegwerken gaat veel te ver en weeral gaat eerder over dat je jezelf onrealistische verwachtingen aangepraat hebt dan iets anders.

Gezien de huidige prijzen en gezien de prestaties vind ik het alvast een goede kaart van AMD . De voornaamste concurent is hun eigen 6800 lijn , tegen dat die volleldig uitverkoicht is zal de opvolger in de 7x00 lijn daar ongetwijfeld zijn en bouwt die verder op deze prijs/prestaties.
Neen dat is niet correct: de 70% was specifiek in 1 benchmark, de rest van de cherry picked benchmarks gaven tot 50%. Toen ik die zag dacht ik "mooi dus kan je ergens tot zoveel verwahcten in bepaalde games" als je dan denkt dat het in alle games 50-70% is dan maak je jezelf gewoonweg iets wijs.
Als het nu 50% was geweest was het ook prima. Maar het is vaker veel minder tot zo laag als 15-20%. Gemiddeld is het slechts 31-38% afhankelijk van de review dat is ver onder de 50%.
Enkel als je specifiek dezelfde settings overnam en dat was het in andere games in veel gevallen minder. Hier hebben we geen settings en zelfs geen specifiek getal gewoon "tot x%" (wat ze de vorige keer ook zo vermelde trouwens maar dan met fps ) .
Daar deden ze ook geen vergelijking met een andere kaart als ik me niet vergis. Maar de cijfers die ze lieten zien kwamen overeen met de reviews. Alleen was de geteste scene soms wel anders waardoor je andere waardes had maar dat lag veel meer in lijn met de werkelijkheid dan de 50% die ze hier lieten zien en bijna nooit gehaald wordt. 50% is al cherry picked met de huidige drivers.
Neen bepaalde games, maar idd met RT kom je op nog hogere waardes tov de 6900's, en wat ze kosten in de VS doet er weinig toe. Hie kost een 6900xt nog steeds 850-900 euro je moet vergelijken met wat er nu te koop is. De 4080 is duurder en in wat voor de meeste mensen belangrijk is : raster , trager en duurder. De 4090 is absurd duur, maakt weinig uit dat het de snelste kaart is de prijs maakt dat die zichzelf enkel voor de meest kapitaalkrachtige of "pro's" daar is. Het grootste deel vand e markt blijft iets zoals die xt 7900xtx en zelfs nog belangrijker : daar onder.

Tov de 4080 is deze 20% goedkoper frames/euro en neen het stroomverbruik is verwaarloosbaar hoger. Die 4-5 euro/wat is voor 24/7/365 , misschien belangrijker voor crypto maar niet voor een gamer.

En gezien nvidia smeltende stroomaansluitingen heeft en die nog steeds goed verkopen denk ik dat deze problemen veelal meevallen en ongetwijfeld opgelost worden. Maar idd dat zijn ook minputnen waar menr ekening mee moet houden.
We weten nog niet wat ze hier gaan kosten. Het zou mij niet verbazen als de AIB versies richting de 1200-1300 euro gaan we zullen het straks zien. Want wat je zelf ook aanhaalt de prijs in amerika is niet de prijs hier. Dat ze daar een 7900 XTX voor 999 kunnen kopen is leuk maar wij moeten in euro's heel veel meer gaan betalen.

En stroomverbruik is zeker belangrijk. Ik ken genoeg mensen die hun pc meer dan 8 uur per dag gebruiken voor werk en savonds om weer te gamen. Die machines staan soms 12 uur aan. Idle verbruik telt dan ook. En als je regelmatig 2-4 uur per dag games speelt telt dat in 2 jaar ook op. En dan wordt het prijs verschil natuurlijk kleiner. Als je amper spelletjes speelt is het geen ding maar heb je dan wel zo'n dure kaart nodig? Dus het zal per gebruiker verschillen of het verbruik belangrijk is of niet.

Als AMD deze dingen kan oplossen en de prestaties kan verbeteren met nieuwe drivers is dat een ander verhaal. Maar op dit moment moet je de kaart beoordelen en vergelijken met de prestaties die je nu hebt. Misschien wordt het niet veel beter. Ik hoop van wel.
4090 heeft 42% betere prestaties voor een smak meer geld dan de 3090 , 4080 32% weeral voor een smak meer geld dan de 3080, 7900 xtx 37% voor eenzelfde(infaltie meegerekend lagere) prijs als de 6800 xt.

Gezien de huidige prijzen en gezien de prestaties vind ik het alvast een goede kaart van AMD . De voornaamste concurent is hun eigen 6800 lijn , tegen dat die volleldig uitverkoicht is zal de opvolger in de 7x00 lijn daar ongetwijfeld zijn en bouwt die verder op deze prijs/prestaties.
Klopt ik zeg ook niet dat de 4090 een goede prijs heeft. Echter is het wel desnelste kaart op dit moment en vaak zijn de beste en snelste CPU's en kaarten of Auto's gewoon verschikkelijk veel duurder. Daar moeit je nooit voor kiezen als je op zoek bent naar de beste prijs prestatie verhouding.

Ik weet niet of het onrealistische verwachtigen zijn nVidia kon ook de 4090 maken. Waarom zou AMD dat niet kunnen? Ze zijn voor chiplets en een relatief kleine GCD gegaan ipv een grote single chip op 5nm. En dat pakt nu gewoon niet goed uit qua prestaties. Wellicht zijn die dingen dirty cheap en hebben ze nu giga marges. Maar puur naar prestaties kijkende zijn ze nu een tier achteruit gegaan tov de RX6000 vs RTX3000 lineup.

De 7900XTX is tov de toch al te dure nVidia kaarten geen slechte keuze. Maar het is wel een minder goed afgewerkt product gezien de Coilwhine, het hoge idle verbruik en de luidruchtige fan's. Ook dit is iets wat bij RDNA2 veel beter voor elkaar was. RDNA2 is idle veel zuiniger dan de 3000 en 4000 kaarten maar de 7000 kaarten van AMD zitten nog boven de 4000 kaarten.
En die dingen + de beperkte prestatie winst tov de 6900XT en 6950XT voor wel iets van 1100-1200 euro vind ik geen geweldige deal nee. Het is niet slecht maar had gewoon veel beter kunnen zijn. Qua value for money ga je er tov RDNA2 niet op vooruit. En qua idle verbruik en geluid productie ga je er op achteruit.
Ik vind dat best dingen om over na te denken. Misschien is dat voor sommige mensen niet belangrijk. Maar voor mij persoonlijk is dat wel belangrijk.

Ik ga er overigens wel een testen (mits hij rond de 1100 euro blijft) omdat ik de afgelopen jaren ervaringen topic's op tweakers gemaakt heb met core clock / power scaling tests en dat wil ik deze generatie ook doen. Ik weet alleen niet of ik de kaart uiteindelijk ga houden of dat ik weer terug ga naar een 6800XT of 6950XT. Hopelijk kan AMD de nodige zaken via de drivers verbeteren. En vooral de games die nu weinig winst laten zien wat verder opkrikken.
Anders is een 2e hands 6800XT voor 525-575 gewoon interessanter gezien de huidige nadelen bij in ieder geval de referentie kaarten. (maar dat is mijn persoonlijke mening).

[Reactie gewijzigd door Astennu op 22 juli 2024 13:34]

Als het nu 50% was geweest was het ook prima. Maar het is vaker veel minder tot zo laag als 15-20%. Gemiddeld is het slechts 31-38% afhankelijk van de review dat is ver onder de 50%.
Omdat je andere games erbij haalt dan die AMD liet zien. Nogmaals dat komt omdat je droomede van 70% beter overal wat imho absurd is. Zo een sprongen maken generaties niet, niet amd en niet nvidia.
Gezien wat nvidia deed is wat amd deed gelijkaardig, beter dan de 4080, minder dan de 4090 met als verschil dat bij beide ook de prijs naarboven ging en bij AMD niet.
Daar deden ze ook geen vergelijking met een andere kaart als ik me niet vergis.
Jawel hoor en ook met de "up to". Hebben ze nu iets harder ge cherrypicked ? Waarschijnlijk wel, dan afronden en met de grafieken die je toonde en sommige beginnen te dromen dat AMD tegen de helft van de prijs een 4090 op de mark zet. Ik kan je zeggen dat dit nooit zal gebeuren .
We weten nog niet wat ze hier gaan kosten. Het zou mij niet verbazen als de AIB versies richting de 1200-1300 euro gaan we zullen het straks zien. Want wat je zelf ook aanhaalt de prijs in amerika is niet de prijs hier. Dat ze daar een 7900 XTX voor 999 kunnen kopen is leuk maar wij moeten in euro's heel veel meer gaan betalen.
Ik vergelijk wat we momenteel kunnen vergelijken, en idd gezien een 4080 hier al 1400-1500 euro kost zal de 7900xtx ergens tussen de 1100-1300 vallen vermoed ik. Hoe dichter tegen de 1400 hoe onaantrekelijker de kaart natuurlijk word. Stroom verbruik is echt geen issue, 3080 vebruikt ook dubbel zoveel in idle als een 6800 geen haan die ernaar kraaide.
Idle zonder meerdere monitors verbruikt de 7900 xtx trouwens veel minder tov de 4080/4090 : 11wat tegen 14/22 watt. Ziende dat 2-4% multimonitor is maakt dit weinig uit, en zoals al gezegd waarschijnlijk een bug die men wel oplost .
De 7900XTX is tov de toch al te dure nVidia kaarten geen slechte keuze. Maar het is wel een minder goed afgewerkt product gezien de Coilwhine, het hoge idle verbruik en de luidruchtige fan's. Ook dit is iets wat bij RDNA2 veel beter voor elkaar was. RDNA2 is idle veel zuiniger dan de 3000 en 4000 kaarten maar de 7000 kaarten van AMD zitten nog boven de 4000 kaarten.
En die dingen + de beperkte prestatie winst tov de 6900XT en 6950XT voor wel iets van 1100-1200 euro vind ik geen geweldige deal nee. Het is niet slecht maar had gewoon veel beter kunnen zijn. Qua value for money ga je er tov RDNA2 niet op vooruit. En qua idle verbruik en geluid productie ga je er op achteruit.
Ik vind dat best dingen om over na te denken. Misschien is dat voor sommige mensen niet belangrijk. Maar voor mij persoonlijk is dat wel belangrijk.
Kost per frame is de 7900xtx 15% lager dan de 6950xt en is de 4080 12% duurder tov de 3080

idle verbuik is (die bug niet meegerekend) een paar watt hoger dan de vorige generatie en nog steeds lager dan wat nvidia heeft (daar ben je fout in) . Geluid is lager dan bij de 6950 xt en luider dan de 6900/6800 maar de temeprturen zijn beter, ongetwijfeld als de de fans wat terugdraait je op iets gelijkaardig uitkomt als de vorige generatie.

En idd iets om bij na te denken als je deze koopt maar valt al bij al echt wel mee imho.

https://www.digitaltrends...00-xtx-rx-7900-xt-review/
https://www.techpowerup.c...radeon-rx-7900-xt/37.html
https://www.techspot.com/...%20%241%2C200%203080%20Ti.
https://www.tomshardware....ew-shooting-for-the-top/8
Omdat je andere games erbij haalt dan die AMD liet zien. Nogmaals dat komt omdat je droomede van 70% beter overal wat imho absurd is. Zo een sprongen maken generaties niet, niet amd en niet nvidia.
Gezien wat nvidia deed is wat amd deed gelijkaardig, beter dan de 4080, minder dan de 4090 met als verschil dat bij beide ook de prijs naarboven ging en bij AMD niet.
Ik heb het ook niet zo zeer over 70% maar vooral die 50% die wordt ook gewoon bijna niet gehaald. HWU heeft behoorlijk wat games getest. TPU ook en daar zie je hetzelfde zelfs die 50% is gewoon vaak niet haalbaar.
Jawel hoor en ook met de "up to". Hebben ze nu iets harder ge cherrypicked ? Waarschijnlijk wel, dan afronden en met de grafieken die je toonde en sommige beginnen te dromen dat AMD tegen de helft van de prijs een 4090 op de mark zet. Ik kan je zeggen dat dit nooit zal gebeuren .
Nee met de 50-70% terwijl het gemiddelde op de 35% ligt. Stop er dan ook gewoon een paar games van rond de 35% in om een realistisch beeld te krijgen. Nu hebben ze alleen de beste resultaten gepakt. En dat is cherry picking ja. Dat ze de resultaten van 20% niet laten zien kan ik mij nog iets bij voorstellen al was dat wel beter geweest dan ben je gewoon eerlijk over je product. En dan zou niemand teleurgesteld zijn bij de reviews. Je kan dan ook prima de 50-70% resultaten laten zien dan krijg je gewoon een beter totaal plaatje. Nu krijg je alleen het rooskleurige plaatje.
Ik vergelijk wat we momenteel kunnen vergelijken, en idd gezien een 4080 hier al 1400-1500 euro kost zal de 7900xtx ergens tussen de 1100-1300 vallen vermoed ik. Hoe dichter tegen de 1400 hoe onaantrekelijker de kaart natuurlijk word. Stroom verbruik is echt geen issue, 3080 vebruikt ook dubbel zoveel in idle als een 6800 geen haan die ernaar kraaide.
Idle zonder meerdere monitors verbruikt de 7900 xtx trouwens veel minder tov de 4080/4090 : 11wat tegen 14/22 watt. Ziende dat 2-4% multimonitor is maakt dit weinig uit, en zoals al gezegd waarschijnlijk een bug die men wel oplost .
1165-1199 is de daadwerkelijke prijs geworden.
Ik kraai wel naar het idle verbruik. Ik zal een van de weinige zijn. Al heb ik meer mensen gezien die het belangrijk vinden.
Kost per frame is de 7900xtx 15% lager dan de 6950xt en is de 4080 12% duurder tov de 3080

idle verbuik is (die bug niet meegerekend) een paar watt hoger dan de vorige generatie en nog steeds lager dan wat nvidia heeft (daar ben je fout in) . Geluid is lager dan bij de 6950 xt en luider dan de 6900/6800 maar de temeprturen zijn beter, ongetwijfeld als de de fans wat terugdraait je op iets gelijkaardig uitkomt als de vorige generatie.

En idd iets om bij na te denken als je deze koopt maar valt al bij al echt wel mee imho.
Multi monitor @ 85 watt moet wel echt opgelost gaan worden tho.
Zou kunnen de 6950XT kan stock erg luid zijn die cooler is identiek aan die van de 6900XT en die koelers kunnen prima met 300 watt omgaan maar bij meer zijn ze niet zo stil meer. Het verschilt wel een beetje van kaart tot kaart. Sommige hadden hogere hot spot temps en die fan's waren dan ook een stuk luider. Je kan die resultaten zien in het Navi 2X ervaringen topic ik heb echt veel 6800XT, 6900XT en een paar 6950XT kaarten getest.

Des al niet te min is een luidere fan tov de 6900XT jammer. En gezien de temps hadden ze de fan curve ook iets aan kunnen passen maar dat geef je zelf ook al aan. Ik snap alleen niet waarom AMD dat dan zelf niet doet. Want ze weten na vele jaren hoe belangrijk mensen geluidproductie vinden.
CODMW2 : +45% slide : 50%
Legion (vind enkel met raytacing terug) : +55% slide (zonder RT) : 50%
Cyberpunk +59% slide: +70%
Metro exodus : +55% slide : +50%
...

Zonder twijfel kan je met de juiste settings die waardes van AMD verkrijgen.
Zijn deze titels representatief? Tja, heel populaire recente games en natuurlijk pakt AMD er de beste uit, dat is toch echt maar logisch. Ze hadden zelfs kunnen beweren sneller te zijn dan de 4090 want dat gebeurt ook heel af en toe.

Het is dan toch echt aan jou dat jij ervan maakt dat deze een gemidelde zijn terwijl AMD dat nooit gezegd heeft.
1165-1199 is de daadwerkelijke prijs geworden.
Ik kraai wel naar het idle verbruik. Ik zal een van de weinige zijn. Al heb ik meer mensen gezien die het belangrijk vinden.
Wat dus 250 euro minder is dan nvidia (of 4080 is 22% duurder), voor betere performance in rasterization kan je toch echt geen slecht resultaat noemen voor algemeen gamen met deze kaart.

Als over idle : nogmaals dat is louter voor multi monitor, alle andere gevallen vebruikt die veel minder dan een 4080 laat staan 4090 wat volgens jou het verschil dus nog veel groter zal maken qua prijs.

Zelfs voor geluid en waremte: als je die links hierboven ziet is het duidelijk dat AMD hun kaarten agressiever koelt om legere temperaturen te krijgen tegen meer lawaai. Brengt die temperatuur naar iets gelijkaardig die 6800/6900 heeft en qua lawaai zullen die niet verschillen. Logisch ze verstoken ongeveer
evenveel en de koelers zijn heel gelijkaaardig.

Dat de formfactor hetzelfde is en niet enorm absurd groot en je niet moet gaan klooien met andere stroomkabels zijn enkel voordelen voor AMD.
CODMW2 : +45% slide : 50%
Legion (vind enkel met raytacing terug) : +55% slide (zonder RT) : 50%
Cyberpunk +59% slide: +70%
Metro exodus : +55% slide : +50%
...

Zonder twijfel kan je met de juiste settings die waardes van AMD verkrijgen.
Zijn deze titels representatief? Tja, heel populaire recente games en natuurlijk pakt AMD er de beste uit, dat is toch echt maar logisch. Ze hadden zelfs kunnen beweren sneller te zijn dan de 4090 want dat gebeurt ook heel af en toe.

Het is dan toch echt aan jou dat jij ervan maakt dat deze een gemidelde zijn terwijl AMD dat nooit gezegd heeft.
Dit zijn echt de beste resultaten. Zullen we er nog een paar bij gaan pakken?
https://static.techspot.c.../2588/bench/FH5_4K-p.webp
https://static.techspot.c.../2588/bench/ToW_4K-p.webp
https://static.techspot.c.../2588/bench/HZD_4K-p.webp
https://static.techspot.c...2588/bench/Halo_4K-p.webp

En dit zijn ook geen onpopulaire titels.
Ik ben het met MLID eens. het zou goed kunnen dat ze verwacht hadden in meer games die 50-70% te kunnen halen maar toch tegen te veel issues aan gelopen zijn. Want zoals gezegd is de range groot waar de 6950XT tov de nVidia kaarten heel consistent is qua prestaties gaat de nieuwe 7900 serie alle kanten op. Dus iets zit duidelijk niet lekker.

Maar in het verleden deden ze dit:
https://cdn.videocardz.co...T-vs-GeForce-RTX-3080.jpg
https://cdn.videocardz.co...AMD-Radeon-RX-6900-XT.jpg

En ja dit was ook rooskleuriger want Rage mode stond aan en SAM ook waardoor de Radeon kaarten wat sneller waren. nVidia had toen nog geen Rebar. Maar toen de reviews uit waren klopte de positionering wel:
https://www.techspot.com/review/2160-amd-radeon-6900-xt/
https://static.techspot.c...2160/bench/Cost_1440p.png
https://static.techspot.c...2160/bench/Cost_2160p.png

Je moet wel even naar de AVG FPS kijken maar het werd waar gemaakt. De slides waren te geloven.
Ik ben het helemaal met MILD eens hij denkt er hetzelfde over als ik: https://www.youtube.com/watch?v=351H7F0QoKE

AMD heeft een maand terug gewoon een te mooi plaatje laten zien. En om eerlijk te zijn zo gek was het niet om 50-70% te verwachten. Kijk naar de spec's geheugen bandbreedte is gigantisch gestegen. Het aantal CU ook al tel je ze enkel is ook flink omhoog gegaan alle spec's laten eigenlijk zien dat het een kaart was die dat soort performance targets had kunnen halen. Maar ergens gaat er iets mis.

Ik had liever gezien dat AMD dan maar een slechter beeld had laten zien bij het presentatie event. En dan vervolgens misschien met betere drivers komen die er voor zorgen dat de reviews betere scores halen. Pak er maar gewoon gerust een paar games bij waar het verschil maar 20-30% is tov de 6950XT. Dan had je nu gewoon geen teleurstellingen gehad. Had je de drivers kunnen fixen was het alleen maar mooi geweest. Maar hier heb je niets aan. Het enige waar je nu voor zorgt is dat mensen de presentaties van AMD niet meer zullen geloven. Zullen denken van ah dit is wat je kan halen in een paar games maar overal zal het dus maar de helft of 1/3e zijn van wat je ziet.

Ze hadden heel veel good wil ze waren het enige bedrijf wat een beetje te vertrouwen was qua marking presentaties omdat ze nog wel eens lagere resultaten in de slides hadden staan dan wat er uit kwam. En zo niet dan kwamen ze zo dichtbij dat het aan test systemen en settings zou kunnen liggen.

Maar ook bij RDNA2 zag je al trucjes in de presentatie komen zoals Rage mode ON en SAM enabled.
En recenter dingen met FSR aan en geen native resultaten laten zien. En dat is jammer. Het is niet nodig. Consumenten en reviewers waren juist blij dat AMD het anders deed dan Intel en nVidia. Maar nu gaan ze steeds meer die kant op. En dat vind ik gewoon jammer.

Daardoor krijgt een product wat nog steeds prima is een beetje een zure na smaak die niet nodig was geweest als ze gewoon wat meer verschillende games en die resultaten hadden laten zien. In AMD's review guide staat zelfs dat de gemiddelde prestatie verschillen tussen de 6950XT en de 7900XTX 38% zijn met 4K wat de meest ideale situatie is voor de 7900XTX. Waarom zet je dat dan niet in je slide als je dat weet?
Mensen komen er toch wel achter want de reviews komen er toch wel. Dan kan je er beter maar vooraf eerlijk over zijn.
Wat dus 250 euro minder is dan nvidia (of 4080 is 22% duurder), voor betere performance in rasterization kan je toch echt geen slecht resultaat noemen voor algemeen gamen met deze kaart.

Als over idle : nogmaals dat is louter voor multi monitor, alle andere gevallen vebruikt die veel minder dan een 4080 laat staan 4090 wat volgens jou het verschil dus nog veel groter zal maken qua prijs.

Zelfs voor geluid en waremte: als je die links hierboven ziet is het duidelijk dat AMD hun kaarten agressiever koelt om legere temperaturen te krijgen tegen meer lawaai. Brengt die temperatuur naar iets gelijkaardig die 6800/6900 heeft en qua lawaai zullen die niet verschillen. Logisch ze verstoken ongeveer
evenveel en de koelers zijn heel gelijkaaardig.

Dat de formfactor hetzelfde is en niet enorm absurd groot en je niet moet gaan klooien met andere stroomkabels zijn enkel voordelen voor AMD.
De 4080 is gewoon een waardeloze kaart. Tov die kaart zijn de prestaties ook prima. Ik heb ook niet gezegd dat het dat niet is. Ik snap alleen heel slecht waarom AMD dit een 7900XTX heeft genoemd en niet 7900 (zonder XT) Qua prestaties had dat beter geklopt of nog beter 7800XT laat de ruimte over voor een kaart die daadwerkelijk de concurrentie aan kan met de 4090.

En vergeet gewoon niet dat de 4080 insane slecht is qua prijs prestatie verhouding. Die dingen liggen niet voor niets overal in de schappen. Mensen gaan niet voor niets voor 3000 kaarten of voor de 4090.
Hier NL hebben we niet veel keuze maar ook in NL komt een 6950XT voor 849 euro nieuw best dicht in de buurt van de 7900XT qua prijs prestatie verhouding. In de USA is het momenteel een betere keuze @ 630 dollar dat is geen ideaal plaatje. Tov de 7900XT wint de 6950XT het zelfs qua prijs prestatie verhouding @ 849 euro.

Begrijp me niet verkeerd. Het is geen totaal waardeloos product. Maar AMD had het zo veel beter kunnen doen. Ook met de middelen die ze hadden. De drivers en de fan curve als voorbeeld. Geef gewoon toe mensen het zit een beetje tegen we hebben meer tijd nodig.
Ik had ook gewoon graag gezien dat die kaarten wat volwassener waren. Niet zo zeer voor mij want ik werk er als tweaker wel omheen en vind het niet erg om met MPT en wattman aan de slag te gaan. Maar als je dan een standaard gebruiker hebt die normaal nVidia had en dan AMD een keer probeert. Die vervolgens herrie hoort, slechte prestaties ziet in sommige spellen die hij of zij speelt of crashes krijgt. zal dan denken nVidia was echt beter laat ik maar weer terug gaan.

Ik heb het al te vaak gelezen. Vooral ten tijden van de 5700XT waar blackscreen een probleem waren.
Dit is natuurlijk minder erg. Maar wil je mensen echt over halen. En in jou kamp houden zul je het echt heel goed moeten doen.

En ik wil dat ook graag zien. Ik wil graag dat de markt beter in balans gaat komen dat nVidia niet 80% of hoger in handen heeft want dat is niet goed voor ons als consument.

Maar dan is het jammer als er van dit soort dingen mis gaan. En sommige van deze dingen zoals de afstelling van de Fan's of coilwhine hadden voorkomen of verder beperkt kunnen worden tijdens het ontwikkel proces. Dus ik zeg dit juist van uit passie niet om maar zonder goede onderbouwing AMD zwart te maken.
Dit zijn echt de beste resultaten. Zullen we er nog een paar bij gaan pakken?
Dit was als commentaar op "ze halen zelfs niet de 1.5-1.7" dat doen ze dus wel .
Ja er zijn andere titels die minder winst laten zien dat veranderd niks dat we ze toonde wel klopt volgesnde reviews.
Ik ben het met MLID eens. het zou goed kunnen dat ze verwacht hadden in meer games die 50-70% te kunnen halen maar toch tegen te veel issues aan gelopen zijn. Want zoals gezegd is de range groot waar de 6950XT tov de nVidia kaarten heel consistent is qua prestaties gaat de nieuwe 7900 serie alle kanten op. Dus iets zit duidelijk niet lekker.
Zou misschien kunnen, kan je moeilijk nu rekening mee houden. Is pure speculatie.
Maar in het verleden deden ze dit:
https://www.pcworld.com/a...-smart-access-memory.html

Bevat ook veel "up to" dat is iets wat amd en nvidia altijd gebruiken . En zoals aangetoond die 1.5 en 1.7 klopt gewoon.
AMD heeft een maand terug gewoon een te mooi plaatje laten zien. En om eerlijk te zijn zo gek was het niet om 50-70% te verwachten. Kijk naar de spec's geheugen bandbreedte is gigantisch gestegen. Het aantal CU ook al tel je ze enkel is ook flink omhoog gegaan alle spec's laten eigenlijk zien dat het een kaart was die dat soort performance targets had kunnen halen. Maar ergens gaat er iets mis.
Dat was het wel, gemiddeld 60% winst zou bijna ongeevenaard zijn, en dan nog eens bakken goedkoper dan nvidia? Sorry men zegt altijd als iets te mooi is om waar te zijn ...

De performance winst van de 7000 series is on par met winsten ervoor en zelfs een pak hoger in RT. Je blijft praten over teleurstellingen, wat uitmaakt is wat mensen kopen en in dat opzicht is voor deze prijs de 7900 XTX gewoon de betere keuze. Het is dat of ultra high end gaan met compleet van de pot gerukte prijzen.

"mensen niet meer amd geloven" die paar reviewers maken weinig uit, wat wel uitmaakt is dat die overal ten ontrechte liggen zeggen dat de cijfers niet klopte, doen ze wel enkel niet voor alle games. Dat het gemiddelde maar tegen de 40% is en niet 50% is maakt darin weinig uit, in RT klopt dit wel trouwens daar was amd gewoon correct.
Maar AMD had het zo veel beter kunnen doen. Ook met de middelen die ze hadden.
Is beetje absurd, AMD weet zelf wel gerust hoe hun bedrijf te runnen. ERr is weinig reden voor AMD om zichzelf te benadelen. Tegen dat deze kaarten in mensen hun handen zitten zijn die handvol bugs er heus wel uit, reviewers zijn soms daarin veel te voortvarend en zoeken gewoon issues om toch maar aandacht te krijgen . Het kabel debacle van nvidia is het beste voorbeeld, uiteindelijk was het gewoon user error nadat reviewers mensen bang lagen te maken dat hun huis ging afbranden.

Het is en blijft gewoon momenteel de beste kaart in dat prijs segment "het had beter gekund" tja het kan altijd beter, geen enkele kaart is ooit perfect. Doen alsof dit zo eenvoudig is is gewoon verkeerd.

Soit het onderste segment is het belangrijkste we zullen zien wat AMD en nvidia daarin brengen.
We gaan het er duidelijk niet eens over worden.
Onze meningen verschillen gewoon en dat mag.

Ik vind het zelf een beetje onnodig om @ launch zo veel bugs in de kaart te hebben zitten. Zeker als de kaart dan ook nog eens 1000 euro kost. Dat geld ook voor nVidia. Die power connector problemen zouden ook niet mogen gebeuren die had ook beter ontworpen moeten worden.
Idd die "bugs" zijn veelal iets persoonlijk voor jou en maken weinig uit voor de meeste of komen zelfs niet veelvuldig voor, performance en prijs is daar dat is het belangrijkste voor de meeste.
En nu worden de xtx aangeboden voor 1.499 bij Alternate 😂
Yeah winkels gaan nu aan het scalpen omdat ze populair zijn :'(
Het is volgens hardware unboxed de beste price to performance op MSRP op dit moment. Bizar dat een flagship deze titel heeftil, ze verleiden mij bijna tot koop.

Maar daar waren ze er ook al negatief over de kaart. Ik ben juist onder de indruk dat mn voorspelling daarover klopte.

Alleen energyverbruik valt beetje tegen. Dat was ook echt beter voorspelt vs 4080. Ben benieuw hoe ze downscalen in lagere wattages.

[Reactie gewijzigd door SactoriuS op 22 juli 2024 13:34]

Er zijn altijd negatieve zaken op te merken, er zijn weinig kaarten die perfect zijn.
Het feit blijft dat high end is dit de beste kaart die er momenteel is voor de meeste gamers.
Waar heeft u het over??
Die prijzen beginnen ook gewoon echt absurd te worden, ik ga niet meer beginnen aan NVidea. Ik heb heel lang getwijfeld om mijn 1080 Ti te gaan upgraden naar een 3/4000-series of de 7900 XTX, uiteindelijk vanwege de kosten maar niet gedaan i.v.m. de hogere prijzen tegenwoordig.

Uiteindelijk heb ik halverwege November een mooie 6900 XT kunnen bemachtigen bij Azerty voor slechts 731 euro. En ook de prijs van deze kaart fluctueert alweer rond de 1000 euro: uitvoering: ASUS TUF Gaming Radeon RX 6900 XT (Hoe snel kan het gaan met de prijzen).

[Reactie gewijzigd door Lt.Kraken op 22 juli 2024 13:34]

Gewoon niets meer kopen. Dat is de enige manier om de prijzen weer normaal te krijgen.
Zolang ik geen kaart meer kan kopen dat tussen de 200 en 300 euro kost waarmee je redelijk een nieuw spel kan spelen, game ik niet meer op de PC.

Dan gaan we wel over op een Xbox of steamdeck
U vraagt, wij draaien. De RX 6600, daar kan je prima nieuwe games op spelen. Voor slechts €269 is die voor jou. En met een beetje geluk krijg je met de nieuwe generatie nog meer bang voor je buck.

Desalniettemin ben ik het volledig met je eens: er zijn prima andere opties dan een nieuwe GPU kopen. Ik kan nog steeds alles spelen met mijn 1070 en die is tweedehands €175. Heck, met een goede APU kan je ook de tijd overbruggen.
Mijn 1070 recent overclocked en nu draait ie de meeste games op 1440p weer prima rond de 60fps. Zou het wat beter kunnen, sure, maar ik vind het de investering nog echt niet waard. Wellicht als de 7700 of 7600 uit komt en niet te veel kost...
En dan te bedenken dat het gaat om de adviesprijs hè. Leuk om te lezen dat jij ook eentje bent die nog net een 6900XT voor een zacht prijsje heeft kunnen bemachtigen: het is mij ook in november gelukt, namelijk 699€(!!!!) bij Megekko. Misschien was die prijs wel een fout van een algoritme want na mijn bestelling klom hij nagenoeg direct weer richting de 800€.
Edit: betreft die van AsRock.

[Reactie gewijzigd door HerasHackwerk op 22 juli 2024 13:34]

Die prijzen beginnen ook gewoon echt absurd te worden, ik ga niet meer beginnen aan NVidea.
Nvidia.. :) Ik zie veel comments hier over de hoge prijzen van de 4xxx Nvidia kaarten, maar let wel: je gaat met een dergelijk kaart waarschijnlijk wel 3 a 4 maal zo lang doen als je ooit met een videokaart hebt gedaan. let me explain;

DLLS 3.0 heeft frame interpolatie. Oftewel; in 2030 zul je ( hoe zwaar de games ook worden ) nog steeds op 120+ frames kunnen gamen. 4K zal nog heel lang het maximale mainstream blijven. Al zakt de native framerate naar 24 frames, interpolatie lost dat gewoon op, en interpoleerd met gemak naar 120+ frames. TV's doen dat al jaren. Ik ben echt een enorme liefhebber van hoge framerates, en heb juist doormiddel van frame interpolatie vele games kunnen spelen die ik anders nooit zou hebben gespeeld op mijn PS4 en Switch. Mijn LG tv bijvoorbeeld interpoleerd naar 120 frames, en dat is echt brilliant. Enigste nadeel van mijn LG TV is dat het Lag geeft, en wat beeld anomalies, maar dat heb ik er prima voor over. ( games als RDR2, TLOU, Tomb Raider etc zijn prima te spelen met een klein beetje extra lag ) De DLLS 3.0 techniek van Nvidia gaat dat echt veel beter doen. ( neem ik aan ) Dat betekend dat ( als je met de eventuele nadelen van interpolatie kan leven ), je oneindig door kan gaan met een dergelijke kaart. Ik heb mijn keuze al gemaakt, en ga voor een 4080/4090. ( heb huidig een 3080 ).

Het verbaasd mij dat deze techniek uberhaupt zo lang op zich heeft laten wachten. Ik heb het jaren geleden al voorspeld dat deze techniek naar GPU's zou komen. En nu, met de huidige AI mogelijkheden, ben ik er van overtuigd dat dit echt de oplossing voor langdurig gebruik van GPU's gaat brengen. Lag-free that is..
Erg nette performance. Op RT na vallen beide kaarten me enorm mee. Tenzij Nvidia het licht ziet en de 4080 wat normaler gaat prijzen kies ik (en denk ik velen met mij) dit keer gewoon voor AMD.
Herkenbaar. Ik zit zelf met een 2080 TI en wil graag wat soepeler op 4k spelen maar een speciale ATX 3.0 voeding, een power connector die problemen kan geven het het idiote bedrag wat Nvidia durft te vragen skip ik die. Ik ben heel benieuwd naar de prijzen iig!

[Reactie gewijzigd door wvdburgt op 22 juli 2024 13:34]

Je hebt geen ATX 3.0 voeding nodig voor de RTX 4x00. Wel een verloopkabeltje.
Je hebt geen ATX 3.0 voeding nodig voor de RTX 4x00. Wel een verloopkabeltje.
moeten niet nee maar gezien de hoeveelheid stroom dat ding trekt is het wel handig om je PSU te helpen met info over de attached hardware. Daarnaast wil je niet het risico lopen met een 2200 euro kostende videokaart.
Volgens mij blijkt nergens uit dat dit nodig zou zijn
Het is ook geen eis nee. dat heb ik nooit gezegd. Wel zijn er al tal van voorbeelden van afgefikte kabels dus voorzichtigheid is wel gepast.
Voorzichtig zijn kan zeker geen kwaad, maar voor zover ik zie zijn er ook met ATX 3.0-voedingen smeltproblemen. Ik wil maar zeggen: er lijkt me niks dag zo'n nieuwe voeding zelfs maar nuttig maakt
xtx vandaag bij alternate voor de vriendenprijs van 1499 😂
Ik sta op het punt een MSI 4080 af te rekenen voor 1500. Gezien de prijzen van een 6900XT etc. zal een 7900XT(X) toch niet veel goedkoper uitvallen lijkt me?
Neem dit met een korrel zout gezien de instabiele Euro, maar ga als maximale prijzen hier vanuit:

De adviesprijs van de RX 7900 XT komt uit op 899 Amerikaanse dollar, de RX 7900 XTX krijgt een adviesprijs van 999 dollar. Omgerekend naar euro's is dat met de huidige wisselkoers inclusief btw momenteel 1110 euro voor de RX 7900 XT en 1233 euro voor de RX 7900 XTX.
Het gaat op dit moment wel weer wat beter met de euro, omgerekend is de 7900XT €1036 en de 7900XTX €1151.
Nog steeds niet goedkoper dan een 6900XT, maar niet zoveel duurder.
1499 alternate vandaag 😂
ze mogen hem houden..
Wat je noem je "veel goedkoper"? Is 300 euro goedkoper veel?

Als je een 6950XT voor 899 op voorraad kan krijgen, dan lijkt 1200 euro voor een 7900XT(X) prima haalbaar.

Ik zou als ik jou was een paar dagen wachten tot je de echte prijzen gaat zien.
En of Nvidia of de winkels nog iets aan de prijs van de 4080 gaat doen. Want die is echt te hoog voor wat ie levert en winkels komen er niet vanaf. Dus die prijs zal echt wel gaan zakken.
De 6900xt kan je voor 850 euro halen..
En van de week voor 50 euro meer de 6950XT.
Ook ver boven advies dan, toch?
Nee? Adviesprijs voor de verlaging was 1000 euro
Ik ben geen Google pagina. Nog los van dat je originele comment helemaal niet over adviesprijzen ging. 8)7
700 dollar.
Voor het gemak: 700euro+belasting, dan zit je er ongeveer.
Er is voor NL zelfs nog geen officiële verlaging van de 6900XT of 6950XT, die kosten bij AMD nog altijd €1163 en €1280 respectievelijk ( https://www.amd.com/en/direct-buy/nl ), wat als je dit terugrekent naar dollars excl btw, laat zien dat AMD voor NL nog altijd $999 als MSRP voor de 6900XT reference hanteert en $1099 voor de 6950XT, in plaats van de verlaagde MSRP's die je in de US ziet. Terwijl wanneer AMD de MSRP's officieel zou hebben aangepast voor NL, je die veranderding daar normaliter direct ziet.

[Reactie gewijzigd door Dennism op 22 juli 2024 13:34]

@SHiNeye Wat probeer je te doen?

Eerst ging het nog over de prijs vs de 4080, dat argument ben je kwijt, begin je maar over de adviesprijs, dat argument ben je kwijt, begin je maar over latere adviesprijzen, ook daar heb je geen gelijk?

Bestel gewoon wat je wilt dat is je goed recht en dat is jou zaak, maar vervolgens je keuze hier proberen te verantwoorden met loze argumenten (en met welk doel?) heeft niemand wat aan.
Gaat me erom dat ik me niet kan voorstellen dat een 7900XT(X) voor veel goedkoper zal worden dan een 4080.
op AMD website is de 7900 XT weer op voorraad voor 1050
Ah dat is geen verkeerde prijs.
De 7900xtx gaat echt voor een stuk minder over de toonbank morgen
Ben benieuwd. De 4080 kan altijd nog retour. Hopelijk test iemand de 4080 vs 7900XT incl DLSS, want dat zou ik sowieso aanzetten.
Als FSR net zo goed kan upscalen als DLSS wil ik die vergelijking best zien ja. Heb tot op heden alleen DLSS gebruikt, en heb begrepen dat FSR nog niet op het niveau van DLSS zit.

En hoezo spammen? Discussie voeren is in jouw ogen spammen?
In dat artikel wordt toch ook gezegd dat FSR nog niet op het niveau is van DLSS..
Dat klopt maar het is duidelijk dat je op zoek bent naar een Nvidia kaart, dat doorziet @d3x prima en daar komt de ergernis dan ook vandaan dat iemand zogenaamd geïnteresseerd komt doen.

Ik had hiervoor de 3080 en een 6900XT en gezien ik geen upscaling wil gebruiken heb ik juist de AMD gehouden. En voor de prijzen die ik verwacht ga ik vanmiddag hopelijk een 7900XTX op de kop kunnen tikken en later misschien nog een 4080 dan kan ik ze weer vergelijken en heb ik weer hetgeen het beste is voor mij :)
:*)

[Reactie gewijzigd door d3x op 22 juli 2024 13:34]

Is nog afwachten. Voor mij is het ray tracing performance gat te groot dus vooralsnog blijf ik bij nvidia.
Hoe relevant is Ray Tracing nog, nu AMD samenwerkt met Epic Games voor de Unreal engine en daar de techniek Lumen bij ingebakken zit?
Ray tracing is überhaupt een niche binnen een niche. Dure videokaarten van meer dan pak 'em beet 600 euro is al een niche opzich, volgens mij minder dan 5% van de gamers op steam bijvoorbeeld heeft zo'n kaart. Vervolgens is van die groep die ook echt met raytracing aan speelt ook weer een kleine groep. De meeste die 800 euro voor een videokaart hebben betaald willen ook graag 100fps behalen in de spellen die ze spelen.
Lumen heeft een high-quality mode waar ze wel hardware Ray Tracing gebruiken. Dus ik zou juist zeggen het hangt af of je quality op max wil hebben of niet. Zelfde met de 'next-gen' Witcher 3 update, zie ook https://tech4gamers.com/t...-gen-graphics-comparison/

Als je de de software ray-tracing van Luman van plan bent te gebruiken, dan is wel compute belangrijk, iets wat veel reviewers nog niet goed testen.
Interessant, ik wist niet dat er ook een hardware RT modus was van Lumen, dank.
Dat hangt van de toepassing af. Lumen's voordeel, minder krachtige hardware nodig, begint nu wel een een beetje te vervagen met deze generatie kaarten. En als je bijvoorbeeld grafisch werk doet, is Ray Tracing toch echt beter. En de Unreal Engine is natuurlijk niet de enige engine. Het aantal spellen dat Ray Tracing ondersteunt is gewoonweg hoger.
Nou ja, dan moet je die kaarten wel kunnen of willen betalen natuurlijk, dus vervagen doet het voordeel m.i. niet, maar het klopt dat UE niet de enige engine is. Dan kun je afwegen of je de games op die andere engines erg belangrijk vindt of niet.
Ik word helemaal niet warm van RT.
Best wel relevant.. Ik heb o.a. Control en Cyberpunk 2077 met Raytracing aan gespeeld.. Ziet er echt wel een stuk mooier en realistischer uit.. Vooral de reflecties in glas zijn een zeer duidelijk verschil..

[Reactie gewijzigd door Inflatable op 22 juli 2024 13:34]

Het ziet er uiteraard veel mooier uit, maar die games zijn sowieso al niet in Unreal Engine gemaakt. Ik had het echter specifiek over UE's Lumen omdat die techniek m.i. goed genoeg in de buurt komt van RT zonder de enorme performance hit en bijkomstige stookkosten.
Ziet er goed uit AMD. Top. Ben benieuwd wat Nvidia zijn reactie is. Zeker omdat de XTX soms echt op de hielen van 4090 zit, en soms zelfs sneller. en dat voor de voor de helft van het geld (RT even uitgesloten)
Ik denk dat je de 4080 bedoelt? De 4090 steekt overal met kop en schouders boven uit (prijskaartje is er ook naar). Dan is dat nog steeds een hele goede prestatie van AMD

[Reactie gewijzigd door jellybrah op 22 juli 2024 13:34]

Heb je wel naar alle benchmarks gekeken? genoeg benchmarks waar ze boven de 4090 uitsteken. Dus als de 7900 serie stuk beter betaalbaar is dan word het voor de gemiddelde tweaker een makkelijke keuze
Ik zie van de 10 games alleen COD hogere FPS halen dan de rest

[Reactie gewijzigd door jellybrah op 22 juli 2024 13:34]

Volgens mij pakt ie de 4090 op lagere resolutie wat vaker, maar er is denk ik niemand die een 4090 koopt om op 1440p te gaan gamen
Tenzij je echt voor één spel gaat, kijk je toch naar gemiddelden? En als er genoeg benchmarks zijn waar hij boven de 4090 uitsteekt, en hij gemiddeld op ongeveer 4080 niveau uit komt, betekend het dus dat er ook genoeg benchmarks zijn waar de 4080 er ruim bovenuit steekt. (En dat lijkt één spel te zijn die getest is, maar overall is het gewoon in de buurt van een 4080 zonder ray tracing, meestal iets erboven).
En dan is het nog niets niet eens een full die. Zeker knap van Nvidia.

Maar ik denk dat AMD het tog wat slimmer doet kwa prijs prestatie verhouding .

Ik wil graag een 4090 maar mijn max is tog echt wel 1500.
Ik doelde op AMD die het goed doet ;) - aangepast
Ik ook.

Alleen we kunnen de ongelooflijke prestaties van de 4090 natuurlijk niet negeren. Prijs moet alleen normaal. :)
Het zouden pas ongelooflijke prestaties zijn als er een normale prijs aan zou zitten :)

Dat die prijs omlaag gaat kun je op je buik schrijven.
Van de 4080 waarschijnlijk wel, omdat ie dezelfde prijs prestatie van de 4090 heeft, maar nu veel te zware concurentie van AMD krijgt.

Maar de fans blijven toch wel 4090s kopen, omdat het verschil met AMD zodanig is dat ze het voor zichzelf kunnen rechtvaardigen toch de snelste kaart te kopen. Ook al is ie belachelijk duur.
En omdat de prijs/prestatie gelijk is bij de 4080 is het makkelijker te rechtvaardigen de snelste kaart te kopen.
In het verleden moest je voor 10% extra prestatie 50% extra prijs betalen. Dan dachten mensen wel twee keer na. Maar als 10% extra prestatie 10% extra prijs is, dan word dat sneller gedaan. Uiteindelijk is het meestal niet zo is, dat die 10 of 20% de doorslag geeft. Het is meer of iemand het waard vind om dat bedrag uit te geven. Niet of ze dat bedrag ook daadwerkelijk hebben.
Ik geloof er geen reet van dat die kaart goed verkoopt laat je vooral hypen door Nvidia.
Ik ben ook een grote fanboy van Nvidia en ik koop hem dus echt niet voor 2k.

En volgens mij is er al een pricedrop van Nvidia van 5% ofzo geweest.

In deze economie heeft niet iedereen zoveel geld over voor een videokaart.

AMD heeft al het licht gezien met hun nieuwe processors en een enorme pricedrop ingevoerd. En ik verwacht hetzelfde van Nvidia.

En zoniet mijn 3090 op water draait lekker op 2000mhz stabiel🫡
Die 5% was volgens mij (meer) prijscorrectie dan prijsverlaging.
Ja en het exorbitante verbruik ook niet. 😉
RT even uitgesloten
Tja. Het is persoonlijk maar ik zie RT wel echt als een belangrijke feature voor next gen games. Voor rasterized only op hoge resoluties volstaat de vorige generatie vaak ook nog wel.
Ideale kaarten voor e-sports waarbij hoge refresh rates nodig zijn.

Echter 4k ultra met raytracing dan zit je bij nvidia beter.

En de efficiëntie van de 4090 is uitstekend. A plaque tale: requiem trekt 580 watt uit de muur stock 2800mhz@1100mv, maar zodra ik ga knijpen naar 2500mhz@850mv zakt dit naar 430 watt! Uiteraard lever ik 5-10fps in maar dit is nog steeds sneller dan de 7900XTX :)
Maar tegen welke prijs. De 4090 is gewoon te duur.
Iets is te duur als je een product koopt en er helemaal geen gebruik van maakt.

Met de korte en koude dagen maak ik er nu enorm veel gebruik van, dus ik vind mijn geld goed besteed en heb er plezier van.

Ik kan begrijpen dat het voor meerdere mensen buiten budget valt en te duur wordt bestempelt.
Iets duur vinden heeft niet standaard te maken met dat het buiten budget valt.

Je kan ook iets duur vinden omdat je normaal 600-800 euro betaald voor een high end kaart en dat het nu 1500-2500 euro is.

Mijn budget is prima, alleen zegt mijn hoofd zoiets van....tot hier en niet verder.
price/performance/verbruik vind ik een belangrijkere maatstaaf dan max fps.

Dat is voor iedereen natuurlijk anders. Plus het feit dat Nvidia denk nog steeds pre crypocrash prijzen te kunnen vragen. Dan is het gewoon een principe kwestie
Goede business case voor een tandarts :+
Nette review. En inderdaad een fijne mooie nieuwe lancering.

Voor de redactie echter wel de vraag . . . in kader van 1 is geen check ik natuurlijk ook andere benchmarks: Kunnen jullie bij de testen specifiek de instellingen zetten? Raytracing wel aan, niet aan, DLSS / FSR wel of niet aan, wel of geen SAM / RBAR?

Vind het namelijk opvallen dat sommige benchmark cijfers een redelijke afwijking hebben met andere reviews.
rsnubje Testlabcoördinator @Decarsul12 december 2022 17:53
Rbar staat bij ons altijd aan. Rtx of niet staat vrij duidelijk in de naam van de benchmarks. We hebben fsr en dlss uit staan tenzij expliciet aangegeven. Voor deze tests niet gebruikt. Verder is het ook belangrijk op te merken dat onze systemen draaien op 5500 all cores, altijd. De e-cores zijn uitgeschakelt. In sommige games is dat een voordeel, in sommige een nadeel. Het geheugen draait op 7200MT/s. Ook wat sneller dan de meeste publicaties volgens mij.
Hmmmm interessant. Dank voor de extra toelichting.
Viel mij op dat in sommige gevallen de max fps zowel 30 negatief als positief uitvallen.
rsnubje Testlabcoördinator @Decarsul12 december 2022 18:00
Tenzij je de exacte instellingen weet van de games en het systeem blijft het toch altijd lastig om te vergelijken.
Goeie vraag, ik dacht hetzelfde.
Best jammer dat usb-c(video) maar niet wil doorslaan bij desktops en alleen van toepassing bij laptops.
Wat voor voordeel brengt het dan voor desktops? Hooguit zou je dan de monitor als USB hub kunnen gebruiken, maar dan gaat je controller wel over de videokaart heen (qua bandbreedte lijkt me dat ook niet ideaal). Als je het wil gebruiken om de monitor van voeding te voorzien, dan zouden de videokaarten met nog meer stroom aansluitingen moeten komen om dit aan te kunnen.
Ik sluit er regelmatig een portable monitor op aan en baal er wel van, de Intel iGPU heeft het gelukkig wel, het is een kleine moeite om erop te bouwen, ze hebben ook een audiochip op gebouwd dan kan usb-c ook gezien dat de standaard gaat worden bij steeds meer monitoren.
De 7900XT (en ook de 7900 XTX) heeft wel een usb-c aansluiting (ik dacht dat je bedoelde enkel usb-c aansluitingen).

Op dit item kan niet meer gereageerd worden.