Door Mark van der Kruit en Jelle Stuip

De beste videokaart voor 1440p-gaming - September 2023

13-09-2023 • 19:00

153

De videokaart met de beste prijs-/prestatieverhouding voor 1440p-gaming was altijd AMD's RX6700XT, maar sinds begin september heeft die videokaart een opvolger gekregen in de vorm van de RX7700XT en de RX7800XT. Is dat wat? Of kun je nu beter een Nvidia-kaart kopen zoals de RTX 4060Ti of de RTX 4070? In deze video vertelt Jelle je er alles over.

00:00 - De beste videokaart voor 1440p-gaming
00:16 - 1440P de nieuwe standaard
01:00 - AMD’s nieuwe 7700XT en 7800XT
02:29 - Prijzen en concurrentie
03:16 - Benchmarks: Cyberpunk en meer
04:14 - Upscaling en RTX
05:14 - Energieverbruik
05:54 - Conclusie

Lees ook onze review voor meer details: https://tweakers.net/reviews/11408/gpu-middensegment-eindelijk-vernieuwd-amd-radeon-rx-7700-xt-en-7800-xt.html

Hoeveel vram heb je nodig voor games?: https://tweakers.net/reviews/11104/hoeveel-vram-heeft-je-videokaart-nodig-voor-games.html

Reacties (153)

Sorteer op:

Weergave:

Blijft echt jammer van het energieverbruik van de RX7700XT en de RX7800XT. Was zo mooi geweest als die kaarten even efficiënt waren als de rtx4070.
Als je het energieverbruik wil beperken, zou je bijvoorbeeld op 60fps kunnen spelen. Ik speel op 1080p High+RT. Met mijn 4060Ti kom ik in Cyberpunk <100W en Forza Horizon5 <50W. Oudere spellen zijn helemaal belachelijk laag. In de vsync power hebben deze nieuwe AMD's ook een flinke stap gemaakt. Jammer dat dit weinig bekend is.
Dan kan je beter gewoon een goedkopere kaart kopen als je hem toch ver onder zijn kunnen gaat gebruiken.
Denk dat je dan met 1% en 0.1% lows nog steeds een best verschil kan merken. Zal wel ergens een sweetspot zitten. High end kaart voor 1080p lijkt me idd overkill (tenzij je professioneel Esport doet, zie LTT filmpjes van refreshrate. More FPS is wel degelijk more better :))
Stabiele frame times / pacing is zoveel belangrijker dan iedere FPS pakken.

Daarom is de moderne wijsheid om te limiten, met een goede externe limiter als RTSS of de ingebouwde van Nvidia.
Nu zitten wel heel veel gamers ver boven de 60hz schermen natuurlijk, vooral omdat die ook niet duur meer zijn. En op 1440p met deze kaarten kom je bij meeste spellen niet aan de 144hz.

En natuurlijk zijn framedrops vervelend, maar ik denk dat je echt maar een heel klein gedeelte hebt van de gamers hun fps significant beperken zodat frame drops even groot blijven, alleen relatief kleiner zijn.

Beperken om niet boven je monitor framerate te komen is logischer imo. Maar ik zou wel rekening houden met wat voor scherm ik heb bij kopen van gpu.

[Reactie gewijzigd door Sissors op 23 juli 2024 14:03]

Niet echt als het gaat over efficientie. Ik kan met mijn 6900 XT en 6950XT namelijk +- RX 6800 performance halen alleen dan met slechts 98 watt aan verbruik:
https://www.3dmark.com/compare/spy/34240479/spy/35714147

Dit kan doordat je veel meer shader units op lage voltages en clocks laat draaien. Om dat soort performance met een 6700 XT te halen moet je flink gaan overclocken en nog hogere power targets gaan gebruiken en stock waardoor je je efficientie kwijt bent.
Sommige spellen kan je zo inderdaad met een goedkopere kaart spelen, maar er zijn ook zwaardere die niet veel boven de 60fps uit komen. En je moet ook een beetje voorbereid zijn op de toekomst. Maar dan nog een tip om energie te besparen, koop geen zware spellen als Starfield! :+
Radeon Chill is daarbij ook gewoon een super feature. Niet alleen kan je daarmee gewoon een bepaalde framerate uitkiezen om dus een piekbelasting te voorkomen. Tevens kan de GPU downscalen aan de hand van je eigen activiteit.

Heb zelf nooit meer dan 100 fps nodig dus waarom m’n GPU verder laten pushen?
' De beste 1440p kaart ' en jij adviseert op 60 fps 1080p voor lager energieverbruik
De 7800xt verbruikt 20% meer energie dan de 4070, maar zonder raytracing of upscaling produceert de 7800xt ook bijna 20% meer fps in een hoop titels, in de praktijk is het verschil niet zo groot als het zo lijkt.
Huh? Metro Ultra op 1440p geeft de test:
4070FE: 108,7 fps bij 200,35W
7800XT: 106,2 fps bij 255,93W

De 4070 scoort hier op 1440p dus marginaal hoger zelfs in fps, en het verbruik van de 7800XT is dik 25% hoger om die net niet bij te benen. De efficiency is zo met aan beide kanten die procentjes beter, in totaal bijna 30% beter. Is het in zoveel games dan zodanig andersom dat het dat resultaat van Metro geheel kan opheffen, en hoe gaat de 7800XT in andere games dan zoveel minder verbruiken, of de 4070FE zoveel meer?
review: Gpu-middensegment eindelijk vernieuwd - AMD Radeon RX 7700 XT en 7800 XT

Als het op basis van undervolten is: dat kan met een 4070 ook. Dan zou ik zeggen, beiden undervolten met zelfde percentage om de boel eerlijk te houden in de vergelijking. Je ziet bij de 4070 soms ook undervolt resultaten van ca. 4 procent minder fps terwijl de kaart aan een 25% lager verbruik draait. Dan is de efficiency daar ook nog eens 20% hoger. 1% hogere performance zelfs bij een 5% lager verbruik, dan win je ook al ca. 6% efficiency.
https://www.techpowerup.c...ency-undervolting.307388/

Plus niet elk exemplaar kan even zo goed undervolten, blijft een loterij. Appels met appels vergelijken blijft het beste, want wat kun je thuis van opaan om echt aan te kopen, blijft toch het meest belangrijk.
TPU berekent ook gemiddelde W per frame in bijv. CP2077.
https://www.techpowerup.c...radeon-rx-7800-xt/39.html
4.5W/frame voor de 4070 en 5W/frame voor de 7800XT.
Dus als de 4070 200W zou verbruiken voor 120fps zou de 7800XT 222W verbruiken.

Undervolten is een red herring om de redenen die je noemt, maar hier cherry pick je wel een relatief slechte score van de 7800XT.

Als we even relative performance van de 4070 tov de 7800XT gebruiken, dus:

7800XT 100%
4070 96%

En vervolgens power consumption in games erbij pakken:

7800XT 250W
4070 201W

Komen we uit op
7800XT 100%
4070 119%

Dus de 4070 is 19% efficienter.

Noemenswaardig? Ja. Dealbrekend, mwah.

[Reactie gewijzigd door Thomg op 23 juli 2024 14:03]

Of het deal-brekend is hangt van de prijs van de kaarten en hoeveel je gamed af. Als je echt veel gamed kan dat toch aantikken die 40-50 watt extra.

Over een jaar let's say 2 uurtjes gamen per dag gemiddeld, dus zo'n 730 uur per jaar *0,05 kilowatt = 36,5kWh per jaar. Als de kaart 4 jaar mee gaat, kom je dus uit op bijna 150kWh, momenteel zo'n 45-50 euro met de huidige kWh prijzen in Nederland. Dat moet je toch meenemen. Als je nou 2x zo veel gamed als in mijn voorbeeld, dan is het al 90-100 euro die je bij de 7800XT extra moet rekenen voor die 4% extra performance gemiddeld.

Dan neem ik nog niet mee dat Nvidia tegenwoordig een betere doorverkoop waarde heeft omdat ze veel meer toepassingen buiten gamen hebben (AI enzo). Als je een gamer bent waar elk tientje besparen mooi meegenomen is, en die zelf de stroomrekening betaald, dan is het bod van AMD toch zwak.
Je vergeet ook nog de airco rekening, die 50 watt extra is rechtstreekse hitte die je somers extra hard moet afvoeren om niet bij 40 graden kamer te zitten gamen
Maar alleen als je in de zomer überhaupt veel gaming doet. Speel je juist vooral in de winter ben je met de AMD beter uit.
En als je gas ook mee rekent kan het zomaar eens goedkoper uitvallen :P
50w kost je een airco?

met een cob van 1 (waar we het hier over hebben) heb je voor een simpele ruimte van laaten we zeggen 30m2 al een radiator nodig van ongeveer 300~500w dat is dus 6 tot 10x meer... als die hele 50w continu staat te blazen er voor zorgt dat jouw hele kamer 0,1graad hoger wordt en je daarvoor een airco nodig hebt en niet bijvoorbeeld gewoon je ventilatie wat verder openzet dan vraag ik me toch wel af waarom je niet gewoon voor een 4090 Extreme gaat want dan heb je duidelijk geld te veel.
kun je dan ook even uitleggen waarom het in mijn kamer 30 graden is en op de rest van de zolder 26.

En nee raam open zetten helpt niet als het buiten 26 is.

en ja het was een sarcasitische opmerking maar als je serieus wilt dan voegt alle warmte toe,

Je hele pc bij elkaar is al gouw zoon 200-600 watt, en als ik mijn kachel van 600 watt aan zet zweet ik me kapot in de zomer in die kamen.
Je hele pc bij elkaar is al gouw zoon 200-600 watt, en als ik mijn kachel van 600 watt aan zet zweet ik me kapot in de zomer in die kamen.
En het punt is dus dat die 50 watt extra helemaal niet uitmaakt op dat verbruik: die laatste 50 watt zorgen er dus niet voor dat je een airco nodig hebt, terwijl dat met een 'zuinigere' nvidia kaart zogenaamd niet nodig zou zijn.

Jij bent degene die een extreem verhaal begon over 50 watt extra, nu niet gaan klagen als mensen daarop ingaan ;) Feit is simpelweg dat nvidia met een iets zuinigere kaart niet het verschil maakt op je energierekening of voor de warmte van je kamer. Als je over tientallen watts gaat zitten moeilijk doen kan je veel effectievere acties ondernemen dan honderden euro's meer uitgeven aan een nVidia GPU (die minder VRAM heeft):
  • Radeon Chill gebruiken, of als je toch nVidia kiest je FPS beperken tot max 60 fps (geen idee of dat kan bij nVidia, maar evt kan je per game een cap instellen: de ene game is prima op 40 fps, de andere speelt toch beter op iets hoger zoals 90)
  • Op high ipv Ultra spelen (serieus, eht verschil isvaak miniem terwijl je GPU 30% minder werk moet leveren)
  • De helderheid van je monitor wat verlagen
  • Je CPU en GPU undervolten
Daarmee bereik je echt een stuk meer dan met dan toch maar een 4070 kopen, en het kost een pak minder ;)

[Reactie gewijzigd door kiang op 23 juli 2024 14:03]

Dude je bent nu een heel gesprek aanbhet voeren op een sarcatische reactie
kun je dan ook even uitleggen waarom het in mijn kamer 30 graden is en op de rest van de zolder 26.

En nee raam open zetten helpt niet als het buiten 26 is.

en ja het was een sarcasitische opmerking maar als je serieus wilt dan voegt alle warmte toe,

Je hele pc bij elkaar is al gouw zoon 200-600 watt, en als ik mijn kachel van 600 watt aan zet zweet ik me kapot in de zomer in die kamen.
Dude je bent nu een heel gesprek aanbhet voeren op een sarcatische reactie
sarcasitische opmerking maar als je serieus wilt dan voegt alle warmte toe :)
Als je dit soort onzinnige berekeningen gaat maken (want wie betaalt er nou een enegerierekening en gamet er 4 uur elke dag?) mag je er ook even Radeon chill in meenemen: bij AMD bestaat deze functie, die zonder merkbaar performanceverlies makkelijk 20-40% energie kan besparen (afhankelijk van het type game).

Dan wint AMD dus weer.

[Reactie gewijzigd door kiang op 23 juli 2024 14:03]

Niet elke dag, gemiddeld. En ik noem dat toch als 'extremer' scenario? Het zal niet de norm zijn maar ik ken ook wel mensen die daar nog ruim boven komen hoor :P
Alleen gaat de 4070 waarschijnlijk niet 4 jaar lang mee met maar 12 gb ram. Het is daarom ook maar de vraag of deze generatie van nvidia ook een hogere restwaarde zal hebben.
Ik heb zelf nog niet met de 7800XT gespeeld en wat ik tot nu toe zie qua undervolting van RDNA3 tov 2 valt tegen omdat je alleen het GCD voltage kan aanpassen maar het zou kunnen dat AMD de N32 verder voorbij z'n sweetspot pushed dan nVidia bij de 4070 doet. En gezien het verbruik van de 7800 XT lijkt het er toch wel op dat AMD de boel iets harder aan het pushen is dan nVidia en dat er dus wat meer winst te halen is door dichter naar die sweetspot te gaan. Then again MCD's undervolt je niet en die verbruiken ook aardig wat. Bij RDNA2 kon je met MPT ook SOC, IO en Memory module voltages aanpassen en daar door in verhouding meer winst boeken. Ik zou willen dat AMD dat weer zou vrijgeven. Dan zou je denk ik nog leuke dingen met de 7900 XTX kunnen doen.
Mee eens, maar undervolten is altijd een optie natuurlijk.
Zeer benieuwd welke kaart de meeste headroom heeft voor undervolten. Ik krijg het idee dat AMD standaard kiest voor hogere voltages, omdat niet elke chip even goed is en graag in de benchmarks beter wilt doen dan Nvidia.

Althans bij mijn AMD 6700XT heb ik het energieverbruik kunnen terugdringen van 220 naar 150, zonder in te leveren op noemenswaardige performance.
Blijft echt jammer van het energieverbruik van de RX7700XT en de RX7800XT. Was zo mooi geweest als die kaarten even efficiënt waren als de rtx4070.
Wel jammer dat die RTX 4070 laagste prijs op pricewatch 619€ kost.
Deze heeft maar 12Gb RAM en de 7800 XT heeft 16 Gb RAM voor 560€ !
Kijk je AUB niet steeds blind op 40 of 50W extra verbruik jongens :)
Performance level gericht op 1440p van 4070 zou 10GB al zat zijn net als bij de 3080. 12GB is een mooie verzekering naar de toekomst, maar 16GB hoef je echt pas op 4k ultra+ in een enkele slecht geoptimaliseerde console port. Elke game moet tenslotte goed werken met 8GB vram, daar zit de bulk van de markt nog jarenlang.
Performance level gericht op 1440p van 4070 zou 10GB al zat zijn net als bij de 3080. 12GB is een mooie verzekering naar de toekomst, maar 16GB hoef je echt pas op 4k ultra+ in een enkele slecht geoptimaliseerde console port. Elke game moet tenslotte goed werken met 8GB vram, daar zit de bulk van de markt nog jarenlang.
Toekomst proof ben je beter af met de 16GB van de 7800XT.
Daar zijn al meer als genoeg video's over besproken en benchmarks op gedraaid die dat bewijzen, dat meer geheugen toekomst gericht beter is voor idd hogere resoluties. Toekomst gericht gaan we dus naar grotere schermen en hogere resoluties :)
Die hogere resoluties gaan een 3080 en 4070 alleen niet meer kunnen voorzien van soepel beeld met voldoende fps. Het is al vaker besproken en ook getest, enkel een paar cherry picked console ports met ook al andere issues vreten zoveel vram. 4k hoogste settings heb je de 4080 en 4090 voor, en die hebben meer performance en bijbehorend proportioneel groter vram.

Het is onzinnig duur om alle kaarten op alle performance levels minimaal 16GB te geven. Alsof game designers alle kaarten die nu nog altijd verkocht worden met 8GB bij voorbaat al onspeelbaar verklaren, zie ook Steam survey. Dat gaat nooit gebeuren, want zo loopt een game veel te veel omzet mis. Enkel console ports hebben het geld al binnen, en lokken weer zieltjes terug naar het console platform als een game pc ze toch niet lekker draait misschien...
Radeon RX 7800 XT vs. GeForce RTX 4070, 45 Game Benchmark @ 1080p, 1440p & 4K https://www.youtube.com/watch?v=J0jVvS6DtLE
FSR3 is hier nog niet actief op de 7800 XT !
Future proofing your GPU Upgrade: 12GB vs 16GB? > vanaf 9 minuten belangerijk punt :)
https://www.youtube.com/watch?v=tiH-HE8wzgM

[Reactie gewijzigd door Politicfrustati op 23 juli 2024 14:03]

ja en een 4090 is toekomstgerichter voor hogere resolutie,

het gaat hier juist om een midrange 1440P dan moet je neit met excuuse komen dat hogere resolutie beter is.
.
ja en een 4090 is toekomstgerichter voor hogere resolutie,

het gaat hier juist om een midrange 1440P dan moet je neit met excuuse komen dat hogere resolutie beter is.
Ik spreek hier nergens over een 4090 met een absurde prijs van 1800€ ???
Wie zegt hier dat een hogere resolutie beter is ?
Ik spreek niet over een excuuse, ik heb het hier over dat 16Gb videogeheugen beter toekomstgericht is dan 12Gb
dat meer geheugen toekomst gericht beter is voor idd hogere resoluties. Toekomst gericht gaan we dus naar grotere schermen en hogere resoluties
Hmm meschien je eigen tekst even terug lezen
[...]


Hmm meschien je eigen tekst even terug lezen
Lees nu zelf eens de discussie terug aub van in het begin :)
Ja dat doe ik alleen joj begint over hogere resoluties maar dat heeft niks te maken met 1440 gaming.

Wil je toekomst gericht moet je niet focussen op modrange voor midrange is 12gb meer dan genoeg.
:)
Ja dat doe ik alleen joj begint over hogere resoluties maar dat heeft niks te maken met 1440 gaming.

Wil je toekomst gericht moet je niet focussen op modrange voor midrange is 12gb meer dan genoeg.
Ik breng hier alleen aan dat 16GB meer future proof is dan 12GB ?
En die 12GB midrange dus 1440P vs 16Gb speelt een rol !
Hoe meer futures je aanzet om beter beeld, hoe meer vram je nodig hebt van een gpu.
Dus toekomstgericht als jij bv in 2025 een groter scherm gaat halen en hogere resolutie gaat spelen is die 16GB beter om nu te kopen ipv die 12Gb 4070.
https://www.youtube.com/watch?v=H-G35j4nsr8 > Laatste deel van de video word hier gezegd dat 12Gb crap is
en daar zit de crux,

Als jij in 2025 groter wilt dan moet je nu niet naar midrange kijken kun je beter nu iets meer uit geven .

je kunt niet de statement maken ik kijk naar resolutie X en dan zeggen maar kaart Y is beter voor resolutie Y over 3 jaar, dan moet je ook kaarten mee nemen die beter zijn voor resolutie Y
en daar zit de crux,

Als jij in 2025 groter wilt dan moet je nu niet naar midrange kijken kun je beter nu iets meer uit geven .

je kunt niet de statement maken ik kijk naar resolutie X en dan zeggen maar kaart Y is beter voor resolutie Y over 3 jaar, dan moet je ook kaarten mee nemen die beter zijn voor resolutie Y
Dus u zou 1800€ betalen voor een 4090 om in 2025 beter af te zijn :)
als dat mijn requirements zijn om in 2025 op 4K te gamen met 144fps dan ja weinig andere opties.
als dat mijn requirements zijn om in 2025 op 4K te gamen met 144fps dan ja weinig andere opties.
Dan wacht ik liever tot 2025 om een nieuwe kaart te kopen ipv nu 1800€ de deur uit te smijten.
We hebben het hier in het topic nog steeds over een 7800 XT 559€ vs 4070 619€, nog eens herhalen waar ik op doel en dat is meer Vram = beter toekomst gericht als je nu 1 van deze 2 kaarten koopt.
dus dan koop je de kaart die je aanstaat en in 2025 weer een nieuwe als je dan andere eisen hebt,

probleem opgelost en geen gedoe met kromme vergelijkingen trekken om proberen toekomst gericht te verantwoorden.
Smijt jij maar 1800€ vandaag over de balk, en in 2025 nog eens 2000€ om mee te zijn in de toekomst. Nvidia ziet mensen met deze ingesteldheid graag komen, vragen ze nog meer voor een kaartje om een spelletje te spelen. Vind het persoonlijk krom van je dat je niet begrijpend kan lezen :)
Spijtig maar nutteloze discussie.

[Reactie gewijzigd door Politicfrustati op 23 juli 2024 14:03]

Er zijn nieuwere games die ook op 1440p boven de 8 gb uit komen. Dit gaan developers waarschijnlijk ook meer doen de komende jaren, mede omdat textures verhogen relatief makkelijk is en dit kost nou een maal meer ram. Howards legacy op 1440p heeft al dips op bepaalde plekken met een 12gb kaart. Voor kaarten van het caliber 4070 is 12gb daarom ook te karig om future proof te zijn, helaas.. er zijn heel veel youtube videos over dit onderwerp te vinden die het een stuk beter uitleggen dan ik.
Alleen is dat een heel stuk lazy programming van de gamedevs omdat je die extreme hoge textures toch niet ziet op die lage resoluties tenzij je er zo dicht bij op staat maar dan zijn er zo weinig textuture nodig in memory dat dat ook weer niet uit maakt,

Ja je kunt al je textuters in 4K laden maar een euro munt op 20 meter afstand zie je al alsl een paar pixels daar heeft toevoegen van hoge texture geen extra detail.
Ik ben het helemaal eens met je als het gaat om 40/50W meer vermogen. Ja, het kost je meer geld aan elektra, maar dan ga ik toch dit jaar 1x minder uit eten. Zo los ik dat op :-)
Die 40 of 50W extra kan mij persoonlijk ook geen bal schelen :)
Maar toch blijven sommigen daar zo een probleem van maken.
Als dit zo een issue is die 50W extra, game dan gewoon niet en speel een bordspel dat verbruikt niks :)
ik bedenk mij net ik heb maar een Seasonic Focus GX-650 en zie nu in de min.specs dat ik 700w moet gaan hebben. dit staat er als side note bij:
Recommended power supply for AMD Radeon RX 7800 XT graphics card is minimum 700W or greater with 12V output > 54A. Minimum recommended system power supply wattage is based on a PC configured with an AMD Ryzen 9 7950X processor plus typical power requirements of other system components. Your system requirements may differ. GD-223.

Zal ik het gaan redden denk je met een Ryzen 7 5800x CPU...... :?
Het geld wat ik bespaar tov de 4070 ben ik nu dan aan nieuwe PSU kwijt |:(

[Reactie gewijzigd door magerhert op 23 juli 2024 14:03]

Ik raad je toch aan om een 850W voeding te nemen met gold of titanium label.
Laat je niet misleiden door een hoog wattage PSU, deze verbruikt maar wat je pc effectief trekt aan stroom. Hoe minder je de voeding belast hoe beter, voedingen die op de limit draaien kunnen nogal wat ellende geven. Jouw 650W voeding zou toch al krap zijn zelfs met een 4070 :)
@Politicfrustati @Danny Phantom Beide bedankt voor de feedback, ik ga idd voor 850w. ik was bijna alweer gegaan voor 750 en dat zou dan ook krap geweest zijn. Fijn weekend gewenst :-)

[Reactie gewijzigd door magerhert op 23 juli 2024 14:03]

Ik zou een nieuwe PSU aanraden. Mijn 600w gold voeding trok wel de 5800x+6900xt maar zorgde bij de laatste wel voor coilwhine. Nu met een 850w voeding nergens last van
In de winter kun je je kachel lager zetten.
Kun jij uit eten voor 8 euro?

Ik vind mezelf een gamer, maar ik kom toch niet verder dan 4 uur in de week, dan gaat het om ca. 4 euro per jaar. :)
Ik game elke avond minstens 5 uurtjes Fallout 76 online, in het weekend nog iets meer.
Dan 5x4 kom ik rond de 20-25 euro per jaar.

En ja ik kan voor 25 euro onbeperkt 4 uur Sushi eten in Amsterdam :9
daar gaat het niet om het gaat er om dat het prijs verschil van 50 euro dus in het niet valt omdat dat geld naar de stroom rekening gaat en daarmee de kosten dus gelijk zijn.
KIjk je AUB niet steeds blind op 4GB RAM meer of minder jongens :)
Absoluut mee eens op een kaart van 12gb of 16gb is dat voor nu meer dan voldoende.
Men kan natuurlijk nooit in de portemonnee van een ander kijken, maar ik ben altijd van mening geweest, stel je hebt een budget van 600 en kan een kaart van 550 en dus 600 kopen, dan ga ik persoonlijk altijd voor dat beetje meer, als mijn financiële situatie dat toelaat. Maar iedereen is anders en het blijft een hoop geld, ook 50 euro, dat wilde ik toch wel even eerlijk erbij zeggen.... Hoe dan ook ik vind het een heel mooi kaartje voor een heel mooi prijsje.
Voor 60€ minder de 7800 XT met 16Gb of voor 619€ de RTX 4070 12Gb moet je echt niet blind zijn :)
Bij 7800 XT krijg je ook nog Starfield premium die 100€ kost !
Met die 60€ goedkoper betaal ik de 4 jaar extra 50W stroom, en starfield verkoop ik voor 70€.
Die 70 euro ga je niet halen voor starfield premium hier op V&A

De prijs ligt een stukje lager 45 euro en soms goedkoper. Te veel aanbod.
Je kan de AMD kaarten over het algemeen prima undervolten.
In ieder geval de Nvidia 4070 wordt ook vaker genoemd online als een kaart die met een kleine undervolt zelfs beter kan presteren, en met een grotere undervolt nog een stuk efficiënter kan werken. Dus dan zullen beiden daar over het algemeen prima voor zijn?
https://www.techpowerup.c...ency-undervolting.307388/

Het lastige wordt dan vooral, wat is het gemiddelde of de mediaan, als in, op welke mate van undervolt kun je als consument vertrouwen bij elk type kaart.
Ik heb zelf 2 verschillende 4070's gehad, beide modellen konden prima 2650mhz op 925mv aan. In Furmark ging het verbruik daardoor omlaag naar rond de 120w, met in (raytracing) benchmarks zoals Speedway/Timespy wat uitschieters naar 140-150w. In games, op 100% load, zit ik gemiddeld rond de 100-110w. Daarmee zit je dus al bijna op het helft van het verbruik van een stock 7800XT. Natuurlijk kun je deze kaarten ook weer undervolten, maar ik verwacht niet dat je deze terug kunt brengen naar 100w. Ik heb echter nog niet veel kunnen vinden van 7800XT undervolt resultaten.
Weet niet hoe het met de 7xxx serie videokaarten zit. Maar mijn 6800xt kan ik zonder prestatie verlies van plaat 300 watt op 180-210 watt draaien. Met de wattman in de drivers van amd. Heel simpel te doen. Normaal staat de vcore op 1.15 volt deze kan ik op 1.03 zetten Zet ik mijn clocks vast op 2200mhz minimaal 2300mhz maximaal.
Tpd op -7%. Is ie heel rustig en koel. Met zelfde prestaties.
50 watt in piekvebruik is nu echt niet iets wat je zal merken op je rekening tenzij je elke dag uren gamet.

Als je toch zuiniger wil zijn: bij AMD kan je Radeon chill aanzetten, waarmee je in de praktijk, zonder ook maar iets te merken, nog zuiniger zal zijn dan een 4070.

[Reactie gewijzigd door kiang op 23 juli 2024 14:03]

Het voordeel met het hogere energieverbruik in AMD kaarten is dat je in de winter wat minder gas hoeft te stoken als je fervent gamer bent :)
Vorig jaar hadden wij het hier in ieder geval gemerkt!

[Reactie gewijzigd door Linke-soep op 23 juli 2024 14:03]

En tenzij je overschot van zonnepanelen hebt, is dat gewoon veel duurder. En zelfs als elektrisch verwarmen logisch is voor je situatie, dan kosten elektrische kacheltjes die je wanneer je het daadwerkelijk nodig hebt gebruikt, geen drol.
Dat klopt dus niet, je bent toch al aan het gamen, de stroom ben je al kwijt. Of je nu een rx of rtx hebt. Je blijft besparen op gas.
Ja maar resistief verwarmen is veel duurder dan met gas of een warmtepomp. Daarnaast doe je het ook als je het niet nodig hebt. Het is gewoon een zwak excuus om hoog verbruik goed te praten.
Dat hangt er echt vanaf. Als je in je ruimte waar je de hele avond bent geen verwarming dus geen CV in huis hoeft aan te zetten scheelt dat echt. Je gebruikt restwarmte van iets anders, dat is een heel valide principe. En daarna kruip je onder de wol. Op een werkdag kan dat betekenen dat je de hele winterdag geen CV aan zet behalve voor warm water; of je houdt de thermostaat simpelweg op 15-16C.

Het is niet fair om aan de ene kant te gaan zitten centenneuken over een verschil van 50-75W op je GPU om vervolgens de winstkant niet goed uit te rekenen, toch? Beide gaat over de marge. Op je jaarverbruik zijn dit luttele procenten en je smeert die meerkosten aan stroom van een GPU over de levensduur uit. Dus in praktische zin is dat geneuzel over hoger verbruik een zwak excuus om niet een snellere GPU te kopen als je het mij vraagt. Met meer VRAM. Ik bedoel waar hebben we het nog over. Als je graag een 4070 koopt, doe het dan, maar haal er geen kul argumenten bij. Wat mij betreft is de enige echt relevante invloed van meer wattage vooral meer warmteproductie in je kast en op je componenten zelf. Als dat betekent dat je meer aan koeling moet regelen of meer geluidsproductie moet accepteren is dat nadelig. Maar dat is bij dit vergelijk eigenlijk ook niet aan de hand, dat speelt pas bij kaarten over de 300W.

[Reactie gewijzigd door Vayra op 23 juli 2024 14:03]

Ik game vooralsnog op 1080p, heb onlangs een 4060 ti aangeschaft. Ik heb nog getwijfeld over een AMD kaart, maar lager verbruik + DLSS (waardoor ie -denk ik- iets langer mee kan gaan) voor Nvidia gekozen. Ik had ook een redelijk harde bovengrens qua prijs, en de enige echte concurrent was een Radeon 6750 XT. 7700 XT was ook sowieso over mijn budget geweest. Ben ook best een kleurbekenner qua merk (MSI) dat geef ik ook toe :D En ach, het is sowieso allemaal best goed spul.
Voor slechts 460 euro heb ik een luxe 6800 RX gekocht, de Sapphire Nitro+ , die ook rond de 200watt verbruikt maar wel gehakt maakt van de 4060ti.
Altijd fijn als je een mooi dealtje kan scoren :) het gros van de 6800 (XT) kaarten is (nu) boven mijn budget though.
DLSS 3.5 is alleen voor de 4xxx kaarten. Betwijfel of DLS 4 of 5 zal werken voor de 4xxx generatie, aangezien dat voor 1 2 en 3xxx serie al niet geïmplementeerd is.

FSR daartegen
Ams heeft ook al zaken exlusief ingebouwd. Is onvermijdelijk
Dat is waar. Ben van een 1070 ti gekomen, dus voor mij sowieso een upgrade. Kan er vast wel weer een jaar of 5 mee door!
Dat is precies waarom ik ook voor de 4060TI (16Gb) ben gegaan.
Ik heb zelf de 8GB versie gekocht, voor 1080p gamen is dit vooralsnog zat. Misschien niet de meest toekomstbestendige keuze, maar denk voor de komende jaren wel okee. De 16GB is ook gelijk een stuk duurder, en in benchmarks lijkt het alsof dit vooralsnog weinig verschil maakt op 1080p.

Je koopt toch iets wat op dat moment bij je budget past en wat voor dat moment prettig qua balans, performance en bijv. verbruik enzo.
Zeker waar! De toekomstbestendigheid is inderdaad de reden dat ik voor de 16GB versie ben gegaan. Inderdaad een stukje duurder, maar met het oog op het lagere verbruik, denk ik dat het zichzelf op termijn wel terug zal betalen.
Voor de huidige generatie games zal het inderdaad niet veel verschil maken, maar met het oog op steeds betere (lees: grotere) textures, denk ik dat de 16GB versie in de toekomst wel een wat langere levensduur heeft.
Dan had je beter op deze 7800XT kunnen wachten ;)

Een 4060ti blijft ondanks 16GB hangen op de lage bandbreedte namelijk, en is ook een stuk trager.

[Reactie gewijzigd door Vayra op 23 juli 2024 14:03]

Dan moet dat wel weer bij je budget passen.

Minder bandbreedte is compenseerd door grotere L2 cache. Schaalt iets minder op hoge resoluties maar daar is deze kaart ook niet voor bedoeld.
En beide buiten mijn budget. Maar als ik mocht kiezen tussen de 16GB 4060ti en de 7800XT zou het misschien die laatste worden. Hoewel ik dan net zo goed voor een 4070 kan gaan. Oh en de Nvidia kaarten zijn een stuk zuiniger dan de AMD kaarten. Maar ja, het moet ergens goed zijn. Je kan niet eeuwig wachten op het "volgende, betere model" en "Voor een paar tientjes meer heb je wat beters" houdt ook nooit op (totdat je ineens 2000 euro neerlegt voor een videokaart :P) Voor mijn gevoel heb ik een prima keus gemaakt die bij mijn wensen en mogelijkheden paste.

[Reactie gewijzigd door derkesthai op 23 juli 2024 14:03]

Als dat 8GB is dan voorspel ik dat je over 2 jaar weer een GPU aan het kopen bent. Penny wise, pound stupid heet dat.
Misschien heb je gelijk. Ik kan alleen maar zeggen dat ik na zorgvuldig afwegen een keuze heb gemaakt die ik vind passen bij mijn huidige situatie :)
Ben wel benieuwd wat DLSS 3.5, welke nu ook Raytracing ondersteund in de praktijk gaat brengen in deze prijsklasse. De RT performance, mits je de boel niet op Ultra zet (dit zijn niet echt Ultra kaarten zelfs niet op 1440p vind ik) is op het randje van 50-60 FPS. Ben niet zo van de 'trucjes' maar bij sommige games is het best goed uitgevoerd.

Mis wel de temperatuur in deze uiteenzetting, de 4060/4070 is door zijn efficiëntie buiten goedkoper op de stroomrekening ook erg goed nagenoeg geruisloos te koelen. Kan ook weer een puntje zijn om mee te nemen in de beslissing. Ik game zonder koptelefoon dus wat meer uitgeven om geen stofzuiger naast m'n bureau te hebben is voor mij een redelijk groot pluspunt.
Het punt van DLSS 3.5 denoising is dat het er beter uit ziet dan zonder DLSS. RT zonder denoising is iets dat überhaupt niet gaat gebeuren dus dit soort technieken zijn nodig om het resultaat op te schonen.

En rasterization hangt sowieso helemaal aan elkaar van trucjes. Een beetje post processing is daar niks bij.

[Reactie gewijzigd door Wolfos op 23 juli 2024 14:03]

Zag in een review dat de 7800gt belachelijk koel bleef met 60°, asrock kaartje, maar dan zullen anderen het ook wel hebben.
Wel vreemd dat de 4070ti wel wordt meegenomen maar een 7900XT niet, terwijl deze in dezelfde prijsklasse zitten.
Die keuze snap ik ook niet helemaal. Je hebt prijstechnisch de 4060ti, 4070, 7700xt en 7800xt mooi bij elkaar zitten. Hierbij is de 4070 al de duurste kaart. Dat de 4070 dan niet de beste kaart is (rasterization) is een goeie conclusie van dit onderzoek. De 4070ti is nog een stuk duurder en doordat deze ook totaal niet aangekondigd werd bij het begin van het filmpje zorgt dit voor onduidelijke resultaten.
Waar zijn de 6800 en 6800XT in deze vergelijking?
Deze zijn praktisch gezien even duur op het moment en als we Gamers Nexus mogen geloven zouden deze de 7800XT zelfs compleet overbodig maken!
Ik ben zelf nogal aan het twijfelen over welke ik zou willen kopen namelijk en het feit dat deze vergelijking niet gemaakt wordt hier helpt me nou ook niet echt veel :?
Je doet er zeker geen miskoop aan. Probeer een wat luxer model te pakken, heb je fancy koeling argb voor een prikkie en een 4060ti killer.

Een 6800Xt kan ook, maar zal ook weer wat meer verstoken. De rx6800 undervolt beter met nagenoeg dezelfde prestaties. Pakweg 160watt, dat is ongeveer indentiek aan de 4060ti waar die dan nog steeds gehakt van maakt.

[Reactie gewijzigd door Madrox op 23 juli 2024 14:03]

Ik zit nu op een GeForce GTX 1070 Ti van een jaar of 5 a 6 geleden.
Ik ben geen PC gamer maar ik zou Starfield misschien willen spelen, dus overweeg ik een nieuwe videokaart aan te schaffen. Zowel de 7700 als de 6800 zijn gelijkwaardige upgrades tov de GeForce.
De 7700 is zoals ik het nu zie enkele tientjes goedkoper. Gaat de prijs van de 6800 in de komende weken / maanden flink zakken omdat de nieuwe generatie uitkomt? Of blijft het qua prijs gelijk?
Met de 7700 ben je meer future proof gezien de nieuwere architecture. Mijn gevoel zegt dat ik beter voor de 7700 kan gaan. Of zijn er redenen om eerder voor de 6800 te gaan? :)

[Reactie gewijzigd door technoaddict op 23 juli 2024 14:03]

De 7xxx zijn ietsje zuiniger en natuurlijk wat moderner. Ik meen te hebben gelezen dat een 7800 XT iets meer bang for your buck is, maar ik weet natuurlijk ook niet wat je budget is. Volgens mij is een 7700 XT sowieso al een mooie upgrade van je 1070 Ti. Geen idee of de 6800 goedkoper word. Misschien voor even, maar ik kan me voorstellen dat de beschikbaarheid ook snel minder zal worden?
Hoe is de prijs/prestatie vergelijking met de RX 6800XT? Deze is denk ik iets goedkoper met vergelijkbare prestaties?
Onlangs mijn pc geupgrade met een 6750xt

Die trekt een steeds 50 a 60 fps in Assetto Corsa met de CSP en Pure eroverheen op zo'n beetje alles ultra op 4K.

En dat in combi met een i5 2500k.

Daar was ik wel positief verrast over :)
Je had beter een 6700xt kunnen kopen en die oc'en . Was je goedkoper uitgeweest.. Neemt niet weg van de fijne prestaties die je nu haalt.
Ik heb zelf de NVidia 4070 ti in mijn game setup zitten. En ik speel Cyberpunk 2077 op gemiddeld 84 FPS met raytracing (path tracing variant), maar dan wel met DLSS.

Het speelt heerlijk.

En ook machine learning workloads werken prettig snel op de NVidia.

Op dit item kan niet meer gereageerd worden.