Door Luke van Drie en Tomas Hochstenbach

De balans opgemaakt - RTX Super-videokaarten Review

03-02-2024 • 17:00

131

Verspreid over de afgelopen weken bracht Nvidia drie nieuwe videokaarten op de markt: de RTX 4070 Super, 4070 Ti Super en 4080 Super. Net als bij de RTX 2000-serie gebruikt Nvidia deze “Super” refresh om de prijs-prestatieverhouding van zijn line-up wat te verbeteren. De manier waarop verschilt alleen per kaart. In deze video zie je het verschil tussen de videokaarten en natuurlijk de benchmarks.

00:00 - De beste videokaarten voor gaming op 1440p en 4k in 2024
00:22 - Prijs-prestatieverhouding
00:32 - RTX 4070 Super
00:51 - RTX 4070 Ti Super
01:32 - RTX 4080 Super
02:00 - 1440p benchmarks
03:18 - 4k benchmarks
03:59 - Wat zijn de aanraders?
05:46 - Conclusie

Lees meer

Reacties (131)

131
130
42
2
0
72
Wijzig sortering
De vorige generatie 30- serie kaarten horen natuurlijk niet in de grafiek van prijs/prestatieverhouding van de huidige generatie thuis want dan krijg je een heel krom beeld.. Zo lijkt het nu net alsof de 3080 een slechte koop was en de 4080 een goede nu, wat natuurlijk niet zo is.. Ja alleen als je nu nog een nieuwe 30-serie zou kopen maar wie doet dat?!? De 3080 was in 2020 +/- 400 euro goedkoper dan wat de 4080 Super nu kost, dat is een enorme stap omhoog qua prijs (50% omhoog).. Qua prijs/prestatie vooruitgang staat de boel helaas gewoon stil.. Je krijgt wel meer prestaties, maar moet daar dan ook evenredig meer voor betalen.. Het was juist 20+ jaar lang normaal op de videokaart-markt dat je elke generatie voor hetzelfde bedrag meer prestaties kreeg, dat is nu helaas niet zo met de huidige generatie.. Dat flikte Nvidia met de 20-serie als eerste ook al zo en dat werd daarna grotendeels herstelt door de relatief goedkopere 30-serie, hopelijk gebeurt dat straks weer met de 50-serie weer na de huidige 40-serie.. Daar hoop ik op, want nu 1100-1200 euro moeten betalen voor een 50% upgrade na 800 euro betaalt te hebben voor mijn 3080 vind ik gewoon te gek worden.. Kan het makkelijk betalen maar wil dit prijsbeleid gewoon niet actief ondersteunen door het toch maar te kopen..

[Reactie gewijzigd door Inflatable op 22 juli 2024 14:36]

Zo voel ik dat ook, mijn laatste aankoop was een midrange GTX1060 6GB voor 380 euro wat ik toen al belachelijk vond. Dacht zing het wel uit tot de markt herstelt. Zo geschiedde, inmiddels kan je mij geen actieve PC gamer meer noemen.
4 jaar geleden en bijna 20% inflatie, je moet dat meetellen natuurlijk en dan is de 4080 super niet anders dan die 3080
De 4070ti was even snel als een 3090ti... voor de helft van de prijs.
De 4070 even snel als 3080ti voor de helft van de prijs.

4080 en 4090 zijn gewoon veel te duur geworden.
4070 is 9% langzamer dan de 3080TI, hij is 1% sneller dan de 3080.

De 3080 kocht ik in 2020 bij release voor 780 euro. De 4070 koop je nu voor 600 euro. 24% goedkoper voor dezelfde performance bijna 3 jaar verder, hier is inflatie nog niet in meegenomen.

[Reactie gewijzigd door DutchAce op 22 juli 2024 14:36]

Mijn 3080TI to was 1150 euro, en de 4070 die ik hier heb liggen, anderhalf jaar later gekocht was 650.
3080's onder de 1000,- waren nooit beschikbaar.

Framerate van de 4070 is nagenoeg gelijk aan de 3080 - 3080ti in de meeste games.

[Reactie gewijzigd door Aerophobia1 op 22 juli 2024 14:36]

beschikbaarheid is een ander probleem, ik heb toch echt 780 euro afgerekend voor mijn 3080, en met mij nog een aantal anderen. Het punt was hoeveel grafische rekenkracht je voor je euro krijgt. Mijn inziens is dat nauwelijks gestegen de laatste 4 jaar.
Klopt, dat gevoel heb ik dus ook en is ook gewoon aan te tonen met rekenvoorbeelden en grafieken.. Maar dat gaat er kennelijk niet in bij sommigen, die steeds de huidige prijzen lijken te moeten verdedigen alsof dat een soort van nieuw normaal is dat je maar moet accepteren.. Het lijkt wel alsof men de videokaartmarkt in de Covid19 en cryptomining hype jaren vanaf 2021 als referentie gebruikt en de +/- 25 jaar daarvoor niet (bewust) heeft meegemaakt of gewoon vergeten is.. Dat telt allemaal niet meer ofzo..

Maargoed, de prijsinflatie waanzin zal hopelijk weer doorbroken worden met de Nvidia 50-serie.. Net zoals de 30-serie een soort van correctie was na de 20-serie waar Nvidia als eerste de prijs flink omhoog gooide en je dus amper meer prestaties per euro kreeg.. Dat werd toen verkocht als Raytracing kaarten, vandaar ook de naamsverandering van GTX naar RTX.. Ze kunnen ook niet evenredig de prijs blijven verhogen, ze kunnen niet volgend jaar 1000+ euro gaan vragen voor een 5070.. Er zijn nog steeds grenzen aan wat de markt pikt, ondanks de verstandsverbijstering in 2021/2022.. Ik ken iemand die ruim €1100,- heeft betaald voor een RTX 3070 8GB, die kon helaas niet wachten ondanks mijn advies dat te doen..
3080's onder de 1000,- waren nooit beschikbaar.
Niet?!? Zal ik je de factuur van mijn RTX 3080 uit 2020 opsturen? Dan kan je zien dat ze wel degelijk voor een normale prijs te krijgen waren destijds.. Ja, je moest er even wat moeite voor doen en geduld hebben, maar het kon dus wel degelijk..

De totale waanzin die er daarna gebeurde door de crypto hype en de idiote GPU prijzen als gevolg vind ik geen referentie.. Ik had zelf dan ook nooit een 3080Ti voor zoveel geld gekocht, wat hij dus overduidelijk niet waard was, tenzij je echt niet anders kon op dat moment natuurlijk..
Ik kon wel anders, maar heb deze aangeschaft voor mijn bedrijf.
Dus kon nog de BTW terugvorderen.
Dan is een paar honderdeuro meer uitgeven en afschrijven over 3 jaar niet echt een probleem.
Andere opties waren er niet echt, welke behoorlijke update zouden zijn van mijn GTX1080TI.
En die koste toen ook al rond de 1100,- euro
Dan zou ik in VRAM er zelfs op achteruit gaan.

Voor prive doeleinden koop ik gewoon een nette 2e hands van een gerespecteerde tweaker.

Maar mijn bedrijf had een nieuwe dev rig nodig.
En dan wil je wel een duidelijke performance bump.
Als in 2x zo snel, en niet de helft meer.
Waarom koop je een kaart met nagenoeg dezelfde prestaties? Zijn er (op het stroomverbruik na wellicht) voordelen van een 4070 t.o.v. een 3080/3080ti?
Dat begrijp ik ook niet.. Ik kan alleen 2GB extra VRAM, Framegeneration en het lagere stroomverbruik bedenken wat een 4070 biedt over een 3080.. Op hogere resoluties zoals 4K en met Raytracing is de 4070 zelfs langzamer dan de 3080.. Als je van een 3080Ti komt is het dus gewoon een downgrade..

Enige upgrade die het waard is over een 3080 is vanaf de 4080, maar die zijn dus veel te duur op dit moment..

[Reactie gewijzigd door Inflatable op 22 juli 2024 14:36]

Boven deze reactie pagina zie ik staan dat de MSI 4080 Super zo'n 1218 euro is. Ik vind dat teveel geld voor een paar uur in de week genieten van high end gaming. Ook voor het prestatieverschil, ik vind het gewoon niet waard. Ben heel erg benieuwd hoe de andere consumenten reageren want als die weer masaal gaan kopen dan zullen die prijzen hoog blijven. Ik zou een MSI 4080 voor 800-900 euro veel schappelijker vinden (maar wie ben ik?).

Degene die een super kaart kopen wens ik uiteraard veel plezier met hun nieuwe kaart!
Heb je een RTX 4080 nodig op high end te gamen? Wat is er mis met 1080p of 1440p?

En dan heb je nog die Ultra of Extreme fetisch. Sommige mensen willen persé alles op ultra zetten terwijl je ze echt al naast elkaar moet draaien om het verschil te kunnen zien tussen high en ultra terwijl je in sommige games 30% kan winnen zonder significante verandering in kwaliteit.

Het is maar wat je bedoelt met High-end gaming. Als je echt van alles het beste wil dat commercieel beschikbaar is dan kan je idd heel ver gaan tegenwoordig maar met midrange kaart kan je echt wel heel wat moois op uw scherm toveren.

Besef gewoon dat een PS5 de GPU kracht heeft van een RTX2080 ti en een PS5 staat nu niet echt bekend voor midrange graphics.

Je moet echt geen duizenden euro’s betalen om heel deftig te kunnen gamen.
De PS5 GPU rekenkracht komt overeen met een RTX 2070, niet de 2080Ti.. Bij o.a. Digital Foundry op YouTube kan je daar video's over zien.. De 4070 Super is zelfs al +/- 2,5x zo krachtig als de PS5..
De PS5 GPU rekenkracht komt overeen met een RTX 2070, niet de 2080Ti.
De RTX2070, dat zou erg straf zijn om met minder Tflops meer fps te genereren.

Het enige wat in de buurt komt is de 2080ti of 3070.
Houd het midden met een Rtx2080 dan zonder de ti, ook goed. Anyway, nu met een 4070Ti Super en 4080 al dan niet super zit je daar comfortabel boven met een factor van ongeveer 2. En die console moet nog mee tot 2026-2027 pas een opvolger. Kun je nagaan wat de rtx5080 straks weer doet, de 8900xt net zo. Die gaan dat ver en ver voorbij, maar enkel met een grote portemonnee, want de rest van de game pc moet er ook naar zijn. En het stroomverbruik blijft hoog of wordt zelfs nog lichtjes hoger steeds...
Tflops kan je enkel gebruiken als je de vergelijking maakt onder dezelfde architectuur, ps5 zit wel degelijk in de buurt van 2070 performance

[Reactie gewijzigd door Sakke3 op 22 juli 2024 14:36]

Een PC is toch iets minder efficient als een console?

Hoe is het technisch mogelijk dat een 7 Tflop GPU in een PC vergelijkbaar is met een 10Tflops GPU in een console? Leg dat eens uit met uw theorie?
TFLOPS, met een "S", is slechts één meetpunt. Het is tevens een theoretisch maximum, in praktijk scenario's kan het prima lager liggen. Het houdt geen rekening met bandbreedte, TMUs, ROPs, utilisation, etc.

Verder verschilt het ook wat je met een GPU doet. Een PS5 ligt in de praktijk aardig in lijn met een RTX 2070 wanneer het om een rasterization workload gaat. Bij een RT workload ligt het een stuk lager dan een RTX 2070.

Je hebt wel gelijk dat een console doorgaans efficiënter omgaat met de beschikbare resources. Maar dat verschil is kleiner dan ooit en een PC heeft doorgaans veel meer resources beschikbaar. Van de 16GB die een PS5 of XSX heeft is er slechts 13~13.5GB bruikbaar en moet dit gedeeld* worden (incl. bandbreedte tussen de GPU en CPU) verder zijn er max 7 van de 8 CPU cores beschikbaar. Al zal een RTX 2070 beperkt worden door zijn VRAM capaciteit.

De tijden van "secret sauce™" liggen ver achter ons.

offtopic:
*Wat ook weer eigen voordelen heeft

[Reactie gewijzigd door Caayn op 22 juli 2024 14:36]

Een gaming PC heeft dedicated GDDR voor de GPU, en DDR voor de CPU. Dat is beide optimaal voor het gebruik, maar belangrijker: de PC heeft dus twee gescheiden geheugensystemen die elkaar niet in de weg zitten. De APU van een PS5 (AMD Oberon) heeft alleen een GDDR bus. Het CPU-deel van de APU maakt daar dus inefficient gebruik van, en dat gaat ten koste van de CPU. Ja, in een cut-scene waar de CPU weinig hoeft te doen kan de GPU even bursten en de volledige 10 TFlop gebruiken, maar in-game FPS is een ander verhaal.
Dus Playstation heeft door die unified memory architectuur ervoor gekozen om de ps5 wat dicht te knijpen zodat de 10 Tflops niet volledig tot zijn recht komen?

Beetje zoals de RTX4060, bewust de ram bus dichtknijpen om kosten te besparen en tegelijk een chip minder krachtig te maken zodat het in hun lineup past?

Ik zou net denken dat consoles elke frame uit de hardware willen knijpen.
Playstation heeft daar niet voor gekozen om hem wat dicht te knijpen, ze hebben daar voor gekozen om geld te besparen en nog steeds prima resultaat te leveren (ondanks het bij gesplitst geheugen mogelijk nog wat beter had gekund)

Het iets dicht knijpen is (lijkt me) slechts een bijkomstigheid van de bezuiniging.

[Reactie gewijzigd door Dom op 22 juli 2024 14:36]

Zou handiger zijn ipv vergelijken met nv je dgpu van radeon pak gezien architectuur binnen die architectuur familie lijn past is directer te vergelijken.

Naast dat net als bij M serie soc van apple hoge bandwide uma memory en gestandaardiseerd hardware io nvme opslag. Ook grote invloed heeft.
Naast game optimised en lean&mean OS en render implementatie.
Heb je een RTX 4080 nodig op high end te gamen? Wat is er mis met 1080p of 1440p?
Ik ben al heel me leven een PC game fanaat, helaas heb ik tegenwoordig vaak alleen tijd om in het weekend te gamen

Ik zit dan ook nog steeds met een 1080p scherm icm een 5700xt (deze combinatie kan nog vele games aan kan op hoge instellingen)

Zou heel graag me scherm upgraden naar een 1440p ultrawide, maar ben bang dat me 5700xt het dan totaal niet meer gaat trekken en dus ook een GPU update moet doen

Maar dan zit je weer met de absurde prijzen van tegenwoordig.. en als je weer naar de midrange kijkt vind ik de prestatie winst tegenover de 5700xt weer te klein voor het geld... dilemma's dilemma's
1080p levert je veel value for money op. Beetje uitmaken of het je stoort. Mij stoort 1080p niet echt in games wel in apps zoals Photoshop en Webbrowsen.

Als je nu een RX 5700 XT hebt dan kan je de RX 6700 XT overwegen als je uw native fps op niveau wil houden dat je nu gewoon bent. Als je nog extra's wil zoals raytracing dan kan moet je naar de 4060ti of 4070 grijpen, je krijgt meer maar het kost je ook meer.

Langs de andere kant er is nu ook FSR3, je kan dan argumenteren dat uw RX 5700 XT + FSR3 meer dan snel genoeg is om een 1440p scherm aan te sturen. Als je op 1080p steeds 60fps haalt dan kan je met FSR3 uw framerate ongeveer verdubbelen op 1440p of op zijn minst de FPS drop tegenhouden. Zo bespaar je erg veel geld, win je resolutie en je moet maar minimaal inboeten op beeldkwaliteit.
Ik pak het eigenlijk net ietsje anders aan. Ik heb voor mezelf besloten dat ik voor wat betreft gamen net zo lang op mijn backlog blijf teren tot er bijvoorbeeld iets uitkomt wat ik echt direct zou willen spelen. Dat is voor mij persoonlijk erg zeldzaam. Basically koop ik een nieuwe kaart bij de uitgave van een nieuwe GTA ofzo. En daar zit tegenwoordig lang zat tussen om eventjes alle games te spelen van tussen 2015 en 2020. En met een 5700xt op 1440p gamed dat echt heerlijk weg.

Ik kan hier natuurlijk alleen voor mezelf spreken, en als je kieskeurig bent in de games die je speelt, is de backlog misschien niet zo groot. Maar beeld je eens in hoeveel games je eigenlijk kunt spelen met een videokaart van 4 jaar oud. Het is meer dan je denkt.

En ray tracing? Ik zou het hele verhaal lekker overslaan tot er een kaart op de markt verschijnt die path tracing ondersteunt op 60fps. Anders mag je alle videokaarten die in het afgelopen jaar uitgekomen zijn, direct weer verkopen en inwisselen...

De markt is vercrackt, en ik hoop er stiekem op dat Intel tussen nu en een paar jaar daar verandering in brengt, maar mijn persoonlijke stijl m.b.t. gamen, bespaart mij een beetje de nadelen van de huidige markt.
Klopt ik heb een 7800xt voor voor 520 eur gekocht op blackfriday in frankrijk . Goed genoeg voor 1440p
Same here prachtige kaart en super goed voor 1440.
Ik game voornamelijk op 1440P. Ik heb een 1440P Gsync scherm. En 1440P is voor mij de sweetspot. Heb wel eens wat games op 4K gezet en ja het is natuurlijk scherper maar niet dusdanig verschil dat het voor mij veel euro's goed praat.

Met high end gaming bedoel ik dat je steeds de nieuwste games kan spelen op very high of zelfs ultra settings @ gemiddeld 80-100 fps met minimale fps waarden van 60.
Uw opmerking was dat de 4080super te duur was voor high-end gaming.

Dan zou je met een €500 kaart toch ruim moeten toekomen? RTX4070 bijvoorbeeld?
Ik vind de 4080 super inderdaad te duur. Is niet eens de snelste kaart voor games. Dan heb je nog de 4090.. Als ik een kaart koop moet hij ook een beetje future proof zijn. Daarom kocht ik ten tijde van de 3xxx serie een 3080. Over duur gesproken, die was ook lang erg duur. Op zijn dieptepunt betaalde je tot wel 2,5k voor een MSI 3080. Ik heb hem zelf uiteindelijk gekocht voor 1090 euro ofzo. Vond ik stevig aan de prijs maar ik had al zo lang gewacht dus ik deed het maar.
Wat is er mis met 1080p of 1440p?
Het maximale fysieke scherm formaat. Heb hier een 43".
Ik ben overgestapt naar cloud gamen via GeForce now om deze reden. Ik game misschien 4 tot 6 uur per week (soms weken niet, en dan weer een tijdje een paar uur per avond), maar wil dan wel een beetje nieuwe titels kunnen spelen. Als je dan de maandelijkse kosten van het duurste abbonement afzet tegen de aankoop van een game pc met ongeveer dezelfde specs is cloud net zo duur of zelfs goedkoper. En het werkt (bij mij althans) verassend goed.
Het bekende 'you'll own nothing and be happy' verhaal.. Alles alleen maar huren het liefst via abonnement.. Als je er maar weinig en sporadisch gebruik van maakt kan dat inderdaad voordeliger zijn..
Voordeliger betwijfel ik.. met deze kaart kun je sowieso 5 jaar door, geforce now 120 fps kost je ook 20 per maand, kost je binnen 5 jaar 1200 en heb je uiteindelijk niks ook, deze kaart levert binnen 5 jaar nog wel wat op. Het voordeel is dat je geen andere componenten hoeft aan te schaffen. Als je een computer echt nergens anders voor nodig hebt is het inderdaad denk ik wel voordeliger. Maar alleen dan 8)7
Als je elke maand dat abonnement neemt heb je een punt, al wordt er 18 euro de maand als je per 6 maanden bestelt. Zelf game ik meestal op een Steam Deck en vind ik some Geforce Now leuk voor een zwaardere game, maar ik hoef het echt niet elke maand te hebben. Dan wordt het al veel goedkoper zo

Met Geforce Now zal er in die 5 jaar ook wel een upgrade naar een 5080 kaart komen, hoef ik niet te investeren in een krachtige CPU met bijbehorend platform, eventueel meer/snellere RAM, bespaar ik flink op stroomkosten, en nog wel wat zaken die goedkoper uitvallen.

Je zal een betere ervaring hebben als je zelf een goede PC van €2000+ hebt, en dan bezit je het ook inderdaad echt wat toch een pluspunt is. Maar om nou te stellen dat je met Geforce Now even duur uit bent gaat alleen op als je toevallig de rest van een game-PC al in huis hebt en om de een of andere reden nog een GPU ontbreekt.
Dit dus. Dit is wat de markt met hun marketing gecreëerd heeft. Denken dat een gamepc 2000€ of meer moet kosten.

Van de week heb ik een build van € 1000 gemaakt. Compromissen, sowieso, kan je hier lekker alles op gamen met deftige kwaliteit en een deftige framerate, sowieso. € 989,40 met bestelkost erbij.

By any means, iedereen doet wat ie wil, high end pc kopen, cloud gpu afnemen. Maar ik denk niet dat iedereen aan een cloud gpu de markt goed gaat doen. En ik denk ook dat er de laatste jaren teveel nadruk gelegd wordt op het high end segment, met weinig tot geen notie over wat er in het lagere segment allemaal kan.

@Kriebelkous @Waah @Netrunner @MetalSonic @Coolstart

[Reactie gewijzigd door BlaDeKke op 22 juli 2024 14:36]

Helemaal mee eens met dat je een goede game-pc voor onder de 1000 euro hebt. Ik vind zelf een Steam Deck voldoende voor zo'n 90% van mijn game time. Voor die overige 10% vind ik een pc van bijna 1000 euro dan toch wat gortig en stream ik liever sporadisch een maandje ;)
Je vergeet dat met die uren zo'n PC met 4080 ook fors wat energie er doorheen gaat. En je wilt een goed scherm (niet per se alleen voor office gebruik), beetje goede CPU en RAM, opslag.

Ik blijf ook kopen, omdat ik echt die latency niet trek in snellere games, maar voor ieder wat.
Ken je Apex Legends? De battle royale game waar ADHD & Spastische reactievermogen benodigd was om je tegenstander uit te schakelen? Ik heb via Geforce Now op Diamond niveau gespeeld, dat is best hoog...
Dus je bent de nummer 1 spast met adhd? :+

Ik kan geen cloudservice voor GPU aanbevelen. Als iedereen stopt GPU’s te kopen en iedereen betaald een abbo voor zijn cloud GPU, dan hebben ze ons toch bij ons ballen?

[Reactie gewijzigd door BlaDeKke op 22 juli 2024 14:36]

Maakt toch niet uit als we gpu's kopen of subscripties afneemt, als het bij hetzelfde bedrijf is komt het uit op hetzelfde
jaaaa ok maar in Geforce now mag ik straks wel met een 4080, 4090 of 5090 spelen, die moet jij straks weer aanschaffen. Wie zegt dat ik 5 jaar lang mijn abonnement actief houd, misschien is het maar de helft?
Verschil is wel dat je na 4 jaar nog steeds een high-end systeem hebt bij huren, en jij met een 2-generaties-oude kaart zit.

na 5 jaar 1200 euro klinkt veel. Maar is net zo duur als de videokaart.... En daar moet noge een kast/voeding/goede processor/RAM etc bij. voor minder dan 2000 euro zal je dan niet klaar zijn.

Zelf koop ik ook, maar ik vind gamen nog steeds prima op mijn GTX1070. Maar ik vertik het om meer dan 500 euro voor een videokaart te betalen.... Dus game nog wel ff door
Tenzij je je PC bij het grofvuil zet heb je altijd iets om door te verkopen waardoor je niet iedere keer de volledige prijs van nieuwe hardware neertelt.
Als je nu high-end hebt en nextgen games zwaarder worden door oa nextgen console targets mainstream verschuivingen.
Shift je gen oude high-end naar sub high-end. Volgende nextgen shift die naar midrange. Gen 2 jaar is ben 4 jaar verder . Het is dan wel belangrijk om wat future proof te kiezen. Meer vram meer sysram. Een high-end zal bij mij langere duty cycle hebben dan midrange keuze daar sla ik 1 a 2 gens over of tevreden met 1080p 3 gens.
Als je nu top high-end pakt kan je 4 gens overslaan. En voor 1 zware ruk game ga je setting tweaken ook bij 1080p ipv meteen naar de winkel te rennen high/ultra/extreem settings is geen must. Ook omdat soms grafisch veel kan uitmaken. Maar veel ook maar marginaal. En voor de game experience nog minder relevant


BF2 zag er ruk uit met 8500DV dus ja upgraden
Crysis op 8600GS op low zag er ruk uit medium te lage fps. Farcry zag op low goed uit 1080p vista , dat naast Vista HD2900XT medium/high mixed setting crysis zag er geweldig uit. P2 tijdperk Novalogic games die baad hadden bij PentiumIII 450mhz upgrade.

Ja het is wel tijd om die Vega56 te vervangen voor iets midrange modern.
Vega56 == 3050 == 1080 wat zou dat 4 serie zijn 4040 ? RX7400 Ultra low budget

Nu rx7700 tot rx7800 is flinke step up.
En dat is inderdaad bij mij zo. Heb een laptop van de zaak en een homelab met een clusterje servers thuis staan voor al het andere werk. Naast gamen deed ik op mijn main pc niets meer dan mailen naar en rdp-en\ssh-en naar andere machines.
Dan is nu 2000+ euro uitgeven aan een nieuwe pc tegenover wat tientjes in de maand een makkelijke keuze. Zeker ook omdat ik de mazzel heb dat ik van de latency helemaal niets merk. Kan natuurlijk een skill issue zijn, maar ik game niet competitief ofzo. Het is voor mij tijdverdrijf.
Je vervangt normaliter ook niet alleen je gpu elke 5 jaar. Maar ook de gpu, mobo, ram en misschien zelfs wel je voeding. Nu kan ik gamen met een aardappel-pc, een telefoon, een oude i5 die je aan je tv in de woonkamer hangt, je laptop, etc. Waar ik ook ben. Dat voegt ook weer wat extra waarde toe. Natuurlijk merk je dat de latency veel erger word als je een apparaat gebruikt wat op wifi zit ipv bedraad, maar in dat geval speel je even iets waarbij het minder belangrijk is.

[Reactie gewijzigd door Kriebelkous op 22 juli 2024 14:36]

Zo'n domme opmerking is het absoluut niet. Kosten en baten moet je goed afwegen.

Zelf vind ik het wel wat hebben dat ik de hardware zelf bezit en ik koop elke 3 jaar een gamerig. Hoe hoog de videocodec staat afgesteld zie je in de game. Als ik ga gamen wil ik puur beeld en geen video encoder en decoder eroverheen hebben met de nodige lag. Nu zal dit allemaal wel meevallen, maar qua geluid en beeld ben ik echt een kniesoor.
Ik denk verder niet dat het verstuurde beeld 120 mbps+ is omdat er bandbreedte over moet blijven voor duizenden andere gebruikers die in the cloud gamen.

Maar als hij er blij mee is heb ik niets te melden, maar ik zou het wel weten ;)
Absoluut, ik mis Stadia nogsteeds. Wat een geweldig product was dat.

Nu ben ik weer eigenaar van hardware, het voelt als een stap terug.
Ik snap moeilijk dat mensen fatsoenlijk konden gamen op Stadia

Ik ben een gamer die niet snel last heeft van te lage framerates, en 60 hz nog steeds prima vind

Echter via Stadia gamen vond ik echt verschrikkelijk.. de input lag is gewoon niet te doen en zelf in spellen waar dat niet zoveel uitmaakt vond ik het zwaar irritant

En dan had ik Chromecast Ultra met Stadia gewoon bekabeld aangesloten

Wellicht is het later verbeterd? want na die ervaring ben ik er meteen mee gestopt
Eigenlijk niet eens een gek idee , ik heb lp’s , cd ‘s , DVD’s die ik nooit meer gebruik. Ook nog andere digitale media waar je dan voor moet gaan zoeken. Mijn kinderen hebben spelletjes voor de Wii en Xbox die ze nooit of nauwelijks gebruiken.
Dan kan een abonnement natuurlijk handig zijn.
Juist niet toch? Hoe meer je gamed hoe goedkoper het word. De slijtage en stroomverbruik van de componenten zijn namelijk voor iemand anders. Hoe meer je gamed, hoe goedkoper het word om die rekenkracht lekker in een datacenter te laten doen.
Totdat ze de abonnementsprijzen weer omhoog gooien. En meer dan 70% van de games die ik heb steam heb werken niet op Geforce Now. Dus voor mij is het geen nuttig product, heb het overigens 2 jaar gehad (founders edition) dus heb het ruimtschoots geprobeerd.
Dat is wat mij betreft redelijke contra productief. Je koopt een snellere kaart omdat je graag soepele gameplay hebt. Die soepele gameplay krijg je van lage latency. Die lage latency krijg je van hoge fps. Ga je vervolgens naar een cloud oplossing dan krijg je per definitie enorme latency. Qua ervaring kun je dan net zo goed op 30 fps gaan gamen met een goedkopere kaart. Daar is an sich niks mis mee, maar dat is echt even wat anders dan zelf een 4080 in je systeem zetten.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:36]

Als ik iets van latency zou merken zou ik het met je eens zijn. Ik was ook bang voor enorme latency toen ik het probeerde. Maar ik merk echt geen enkel verschil tussen lokaal en cloud gamen. Ligt misschien aan mij gaming skills of aan het type spellen wat ik speel.
Als ik iets van latency zou merken zou ik het met je eens zijn. Ik was ook bang voor enorme latency toen ik het probeerde. Maar ik merk echt geen enkel verschil tussen lokaal en cloud gamen. Ligt misschien aan mij gaming skills of aan het type spellen wat ik speel.
Dat is prima maar mijn punt is dat je in dat geval ook prima uit de weg kunt met 30 fps en dus met een midrange videokaart.
Na jaren via de cloud gamen, en nu weer lokaal, kan ik je een ding vertellen. Latency is een non issue. Er zijn misschien andere nadelen te noemen, maar van invoer vertraging enz heb je totaal geen last.
Of je latency merkt is heel persoonlijk. Ik merk het al als ik via steam naar mijn tv stream. Xbox streaming naar mijn telefoon kan in Forza nauwelijks op de weg blijven, laat staan een race winnen op mijn normale niveau.
Is bij competive online esport games latency zeer belangrijk. Alleen is die 240 refresh gsync reducte komt na de lag van online sync mplay verwerking. Ik zie op de PS5 ook nog gamers warpen in cod mwiii is misschien je internet lan verwerking niet optimaal. Bufferbloat.
Cloud game client hardware zit in server farm en die hebben mogelijk ook wat betere verbinding met andere serverparken waar game servers zitten. Dat mogelijk ook deels compenseert. Competive player hebben naast 240+ monitoren en stevige gamerig ook game geofencing bufferbloat QOS game router.

Ik ipv er veel cash tegen aan te gooien dan maar iets minder K/D ratio.
De realiteit van lag compensation technieken maakt de boel wat complexer dan lager=beter. Ja 30ms is beter dan 200ms. Echter 30ms kan weer beter zijn dan 5ms.

Is cod niet gewoon een peer 2 peer game?

Verder zal er geen succesvolle esporter te vinden zijn die betere resultaten haalt met cloud gaming, daar is de input lag (de tijd tussen dat jij klikt en het spel die klik verwerkt) te groot voor.
Ik ben overgestapt naar cloud gamen via GeForce now om deze reden. Ik game misschien 4 tot 6 uur per week (soms weken niet, en dan weer een tijdje een paar uur per avond), maar wil dan wel een beetje nieuwe titels kunnen spelen. Als je dan de maandelijkse kosten van het duurste abbonement afzet tegen de aankoop van een game pc met ongeveer dezelfde specs is cloud net zo duur of zelfs goedkoper. En het werkt (bij mij althans) verassend goed.
Nogal waardeloos om die basic free account te proberen zeg !
Bijna 40minuten aan het wachten om eens CS2 uit te proberen op geforce now.
Wil je de wachttijd verkorten upgrade dan is de boodschap van Nvidia, wat een geldwolven echt.
Een probeerversie zou juist soepel moeten verlopen zodat ik sneller een account zou betalen toch :)
Er zijn nog 60 gamers boven jouw, na ruim 40 minuten !
Eerst even gratis uitproberen om dan vervolgens niet te kunnen spelen door de enorme wachttijd :)
En zo te zien zuipt dit ook nogal veel dataverkeer bij gebruik !

[Reactie gewijzigd door Politicfrustati op 22 juli 2024 14:36]

Die free accounts lijken er ook uit te gaan en ik dacht dat deze ook al even niet meer te krijgen waren.
Het ziet er naar uit dat de free accounts worden vervangen voor "betalen voor een dag". Juist omdat de wachttijden bij free enorm zijn opgelopen. 40 minuten is nog aan de korte kant.

Bij een betaald account heb ik echter nog nooit een wachtrij gezien die langer duurde dan 10 seconden
Ruim 1u 40 later nog steeds aan het wachten !
Hoe kan je nou overtuigd zijn als je niet eens een deftige kans krijgt het te testen ?
Nvidia zijn pure geldwolven en niet alleen met hun GPU's blijkbaar :)
Nog steeds 7 gamers boven mij na 1u 40 wachttijd !

[Reactie gewijzigd door Politicfrustati op 22 juli 2024 14:36]

Yep. Die free accounts werken voor geen meter meer. Er is zo veel vraag dat de wachttijden te ver zijn opgelopen en ik snap wel dat nvidia niet gaat investeren in de infra zodat gratis accounts beter werken. Iets moet de servers en het personeel betalen. Ik heb zelf gewoon een maandje aangeschaft om het te proberen. En dat beviel. Als ik uit eten ga mag ik ook niet vooraf proeven. Die free accounts waren er om de boel wat bekendheid te geven, en dat is gelukt.

Sowieso is het belangrijkste je eigen connectie met het internet. Via wifi merk je bijvoorbeeld wel een verschil met lokaal gamen. Dit zal ook zo zijn via een internetverbinding met veel jitter of packet loss. Dit is te meten.

Maar hier met een pc bedraad aan een glasvezel verbinding werkt het vooralsnog als een zonnetje
De "basic free account" is simpelweg de vrije capaciteit als de betalende abbonees niet 100% van de capaciteit nodig hebben. Dan maak je op dinsdagochtend 11 uur meer kans dan op zaterdagavond 9 uur.

En natuurlijk krijgen betalende klanten voorrang. Dat is onderdeel van de deal - betere service in ruil voor meer geld. Het zou wat zijn, je neemt een abbonement omdat je gelokt bent door de gratis dienst, en dan krijg je daarna een slechtere service 8)7

En ja, natuurlijk gebruikt dit veel data. Het is een 1440p videostream, plus een beetje extra. Zit je op een 4G verbinding met beperkte GB/maand, dan is dat geen slim idee.
Probleem Met geforce now, is dat een hoop titles niet in de lijst staan.

Van mijn 325 Steam games staan er maar 70 tussen :/
Ik lees veel enthousiaste reacties over Cloudgaming. Wellicht probeer ik dat in de toekomst ook eens. Op dit moment vind ik het voordeel van een eigen build dat ik het eventueel nog kan verkopen (ja voor veel lagere prijs natuurlijk maar het kan wel) verder heb ik al genoeg vaste abbo's uitgaven. Hoeft Cloud niet bij voor mij.
Het is niet alleen de prijs van de kaart zelf, de rest van de PC die erbij hoort, de hoeveelheid stroom die het verbruikt, de wrmte die het genereert waarbij je een signifficant deel van het jaar de kamer actief moet koelen waarin je speelt, etc.

Dit terwijl je tegenwoordig prima op zelfs integrated graphics kan gamen (zoals bv. een Steam Deck). En als je meer power wil zonder de kosten/nadelen, dan kan je altijd streamen. Een Geforce Now 4080 abo kost je iets van €200/jaar, kan je niet alles mee spelen en het is wellicht niet zo responsive als het allemaal lokaal draaien, maar je kan het draaien op relatief lichte hardware die zelfs passief gekoeld zou kunnen worden.
Een kamer koelen vanwege de warmte van de apparatuur?..lijkt mij wat overdreven dat het zóveel warmte afgeeft dat het zover komt. Of je zit in een heel kleine kamer.
Was het maar zo dat m'n 4080 + 13700K mijn kamer op temperatuur kon houden. Maar hier moet gewoon de kachel nog aan.
Hoe groot is je kamer? Zoals ik al zei:
oudje hier: 3570k, 24Gb, rtx2060. En mijn werkkamer is slechts 2.5x4meter.

Op een koude winterdag zit ik hier na 2 uur gamen in een warme kamer zonder verwarming....
Is ook overdreven. Ik krijg de kamer ook niet warmer en verstookt ongeveer 600-700W als de RTX 4090 vol aan het werk is de. Dit is inclusief monitor en een paar lampen.
Het is vooral merkbaar in een kleine kamer, maar warmer wordt het zeker.
Haha nou hier game/werk ik op een oudje: 3570k, 24Gb, rtx2060. En mijn werkkamer is slechts 2.5x4meter.

Op een koude winterdag zit ik hier na 2 uur gamen in een warme kamer zonder verwarming....
Een 4080 Super trekt ruim 300W, met CPU+mobo, etc. 500W+
Daarnaast je andere apperatuur wat de kamer verwarmt, TV/monitoren, eventuele verlichting, etc. En dit doe je niet een paar minuten, dit doe je uren lang. Die warmte moet toch ergens naartoe.

Ik zit op een 108m3 grote zolder en in de zomer is het verschil merkbaar tussen een flinke desktop zonder gaming (verre van een 500W+ 4080 super + 13900K) en een zeer zuinige desktop. Zo erg dat het regelmatig het verschil uitmaakte tussen dragelijk en niet dragelijk. Gaming daarop zorgde ervoor dat het heel snel ondragelijk werd en je kreeg de warmte zonder hulp er gewoon niet uit.
mijn pc met een 3060ti en een undervolted 5950x verbruikt 10% van ons jaarverbruik (paar maanden gemeten). 2 persoonshuishouden met electrisch koken. Ik gebruik de pc ook voor werk maar toch, het is wel veel. Het is toch wel 0.4kWh zo'n PC.
Een kamer koelen vanwege de warmte van de apparatuur?..lijkt mij wat overdreven dat het zóveel warmte afgeeft dat het zover komt. Of je zit in een heel kleine kamer.
Zeg maar een kelderkast, anders ga je dat 'kamer koelen' echt niet nodig hebben.
1 maandje GFnow was in 2021 super kosteneffectief om Cyberpunk met raytracing te mogen ervaren. Het kan dus prima in combinatie met een budget gamingPC als je niet alleen triple A games speelt.

Voor de rest doet mijn achterhaalde build nog altijd alle low en midrange games prima. Ik zie gewoon geen reden tot upgraden zolang een nieuwe RTX*060 kaart niet sterk genoeg is om nieuwe games op hoge settings met raytracing te spelen op 1080p/60. Laat staan 1440p ultrawide waar ik naartoe wil.
Komt uiteraard veel meer bij kijken. Rest heb ik maar niet vermeld omdat het dan wellicht als offtopic werd beleefd. Je hebt natuurlijk gelijk dat om te kunnen genieten van de nieuwste gpu je ook een passende cpu nodig hebt, passent werkgeheugen, mobo etc etc. Zo even snel denk ik dat als je nu een 4090 SUPER installatie wil je sowieso op 2,5k tot 3k zit.
de wrmte die het genereert waarbij je een signifficant deel van het jaar de kamer actief moet koelen waarin je speelt, etc.
Pfff wanneer stoppen mensen hier eens met die belachelijke opmerkingen dat je een kamer kan verwarmen of moet koelen omdat er een game pc in staat

Hoeveel warmte denken mensen dat een pc kan afgeven? dit komt echt totaal niet in de buurt van een kachel
Wellicht had je wat langer op school moeten blijven zitten en wat meer aandacht moeten besteden aan je natuurkunde...

We hebben het hier over een game pc die 500W+ trekt ingame. Die elektrische kacheltjes die je bij bv. Bol.com kan kopen trekken maximaal 1500W, maar hebben ook gewoon standen voor 750W. En die gebruik je in de winter om je kamer te verwarmen. Nu heb ik het over de zomer...

Alleen al een 4090+14900k verbruiken samen al meer dan 600W, als je daar de rest bij gooit, inclusief een flinke monitor/TV is bijna 750W uit de muur niet heel onrealistisch... Zo goed als al die energie wordt ook bij een game PC omgezet naar warmte. Nu is er een verschil tussen 500W en 750W, maar dat betekend gewoon dat het sneller of minder snel verwarmt, maar verwarmen doet het.

Op het moment dat het buiten warmer is dan binnen, waar gaat dan exact die energie/warmte naartoe? En helemaal als we wat modernere huizen nemen welke juist goed gesoleerd zijn en warmte binnen houden? Raam openzetten kan, maar ook dan weer, buiten warmer dan binnen.

Als ik kijk naar mijn eigen situatie, tijdens de zomer is echt wel merkbaar dat je geen 300W, 16 uur per dag meer gebruikt, week in week uit.
Wellicht had je wat langer op school moeten blijven zitten en wat meer aandacht moeten besteden aan je natuurkunde...
Natuurlijk.. ga als een echt kind meteen op de man spelen..
ie elektrische kacheltjes die je bij bv. Bol.com kan kopen trekken maximaal 1500W,
Ik weet niet waar jij kijkt, maar kachels van 3000 Watt zijn overal te krijgen.. zelf heb ik er 1 van 2000 Watt staan

en nee een 500/600w PC kan je echt niet gebruiken om een kamer op te warmen in de winter.

Ja natuurlijk in de hete zomer dagen wordt je kamer nog warmer door een pc...

Echter is dat bij lange na niet zoveel dat je extra moet gaan koelen... als je al extra moet koelen komt dat omdat het buiten achterlijk heet en niet omdat je PC je kamer zoveel verwarmt... in andere woorden dat extra koelen had je dan sowieso moeten doen
dat kan wel degelijk 550 watt PC hier stookte mijn kamer prima warm in de winter dus dat gaat prima

als ik de deur niet openzette sloeg de PC zelfs uit omdat de boel te warm werd
Dat is echt afhankelijk per persoon, en hoe je het gebruikt want als je naar de bioscoop gaat ben je ook voor 2 uur (+/- 10 a 15 euro kwijt), dat is ook duur maar het kan het waard zijn.

Je zou het kunnen overwegen als je echt plezier ervan gaat hebben, geld ervoor hebt en als je het echt nodig hebt, b.v. om op > 120 FPS te komen met een bepaalde setup.

Natuurlijk zijn er ook mensen die prima met 60 FPS overweg kan, die kunnen natuurlijk een goedkoper nemen en tegenwoordig met een AMD APU kun je op 1080P, 60 FPS best goed gamen volgens mij (Radeon 780M).

Vind het ook duur hoor maar of het dat geld waard is, kan ik voor een ander niet bepalen dat moeten ze zelf doen.
Waard? Heb je het nodig? En ga er aanzienlijk op voorruit? Probleem hier is dat game experience subtiel of nauwelijks beter wordt die 4K vs 1440p merk niet veel van. Meestal is probleem met gameplay problemen : AI stom ,game slecht uitgewerkt, user interface. Dan heb Nintendo die zich focussen op gameplay first en abstractere render content. Voordeel niet insane zware hardware nodig en dus veel toegankelijker voor de massa.
Is het meer patsen of status voor de heb.
Luxe. Zoals auto voor woon werk , cabrio er bij en motor .
Waard is niet als gewoon geld over de balk gooien, omdat het kan.
Het is groter probleem als dat ten koste gaat van primaire zaken.
Zoals koos werkeloos met 4090 game rig. Vs die met nieuwe M5 voor villa naast Cabrio en boodschappen SUV. Is 4090 .
Wat ander doen moeten ze zelf weten. Maar dat kan kwa overheid ook sturen of ontmoedigen. Zoals 2000 tot 3000kg EV is niet de bedoeling.
Want een 4080 is de enige kaart die je kan kopen?
Iets meer dan 20 jaar terug kocht ik mijn eerste high end grafische kaart, een Geforce 4600, voor 499 Euro. Compenseer ik dat voor inflatie dan zou die kaart vandaag iets meer dan 800 Euro kosten. En terwijl technologie in die 20 jaar sterk in prijs gedaald is moet je eens kijken wat die high end grafische kaarten vandaag de dag kosten.
Of je kocht voor 200 een Ti 4200 en met een beetje mazzel haalde je daar ook ultra speeds mee (300/600). M'n XFX4200Ti 128MB kwam tot 315 (core) / 630 (mem) vanaf 250 /444.

Jammer dat overclocken niet meer zo veel extra prestaties oplevert als toen (Amd BaronM van 1900Mhz naar 2750Mhz @2,1 volt, 2x128MB Winbond BH6 werkgeheugen van 166 2-2-2-5 T1 naar 250 2-2-2-5 T1 @3,8 volt. bovengenoemde Ti4200 er bij en gaan met die banaan. (later overigens een 6800GT op 465 (core) / 1320 (mem) @ 1,4volt)
Nou was dat coolertje op mijn ti4200 nogal bescheiden en begon na een jaartje een behoorlijk snerpend geluid te maken. Toen maar vervangen door de verguisde 6200 die bijna dezelfde performance had , maar dan zonder fan! Dat vervangen was ook wel eens zonde van de ouwe gpu, maar destijds kon je gewoon na 1-1.5 jaar iets veel beters voor dezelfde prijs of veel goedkoper hetzelfde krijgen. Nu is het vermoeiend nogal vaker een beetje meer prestatie voor meer geld
De huidige generatie GPU's is echt bedroevend hoe klein de stap vooruit is qua performance per dollar/euro.

Het lijkt alsof we nu al jaren stilstaan. Gaat Battlemage, de volgende Intel Arc, eindelijk eens competitief meedraaien en zorgen voor wat prijsdruk?
De hoop is inderdaad voor de verandering eens op Intel gevestigd als het om nieuwe betaalbare (i)GPU's gaat. AMD gedraagt zich net zoals Intel toen het koning keizer admiraal bij de CPU's was. (socket 1151v2 grrrr!)

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 14:36]

Voor 800 euro heb je een 7900xt of 4070 ti die gemiddeld 80-90fps in 4k ultra doet.

Dat is high end hoor.
GPU kosten zijn ook sterk in prijs gedaald als je kijkt naar performance per euro.
Dat wordt toch niet gezegd? Enkel dat hij specifiek de 4080 Super te duur vindt.
Ja en er zijn goedkopere kaarten dan een 4080 super. Niet alsof de 4080 super de enige is die je "high end" gaming kan geven. hangt natuurlijk af wat je verstaat daaronder.
genoeg mensen die de 4080 voor hetzelfde dan niet een hoger bedrag hebben gekocht. Waarom zou de 4080S dan niet verkocht worden?

Mij niet gezien maar teveel mensen die het schijnbaar geen probleem vinden waardoor de prijzen inderdaad hoog blijven
Ja je hebt 100% gelijk....

Maar ze zijn wel heel snel en je kunt er vette dingen mee doen...

"Tweakers oogjes gaan heel groot open staan"
ik etaal nooit meer dan 500 euro voor een kaart en koop dan het beste wat ik kan krijgen, ik heb een 1440p scherm en dat gaat prima
Het is het mij wel waard persoonlijk al betaal ik uiteraard ook liever minder. Ik doe 2 a 3 drie jaar met zo’n kaart. Dan valt het wel mee en maakt een paar honderd euro ook niet zoveel verschil met die horizon.
Ik vind de super en de ti ook duudrder bovendiengaan sommige mensen niet voor 2 of drie procent prestatie winst.Ik ben geen gamer ik game alleen unreal tournament 99 af en toe en ik ben niet van plan zo een dure videokaart te kopen.ik vind het een beetje onzin waar ik het voor gebruikt.
De hoge prijzen van deze gpus en veel andere onderdelen hebben mijn enthousiasme voor een zelfbouw systeem wel aardig uitgedoofd. Heb een 4070 laptop gescored voor 1200 tijdens de Black Friday en heb niet meer om gekeken. Dlss aan en alles draait als een tierelier.
Dat is een goede prijs! Welke laptop als ik vragen mag?
Dat is een goede prijs! Welke laptop als ik vragen mag?
uitvoering: Lenovo Legion Slim 5 16APH8 (82Y9008NMH)

Heeft mijn verwachtingen overtroffen. Ik herinnerde me die gaming laptops waar je met oordopjes mee moest werken vanwegen het lawaai. Zelfs de vorige generatie Zephyrus met 3070 heb ik retour gestuurd omdat het niet te doen was maar deze blijft gewoon stil en performance is ook boven verwachting goed. Heb er 32GB ram en een 2tb ssd in gestopt want die prijzen waren toen ook heel laag en hij is helemaal af. Zou er een hele review over kunnen schijven hier ;-)

[Reactie gewijzigd door nestview op 22 juli 2024 14:36]

Heb zelf nu sindskort de Asus 4070 super, voorheen de RTX 3070 uit 2020.
Maar moet zeggen dat ik gemiddeld 30% meer fps heb en dat voor 690 euro vind ik netjes.
Hier ook Asus RTX 4070 Super, afkomstig van een RTX 2070 Super. Een verdubbeling van frames in Cyberpunk en vrijwel hetzelfde in andere games. Voor mij de beste aankoop in tijden.
Mijn complimenten voor de video! By far de meest duidelijke toelichting op de nieuwe lichting die ik tot dusver heb gezien. Die custom graph was echt fantastisch!

De AI capabilities van Nvidia zijn gewoon erg goed, ook additionele software stack die Nvidia aanbiedt (bijv. die applicatie die je ogen naar de camera laten kijken tijdens een videocall, en meer) lijken me echt heel tof om eens goed mee te experimenteren en eventueel implementeren in m'n workload.

Ik ben geen gamer, maar zit momenteel op een 1070ti via eGPU en gebruik m'n setup voornamelijk voor productiviteit. Al een poosje aan het rond kijken voor een potentiele upgrade. De extra GB's op de 4070Ti Super lijken me fantastisch om eens mee aan de slag te gaan voor local AI, echter door die "value"-graph is misschien een stapje omhoog naar de 4080s een beter idee, alhoewel dat natuurlijk fps gebaseerd is. Eerst m'n portemonnee maar eens aanvullen... Ben benieuwd hoe dat verder zit met de huidige TB3/4, de nieuwe TB5 en eventuele bandbreedte.

[Reactie gewijzigd door Scorp op 22 juli 2024 14:36]

Dus afhankelijk van je budget of specifieke use case zijn enkel de RTX 4090 of de RTX 4070 Super van Nvidia een logische keuze en anders kan je beter wat geld besparen of er bij doen voor een kaart van AMD die wat goedkoper is en/of meer prestaties leveren ten opzichte van het bedrag wat je ervoor betaald.

Uiteindelijk blijf ik deze GPUs behoorlijk duur vinden. Ik zou ervoor kiezen om dan maar op een lagere resolutie te spelen of wat pracht en praal uit te zetten in de settings om een vloeiende framerate te houden. Dat vind ik veel belangrijker. Upscaling werkt voor mij dus ook nog wel aardig, maar frame generation met meer input lag is niets voor mij. Ik heb het nog nooit getest, maar het lijkt mij enkel voor turn based games mogelijk wat.

Ik vind de ontwikkeling de laatste jaren behoorlijk tegenvallen. Ik heb niet het idee dat de afgelopen 5 jaar de prestaties per gespendeerde Euro nu echt veel omhoog is gegaan. Ik heb het idee dat dat in vroegere periodes sneller ging. Denk toch een beetje dat dat komt omdat er veel R&D gestoken wordt in AI ontwikkelingen, maar dat die zich vooralsnog niet evenredig terug betalen. Ik hoop dat tegen de tijd dat ik aan een nieuwe GPU toe ben dat beter is, want van het huidige aanbod wordt ik heel erg warm of koud van.
Verstandigste is denk ik om deze refresh over te slaan. Zelfde spul met een nieuwe doos, ietsje sneller en wat goedkoper = kijk eens wat een goede deal. Komt allemaal erg gekunseld over dat er nu 10 versies bestaan van dezelfde chip.

Ik sla deze "uitgemolken" generatie over, hoop dat AMD een leuke kaart neerzet aan het eind vh jaar.
Nvidia probeert iedereen natuurlijk heel lekker te maken met deze nieuwe serie kaarten. Maar het is hetzelfde geval als bij de 2000 series kaarten waar de super versies niet veel verandering brachten (behalve prijzen). Ik sla altijd een generatie over qua kaarten en dat werkt prima. Ben van 1080Ti (wat een monsterkaart) naar 3080 gegaan en in Q4 zal ik gaan kijken naar de 5080. Met de FSR3 mod voor 3000 series kaarten heb je niet heel veel voordeel meer aan de 4000 series. Voor mensen die nog moeten instappen qua videokaart, zijn de super kaarten natuurlijk wel interessant om naar te kijken. Maar dan zou ik ook eens bij AMD kijken, zij kunnen nog meer bang for buck leveren met de 7900 XTX.
Grafiekje van "Wat zijn de aanraders" zou de standaard moeten worden doorheen alle benchmarks. Dat is voor de consument van echte waarde! _/-\o_
Jammer dat 4k gaming op pc zo Duur is

Op dit item kan niet meer gereageerd worden.