Door Reinoud Dik

Redacteur

Nvidia GeForce RTX 4070 Review

Lekker zuinig... voor een moderne videokaart

12-04-2023 • 15:00

278

Singlepage-opmaak

Conclusie

Het is een bekende uitspraak in de hardwarewereld: er bestaat geen slechte videokaart, alleen een slechte prijs. De RTX 4070 is geen slechte videokaart, maar over de prijs valt zeker te discussiëren. Tegenover zijn voorgangers is de RTX 4070 namelijk flink aan de prijs. Ten opzichte van de RTX 3070 is de RTX 4070 toch 29 procent duurder als we uitgaan van adviesprijzen tijdens de introductie. De prestatietoename bedraagt daarbij een akelig vergelijkbaar, en zelfs iets lager percentage. Dat lijkt dus allerminst een goede deal.

Wat is het nieuwe normaal?

De adviesprijs van 669 euro voor de RTX 4070 sluit aan bij hoe Nvidia de andere RTX 40-kaarten in de markt heeft gezet. Deze adviesprijzen zijn flink hoger dan de RTX 30-serie toen die werd uitgebracht. Wel is het verschil dat het bij de introductie van de 30-serie eigenlijk theoretische adviesprijzen bedroegen omdat je bijna nooit een kaart voor die prijs kon kopen. Bij de RTX 40-serie is tot dusver te zien dat die adviesprijzen in de praktijk aardig goed kloppen, en je dus in werkelijkheid iets minder extra's ten opzichte van de vorige generatie moet betalen dan op het eerste gezicht lijkt. Ook ziet de wereld er anders uit dan toen de 30-serie uitkwam, en inflatie heeft ook zijn werk gedaan. Het is vooral aan de consument om te bepalen of de prijzen van de RTX 4070 nog acceptabel zijn of niet. De grote vraag is of mensen bereid zijn voor deze mainstreamkaart een bedrag neer te tellen waarvoor ze enkele generaties terug nog het uiterste topmodel kregen. Mocht de vraag tegenvallen, dan is de prijs voor Nvidia natuurlijk een makkelijke knop om aan te draaien.

De RTX 4070 heeft net als de RTX 4070 Ti 12GB aan vram. Dat is voor een videokaart in dit prijssegment in 2023 geen overvloed aan videogeheugen. Het is 50 procent meer dan wat je op de RTX 3070 en 3070 Ti kreeg, maar die redenering is voor geen van deze kaarten een compliment. In de meeste games is de 12GB aan videogeheugen vandaag de dag nog voldoende, maar zal dat de komende jaren niet altijd zijn. Dat kan betekenen dat je de kwaliteit van textures in de grafische instellingen van een spel soms beter niet op het hoogste niveau kunt zetten als je geen flinke stotters en haperingen in je games wilt introduceren. Dat is jammer, omdat een hogere texture quality in veel games een makkelijke manier is om de beeldkwaliteit te verhogen, zonder dat je daar een snellere videokaart voor nodig hebt, maar dan moet er wel genoeg videogeheugen beschikbaar zijn om deze textures in te laden.

De RTX 4070 doet eigenlijk weinig spannends in de zin dat het RTX 3080-prestaties biedt tegen een iets lagere straatprijs. Als je niet om raytracingprestaties geeft, is voor hetzelfde bedrag als een RTX 4070 momenteel ook de RX 6950 XT te koop. Die is in rasterization nog iets sneller en beschikt over 16GB aan vram. Wel ligt het stroomverbruik van deze Radeon-kaart standaard hoger, en daaraan zie je duidelijk dat de RTX 4070 een videokaart van de nieuwste generatie is. Ook biedt de nieuwe architectuur ondersteuning voor DLSS3, wat voor sommige gamers een doorslaggevende factor kan zijn. Wat AMD als antwoord op de RTX 4070 gaat geven, is momenteel nog volstrekt onduidelijk, maar de fabrikant zal hier ongetwijfeld nog iets anders dan de RX 6950 XT tegenover willen zetten.

Reacties (278)

278
276
136
4
0
119
Wijzig sortering
Het is minder idioot duur dan de andere Nvidia 4000-serie kaarten, maar nog steeds behoorlijk terleurstellend.. Wel iets goedkoper dan een RTX 3080 ruim 2,5 jaar geleden, maar amper sneller.. Op 4K zelfs helemaal niet, en met Raytracing zelfs duidelijk langzamer.. Wat moeten we hier nou mee?!? :X
Nee hoor, dit is nog steeds idioot duur, want wat krijg je hier nou? De bandbreedte van een GTX 1080ti, gecombineerd met 1GB extra VRAM (even 'to drive it home'... 1GB meer, ZES JAAR later, tegen ongeveer hetzelfde MSRP!), en een featureset die volledig onder controle staat van Nvidia, waar je ziet dat jouw Ampere kaartje van yesteryear al niet meer voldoet om iets als FG te gebruiken. Even voor de goede orde... ik mocht in Cyberpunk op mijn 1080 Nvidia kaartje wél gewoon FSR benutten... maar geen DLSS. Mooie klantenbinding! AMD maakte mijn Nvidia kaart bruikbaar en Cyberpunk speelbaar op 50FPS @ 3440x1440...

Het is compleet van de pot gerukt en als je Nvidia Ada koopt beneden de 4090 ben je gewoon dom bezig. Simpel. En de 4090 is natuurlijk gewoon onbereikbaar, en qua prijspunt volledig idioot om mee te beginnen voor iets meer frames.

Ik weet het iig wel... doe mij maar een 7900XT voor een fractie meer centen dan een 4070, met bijna dubbel VRAM en veel meer perf. Dan weet je tenminste ook dat de games van vandaag gewoon in je framebuffer passen en dat je niet in Huang's planned obsolescence scheme aan het stinken bent. Want oh oh wat is dit erg, opzichtig, en vuil. Ik denk dat ik vandaag ook de knoop gewoon doorhak. AMD it is, na tientallen jaren in kamp groen ben ik er wel klaar mee, sinds Turing is het keihard bergafwaarts gegaan. Pascal was duidelijk de laatste goede generatie van Nvidia, dat heeft alles wat erna kwam keer op keer bewezen. Die 1080 die ik nu draai, voldoet eigenlijk nog steeds... met 8GB. Voor 500 euro. Sinds 2016. Ik speel nu net zo goed TW WH3 en andere recente titels en het draait nog OK. En RT is nog steeds een grote farce, duidelijk een clusterf** die Nvidia gebruikt voor winstmaximalisatie. De klap op de vuurpijl is ook nog dat RTX-ON nog zwaarder op het VRAM duwt dan OFF. Je moet echt een blinde zijn om daar nu nog in te stinken met een midrange Nvidia aankoop.

TL DR ook niet 'alleen kopen als je een nieuwe kaart nodig hebt'. Dit is duurkoop. Blijf ver weg. Dit is een x60 (met heel veel optimisme een x60ti...) voor tegen de 700 ekkies die na twee jaar al obsolete is. Pak RDNA2 of 3 waar je gewoon VRAM parity hebt met de consoles, want er blijven nu games uitkomen die 12GB gewoon vol duwen en dan gaat die gebrekkige bandbreedte van de AD104 GPUs je echt keihard nekken.

En de 4070ti is nog slechter want daar valt de balans tussen bandbreedte en core power nog negatiever uit. Voor nog meer geld. 8)7

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

Ik kan je verhaal niet zo goed volgen. Aan de ene kant stel je dat 8GB volstaat en aan de andere kant vind je 12 GB onacceptabel... Het hele vram verhaal is bij pc gaming eigenlijk een non-issue aangezien min of meer elke game instelbare texture quality settings heeft. Wanneer de dag komt dat de ultra textures niet in 12GB passen zet je die setting lager.

Verder vind ik je erg negatief over de RTX generaties. Die DLSS techniek is toch heerlijk? Het was even de vraag hoeveel games het zouden ondersteunen maar de lijst wordt steeds groter; https://www.nvidia.com/en...a-rtx-games-engines-apps/ .

Ik denk dat de vraag vooral is of iemand bereid is 669 euro betalen voor dit prestatie niveau (dat van een RTX 3080). Als het geen haast heeft dan zou ik persoonlijk even wachten tot de lagere kaarten uit zijn gekomen en daarmee waarschijnlijk ook de eventuele reactie van AMD in de prijs is verwerkt. Zelf heb ik zeker een jaar bij EVGA op de wachtlijst gestaan voor een RTX 3080 voor een kaart die nooit is geleverd. Deze is in ieder geval een stuk goedkoper voor min of meer dezelfde performance. We gaan in ieder geval weer een beetje de goede kant op.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:23]

Nieuwe kaart versus kaart die je al 6 jaar hebt met een core power die de helft of een derde is van wat er nu te koop staat. Is het dan duidelijker? Over 3-4 jaar heb je met 12GB een probleem, sterker, je kunt dat nu al over de limiet pushen afhankelijk van wat je speelt. De consoles hebben 16GB, al gebruiken ze 14 dan hang je al.

En ja, de prijs maakt het product daar heb je absoluut gelijk in. Voor 500-550 was deze 4070 misschien nog wel acceptabel maar zelfs dan ten opzichte van zeg een 6800(XT)... pijnlijk want het enige winpuntje is de RT perf.. Voor 670 is het een ripoff - en ze beginnen hier op 690, voor een dual fan bottom end AIB versie. No thanks. Het MSRP is 599 dollar en dat is al teveel.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

Als je die 16GB in de consoles gaat vergelijken met de VRAM op videokaarten in een PC ben je echt appels met peren aan het vergelijken.. Die 16GB in de consoles is het totale gegeugen dat gedeeld moet worden over systeem en video, op een PC videokaart heb je het alleen over video.. Dan heb je dus ook nog het systeem geheugen oftewel RAM.. Dat is meestal ook nog eens 16GB of meer.. Je kan het dus niet 1 op 1 vergelijken..
13 jaar moest je om het jaar een nieuwe kaart kopen dacht ik. Mijn 1070 gtx is nog sterk genoeg voor op full hd.
Klopt ja, upgrade cadence was voor mij voor de 1080 ook echt om het jaar of elke 3 jaar. Maar de prijzen lagen ook wat lager, aanbod was veel hoger...
Nieuwe kaart versus kaart die je al 6 jaar hebt met een core power die de helft of een derde is van wat er nu te koop staat. Is het dan duidelijker? Over 3-4 jaar heb je met 12GB een probleem, sterker, je kunt dat nu al over de limiet pushen afhankelijk van wat je speelt. De consoles hebben 16GB, al gebruiken ze 14 dan hang je al.
Nee joh. Consoles zitten anders in elkaar die gebruiken dat geheugen als als het gewone RAM.

Met een GTX 1060 6GB kun je vandaag nog elke game spelen. Je blijft altijd die texture detail setting houden die tegenwoordig het grootste deel van het VRAM gebruik op zich neemt.

Je hoeft je echt niet druk te maken dat je over 4 jaar met 12 GB geen games meer kunt spelen. Ergste geval wordt het (very) high in plaats van ultra bij de texture detail setting.
op een 1060 kun je niks meer spelen van huidige games met een beetje fatsoenlijke frames en looks, ja misschien op 1080p maar 1440p al helemaal niet, of je moet met weinig looks genoegen nemen, maar ja waarom zou je dan een game kopen.
En bovendien, die consoles laten dan ook geen pc vergelijkbare ultra kwaliteit meer zien, of anders op 30 Hz ipv 60 Hz... de 3080 met 10GB VRAM scoort hier op 4k beter dan de 4070 met 12 GB VRAM.

Het is real-life geen probleem om op een pc met een berg snel RAM wat van het VRAM te overcommitten in de paar games die zoveel VRAM vereisen blijkt tot zover keer op keer. Als 10 GB al voldoende blijkt op dit performance level, dan is een 4070 met 12GB zo safe als maar zijn kan.
Met 8GB kom je al niet meer weg op 1080p in recente titels. Dus ik weet niet over welke games vandaag je het hebt, maar sinds een half jaar komt er veel uit dat echt 8GB en meer wil hebben.

'Geen games' heb ik niet gezegd. Het punt is dat je met 12GB op het core performance niveau van een 4070 vandaag gewoon al vol kunt zitten. Ga je modden of over 4 jaar het nieuwste spelen, dan ga je zeer zeker op je settings flink moeten inleveren. OF je krijgt het geheel niet meer stutter-vrij. De 4070ti is wat dat betreft nog slechter - meer core perf, identiek VRAM en bandwidth.

Ik heb die ervaring nu gehad met de 1080 met 8GB; je kunt nog prima FPS hebben, maar geen stabiele frametimes. En inderdaad, de 1080 was ook qua core perf wel aan vervanging toe, dus dan is het allemaal niet zo rampzalig. De 1060 is zoveel zwakker maar ook daar is de balans nog steeds prima tussen core perf en VRAM. Maar vanaf Turing is die balans steeds minder goed geworden, en Ampere en Ada hebben nu al meerdere producten waar dat probleem zich nog veel sterker gaat voordoen of al doet.

De 8GB Ampere midrange bijvoorbeeld heeft nu een probleem met meerdere recente titels. Core perf genoeg, maar VRAM te weinig, dus je haalt gewoon niet meer uit je hardware wat er in potentie wel in zou zitten met iets meer VRAM. De 3080 10GB gaat dat probleem binnen afzienbare tijd ook krijgen. En, als je naar Pascal kijkt, dan is de 1060 3GB ook een kaart die puur vanwege VRAM sneller uit de tijd is geraakt.

Verder maak ik me niet druk, ik weet prima welke kaarten momenteel wel en niet de moeite waard zijn ;)

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

Met 8GB kom je al niet meer weg op 1080p in recente titels. Dus ik weet niet over welke games vandaag je het hebt, maar sinds een half jaar komt er veel uit dat echt 8GB en meer wil hebben.
Ik denk dat er veel onduidelijkheden bestaan over waar je VRAM voor gebruikt. VRAM gaat tegenwoordig niet meer over resoluties. Kijk maar eens naar het problematische The Last of Us:
4K ultra: 14770 MB
1440p ultra: 13320 MB
1080p ultra: 12765 MB

Een 400% hogere resolutie vereist slechts 16% meer VRAM. Dit omdat de frame buffer in verhouding tot modern ram nauwelijks meer geheugen vereist.

Waar zit dat VRAM gebruik dan wel in? Dat zit hem in vooral in de textures! Die texture settings zijn echter prima aan te passen. Niemand verplicht je een ultra preset te gebruiken. Binnen 5 seconde pak je een lagere settings via het optie menu en los je het 'probleem' op.

Dus dat 'Met 8GB kom je al niet meer weg op 1080p in recente titels.' is niet zo'n logische uitspraak. Wel correct zou zijn dat je met 8GB niet genoeg hebt voor ultra textures (ongeacht de resolutie).


Overigens heeft het VRAM gebruik eigenlijk niets met performance te maken. Bij vrijwel elke game hebben hogere textures geen enkele invloed op de behaalde fps. De balans waar jij over praat heb je helemaal niet nodig, die bestaat eigenlijk helemaal niet zoals jij hem voor je ziet. Stel dat je met een 1060 in Forza 80 fps behaalt op de medium preset. Vervolgens pak je high en dan wordt het bijvoorbeeld 30 fps, te laag. Dat schiet dus niet op. Maar wat je wel kan doen is de medium preset gebruiken en vervolgens alleen de textures op high zetten. Je behaalt vervolgens dezelfde fps, maar het ziet er beter uit. De 3GB variant kan dit niet, de 6 GB wel. Met balans heeft dit niets te maken. Hooguit als je persé bepaalde presets wil gebruiken, zoals een ultra preset voor een 3070 in The Last of Us. Maar dat maakt het geen valide argument.

Waar het uiteindelijk op neerkomt is dat een ultra textures kaart anno 2023 een VRAM van 16GB vereist. Maar of dat een 8, 10, 12 GB kaart meteen waardeloos maakt is natuurlijk een andere discussie. Je kunt immers ook wat minder veeleisend zijn wat betreft je texture details.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:23]

Het punt is dus juist dat de balans die jij nu schetst tegenwoordig in heel erg veel gevallen totaal anders uitvalt. Toen we nog met 2GB VRAM rondliepen en de top end slechts 3GB VRAM, toen was dit het geval. Tegenwoordig ligt de beschikbare VRAM in een GPU stack veel verder uit elkaar.

Bovendien klopt het wat je zegt, je hebt een bepaald minimum nodig ongeacht resolutie. We hebben nu simpelweg consoles die rustig 12GB volladen. Dat betekent simpelweg dat elke GPU met minder dan 12GB veel sneller aan vervanging toe is - en NIET omdat je game naar 30 FPS is gezakt omdat je een preset op high zet - elke GPU vanaf de midrange doet tegenwoordig dik 60 FPS op high of zelfs ultra, en in veel games het dubbele zelfs op 1440p. Het wordt pas anders als je RT aan zet. En nu komt het: dat compenseer je dan weer weg met zaken als DLSS/FSR. En die kosten ook VRAM.

Kortom, het is tijd om wakker te worden. 8GB is entry level vandaag de dag, en 12GB het absolute minimum, en in beide gevallen zul je sneller gaan upgraden dan op een kaart met 16GB en meer, die dan namelijk gewoon voor zijn levensduur én core performance genoeg heeft. En levensduur, heb ik inmiddels meermaals ervaren, is voor een kaart met genoeg VRAM echt meer dan 5 jaar. Zeker nu, want raster performance is op een plateau gekomen en RT voor de meeste kaarten in de midrange voorlopig niet bijster praktisch.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

Voor een nieuwe kaart van deze prijs is 12GB niet voldoende, zeker nu de trend bij nieuwe games is om meer VRAM te vragen. Je ziet dus ook dat AMD's 6800 in nieuwere games. Veel te dicht bij zelfs de 4070 in de buurt komt. Ook krijg AMD's RT implementatie veel ondersteuning en zie je het daar ook steeds beter werken in nieuwere games.

De 4090 is feitelijk de enige echt interessante Nvidia kaart op dit moment. De rest is veel te duur voor wat je gaat krijgen. Dat gaat nml niet eens lijken op de levensduur van de 1080 (ti).
Mijn advies aan de mensen om mij heen op dit moment is en blijft daarom ook: "Als je echt een nieuwe GPU nodig hebt, koop AMD en als je niet weet wat je met je geld moet de 4090 de rest is dom."
De 4090 is ook veel te duur.. Alleen te rechtvaardigen omdat het duidelijk de snelste videokaart is op dit moment die je kan kopen (zolang dat duurt)..

[Reactie gewijzigd door Inflatable op 22 juli 2024 13:23]

Staat om zeg ik ook op een "nette" manier dat je meer geld moet hebben dan verstand om dat ding te kopen.
Alleen doet de 3080 met 10GB het prima. Wat die paar games aangeven is niet echt continu nodig aan VRAM, anders zou die 3080 hier nooit op 4k kunnen winnen.
De 3080 is nog OK voor 4K, 12GB ook. Maar dit lijkt al te keren. Zeker met raytracing aan en mag je terug naar 1440p. Ook prima, maar het is geen 4K.

PC games zijn naar 16GB ana het schuiven nu ze meer beschikbaar zijn. 8GB is budget per heden, 12GB Low, 16GB mainstream 24GB is high end en dit zal 32GB zijn vanaf de volgende generatie.

[Reactie gewijzigd door itContinues op 22 juli 2024 13:23]

In zie dit in geen enkele benchmark terug, lees het gek genoeg wel vaker, moet bijna wel een heel sterke marketing push zijn, of FOMO.

Een 1660 6GB doet nog uitstekend mee in de categorie low, dat is ook de massa op steam survey nog steeds. Ik ken zelfs geen game die weigert te starten met 4GB videokaart, doen die ook gewoon nog mee.

Die doelgroep moet je game wat bieden, of je marktpotentieel halveert. De 3080 10GB komt in alle games prima uit, ook waar zogenaamd 15 GB VRAM nodig zou zijn. Een pc heeft domweg zoveel meer en sneller RAM. Zo een console moet alles van OS en game applicatie in een enkele 16GB kwijt. RAM is ook nog weer 10x sneller dan de snelste SSD, dus weer even iets van RAM naar VRAM blijk je nauwelijks te merken.

[Reactie gewijzigd door OruBLMsFrl op 22 juli 2024 13:23]

Ik weet niet welke evaluaties jij kijkt. Maar goed... check Hardware Unboxed FF.
Maar ik zeg tegelijk ook dat het NOG OK is. Maar met name nieuwe titels. Lopen tegen issues aan. Kijk ook.even naar te test suite van Tweakers en dan zie dat de test suite vrij oud is.

Daar doen de "low"-VRAM kaartje het prima. Maar pak de Hogwarts Legacy en de 3070 gaat genadeloos op zijn bek met 1% lows waar de honden geen brood van lusten.

[Reactie gewijzigd door itContinues op 22 juli 2024 13:23]

Sorry, maar die game is zo te lezen technisch een beetje een ramp op hogere grafische instellingen voor vrijwel iedereen. Deze Reddit zegt veel, daar moet je stevig wegblijven totdat er hopelijk echt eens een goede performance optimalisatie patch kan komen die iedereen helpt:
https://www.reddit.com/r/..._improves_performance_on/
nu slechts 10 dagen oude topics nog steeds:
https://www.reddit.com/r/...ve_performance_issues_on/

[Reactie gewijzigd door OruBLMsFrl op 22 juli 2024 13:23]

Dat is allemaal waar... maar het komt ook in andere games voor. Het is inmiddels een feit 8GB is niet meer voor de midrange. Mijns inziens mag er in de 60-serie en x600-serie geen 8GB kaart meer voorkomen.

Daarnaast zullen de Nvidia kaarten uit de 30-serie gewoon minder lang voldoen voor de positie waar ze in zijn verkocht. Ze gaan sowieso niet zo lang voldoende zijn als de legendarische 10-serie. Maar meer zoals de 20-serie, snel vergeten worden of met negativiteit gekoppeld worden.

Wat dat betreft heeft AMD het gewoon slimmer gedaan door extra VRAM mee te geven.
Ik zou Raytracing geen farce noemen hoor.. Ik vond b.v. Control met Raytracing aan erg indrukwekkend.. De spiegelingen in al het glas etc, heel erg mooi en echt wel iets toevoegend aan de beleving van een game..
How cares.
Check de benchmarks e spaar je de moeite van de rant.
Prima performance .
The more you buy, the more you save. Rennen naar die winkel dus voor jou!
Al gedaan.
Ik hou van mijn 4090
Prima keuze. Dat is de enige Ada kaart die qua price/perf nog ergens over gaat op dit moment.
Eens. AMD it is.
Om meerdere redenen:
- prijs
- stroomverbruik
- eyefinity
Het blijft me verbazen dat nvidia er na al die jaren nog steeds niet in is geslaagd om een vergelijkbaar product op de markt te brengen. Voor mij nooit meer nvidia, ik wil eyefinity nooit meer kwijt. _/-\o_
Alleen kopen als je echt een nieuwe kaart nodig hebt. Sowieso is de enige manier om deze prijzen omlaag te krijgen door (nog) niet te kopen.
De aandeelprijs van Nvidia is sinds september vorig jaar ruim verdubbeld, denk helaas dat 't weinig uitmaakt of we wel of niet kopen.
Het gaming aandeel is natuurlijk niet de enige reden voor die stijging maar ze doen het voor hun aandeelhouders kennelijk goed.
Nadat het in de maanden ervoor ruim 60% was gekelderd, wat beide weinig met gaming te maken heeft...
Ik doelde er meer op dat deze strategie waarschijnlijk niet snel veranderd gaat worden tenzij het echt invloed heeft op hun aandeelprijs.

Wat wel enigszins hoopvol is, is dat hun gaming division behoorlijk slecht aan het gaan is.
"Fourth-quarter revenue was $1.83 billion, down 46% from a year ago and up 16% from the previous quarter. Fiscal-year revenue was down 27% to $9.07 billion."
Als deze lijn door blijft gaan zou dat hopelijk ooit een keer het effect hebben dat Nvidia iets moet gaan doen.
Precies.
Wees blij dat ze dit nog maken.
Het is ai nu bij nvidia.
Dikke business...ze hebben geen gamers nodig.
Gezien de reacties hier zou ik ze ook liever kwijt zijn
blij? waarom? we worden al 3 jaar in de boot genomen door nvidia.
De aandeelhouders lachen zich een breuk.
Er zijn mensen die graag { zoals jij } de volle pond betalen.
Er zijn ook mensen die met hun portemonnee denken en niet naïef zijn.
Maar s6 met jouw dikke kaart.

p.s laat ze maar van de game markt verdwijnen dan....hun hebben ons harder nodig dan wij hun!!!
Na de eerste mining hype, tijdens GTX 1xxx reeks, kregen we de veel duurdere RTX 2xxx kaarten. Dat was qua prijs/prestatie geen generatie om vrolijk van te worden. Uiteindelijk viel het nog wel mee dankzij bijvoorbeeld de RTX 2060 maar het was geen generatie om voor naar de winkel te rennen. De RTX 3xxxx die daarna volgde leek dat wel te zijn. De RTX 3xxx werd aangekondigd met een veel betere prijs/prestatie. Denk aan 720 euro voor de 3080, maar ook de 3060 Ti was in theorie gunstig geprijsd. Alleen door een nieuwe mining hype kwam daar weinig van terecht omdat ze simpelweg niet voldoende geleverd werden. En ook al explodeerde de omzet bij Nvidia, er bleven maar tekorten bestaan.

Nu is die mining hype weer voorbij. Dus rara wat gebeurd er? De advies prijzen gaan opnieuw omhoog! Net als tijdens de RTX 2xxx. Dit is niet leuk als consument. Maar wat mij betreft wel een vrij logisch gevolg van de hebberigheid die de consument de laatste jaren heeft gedemonstreerd. Nvidia kan waarschijnlijk niet anders. Immers leggen ze deze kaart voor 400 dollar in de winkel dan gaan ze als zoete broodjes en onstaat er weer een supply probleem. De prijs verlagen kan altijd nog en waarschijnlijk betaalt de consument toch wel.

Als het mee zit valt de vraag tegen en hebben we bij de RTX 5xxx serie weer een gunstige launch prijs.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:23]

De 30-serie was veel beter inderdaad. Maar het lijkt er nu op dat ze geen lang leven beschoren zijn en dat hun AMD tegenpolen vanwege hun grotere hoeveelheid VRAM ze voorbij gaan in modernere titels.

Het boeit Nvidia niet. Want de meeste mensen kijken naar de top en denken dat de hele lijn top is. Dat doet Nvidia slim, maar het is 1 grote leugen en ze willen dus niet alleen meer geld van je zien. Maar ook een kortere cyclus voor jou hebben.

Maar goed, de gading markt boeit Nvidia toch niks. Het is leuke publiciteit en het past tegelijk bij hun echte doelgroep.
Het lijkt er dus op dat Nvidia nog een flinke stapel oude chips heeft liggen. Voordat ze d nieuwe generatie normaler gaan prijzen ☝️
@Trygve
Als laatste zin van de conclusie schrijf je onderstaande zin.
Wat AMD als antwoord op de RTX 4070 gaat geven, is momenteel nog volstrekt onduidelijk, maar de fabrikant zal hier ongetwijfeld nog iets anders dan de RX 6950 XT tegenover willen zetten.
Maar AMD heeft toch gewoon een videokaart die RTX 4070 prestaties levert tegen een lagere prijs? Dat is gewoon de RX 6800 XT, alleen op stroomverbruik legt die het af.

Ook andere reviews laten dat gemiddelde duidelijk zien: https://www.techpowerup.c...-founders-edition/32.html
Sailliant detail, als je een nieuwe PSU zou moeten kopen voor een Ampere of RDNA2 kaart @ 680 euro of meer, dan heb je al bijna een break even met GEEN nieuwe PSU kopen om een 7900XT te kunnen draaien.

Ik kijk nu naar een 750W Supernova G2 en dat is precies waarom ik nu wel weet wat het gaat worden... Die 6800XT is best wel belemmerd door de power spikes, 6900XT idem. Alleen als je al 850W of meer in je kast hebt liggen is dat nu nog een mooi/redelijk upgrade pad. Als je het daadwerkelijke verbruik dan nog wegstreept... want het verschil is best flink.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

Hier loop ik dus ook tegen aan. Zou best een AMD kaart willen halen, maar ik heb maar een 600W voeding (Wel platinum). Zit op mini-ITX dus dat zou al 170 euro worden voor een nieuwe PSU. Dan vallen voor zover ik weet alle AMD kaarten eigenlijk al af, en is een 3070 wel mogelijk.

Geen idee in hoeverre een AMD kaart wat undervolten gaat helpen. Ik vind 600+ ook gewoon extreem veel geld voor een midrange kaart van 2 jaar oud.
Wacht op de 7800XT, die moet op een 600W kwaliteitsvoeding wel draaien. De 7900XT kan het af met 650W.

De 4070ti is ook een optie, zou echter niet de mijne zijn.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

een 6900xt draait anders heel erg goed op een 750w en ook op een 650w voeding, nooit een spike gezien van 500w en ook nooit geen problemen
Die ervaring wordt niet heel breed gedeeld.
dan denk ik dat je er weinig over gelezen hebt, ook verschillende site,s zeggen het dat 850w totaal niet nodig is mits je gewoon een degelijke 750w of een 650w hebt, uitvoering: Seasonic Prime TX-650 draait prima met een 5800x en een red devil 6900xt
Het hangt er maar helemaal vanaf wat je verder draait en welke specifieke voeding je hebt, en dat luistert nauw wanneer je onder het aanbevolen wattage gaat zitten. En hoe je de 6900XT tuned.

Kortom geloof ik je best, als je weet wat je aan het doen bent kom je er vast mee weg. Maar het is niet zonder risico.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

zoals ik al zei, een degelijke voeding, zoals een hx750i platinum of een titanium voeding van seasonic zijn prima voedingen die geen moete hebben met een 6900xt en een 400w bios via mp tool, en dan praat jij nog over een 6800xt, je super nova is meer dan genoeg daarvoor. Maar als je toch wil upgraden naar een nieuwe voeding be my guest, maar nodig nee.
Nou dan zeggen we toch hetzelfde? Je noemt nu platinum topvoedingen als voorbeelden. Kom op joh :D

Ik heb inmiddels een 7900XT ;)

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

669 voor een 4070, met de prestaties van een 3080 die nog voor 800-900 euro te koop is. Prima deal :)
Je vergelijking klopt niet. De 4070 Founders Edition zal inderdaad voor € 669 verkrijgbaar zijn, terwijl de 3080 FE bij release € 719 was en na dollar/euro koerscorrectie € 759. Dus niet 800 tot 900, je kan immers een FE prijs niet vergelijken met een AIB prijs.

De board partners kunnen met hun custom 4070 immers nooit concurreren met de Founders Edition omdat ze de chip moeten inkopen (= altijd duurder dan Nvidia) en er een duurdere/betere koeler op plakken. AIB kaarten gaan dus gegarandeerd ook tussen de €700 - 800 uitkomen, waarbij de prijsvechters richting de 700 zitten terwijl de MSI Supreme / ASUS STRIX/ Gigabyte MASTER AORUS ongetwijfeld over de 750 tot 800 gaan kosten. Dan is het plotseling een stuk minder interessante kaart, zeker met maar 12GB VRAM en een vreselijk krappe geheugenbus van 192bit.

De 3080 heeft slechts 10GB VRAM, maar wel een geheugenbusbreedte van 320 bit. Je ziet dan ook dat de 3080 op 4K wat meer afstand neemt van de 4070. Of neem een RX 6950 XT die weliswaar een stuk meer verbruikt, maar veel interessanter is qua prijs/performance met 16GB VRAM en een 256 geheugenbus. Die heb je ook al voor 689 tegenwoordig.

De 4070 heeft een relatief laag verbruik en compact formaat. Maar ik vind het persoonlijk geen goede kaart omdat de prijs behoorlijk fors is voor een midrange kaart met een enorm geknepen geheugenbus.

Stylezzz hieronder: Prima dat je graag kromme vergelijkingen maakt, maar dat heeft geen enkele waarde. Al je aannames hieronder kloppen ook niet, dus ik laat het hier bij.

[Reactie gewijzigd door stin00 op 22 juli 2024 13:23]

Helaas. Ik vrees dat jouw vergelijking niet klopt. Ik vergelijk namelijk de 4070 met de 3080 kaarten die nu (nog) verkrijgbaar zijn a 800-900 euro, en niet met een 3080 die een paar lucky few misschien voor de 719-759 euro 2.5 jaar terug hebben kunnen kopen. Het heeft helemaal geen nut om jaren terug te kijken.... we leven hier en nu.

Misschien kun je ook nog even een vergelijking maken met een basis game pctje van 10 jaar terug toen dat nog kon voor 500-750 euro? Kun je roepen dat het nu helemaal bizar duur is geworden... is het nuttig? Nee sorry.... ;)

[Reactie gewijzigd door stylezzz op 22 juli 2024 13:23]

Ja dat is wel nuttig want dan weet je prijzen op waarde te schatten en kun je concluderen dat je nu keihard genomen wordt. Is het leuk? Nee, het is realistisch, en dat zou iets met je koopgedrag moeten doen. Heel gezond.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

Het is misschien leuk voor nostalgische anekdotes, maar het is nou eenmaal niet mogelijk om dingen in het verleden te kopen. Wat heb je eraan dat ik 30 jaar geleden voor 10 guldencent eieren kocht bij de boer, en nu bij de lokale appie 4 euro betaal voor een doosje van 10. Helemaal niks..... je kunt klagen dat eieren een factor X duurder zijn geworden zonder dat je er een beter ei voor hebt gekregen.
Klein verschilletje, eiwitten heb je gewoon nodig en een nieuwe videokaart, mwoh... toch iets minder. Ik doe nu zes jaar met een 1080. Gaat hartstikke prima, zelfs na een monitor/res upgrade. Zes jaar wachten op eiwitten en je kunt me opvegen.

Verder is het helemaal niet raar om te verwachten dat videokaarten over de tijd heen meer frames per euro genereren. Waarom zou je anders uberhaupt upgraden? Om gebruik te maken van een marketing-featureset? Dan heb je ze echt niet op een rij. Maar een ei, blijft een ei, ik draai niet meer frames op een ei van vandaag en mijn lichaam heeft er ook niet minder nodig.

Ik zeg ook niet dat alles hetzelfde moet blijven kosten, natuurlijk is er gewoon inflatie en dergelijke. Maar dat zijn luttele procentjes. Die zorgen op zichzelf niet voor het feit dat je nu nauwelijks meer krijgt voor je geld, of zelfs minder, en als het dat wel doet, dan hebben we het toch over complete stagnatie of niet? Een slechte deal is een slechte deal, cijfers liegen niet, ook niet als je ze in de tijd plaatst.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

Precies. Ik game zelf ook nog op een 2080 TI.... Een kaart waarover overigens ook al iedereen tijdens de launch riep dat de prijs exorbitant hoog was (ik meen 1200 euro), maar vanaf een HD4850 vond ik het toch een mooie upgrade in die tijd. Sindsdien draai ik alle games die ik speel nog voortreffelijk, dus over die 5 jaar (?) uitgesmeerd valt de investering me 100% mee.... Ik heb nog geen verantwoording voor mezelf gevonden om te upgraden naar een 40 serie. Dat zie ik wel tegen de tijd dat ik games tegenkom die gewoonweg teveel worden voor de 2080 ti......

[Reactie gewijzigd door stylezzz op 22 juli 2024 13:23]

Ik zit ook nog op een 2080TI en merk eigenlijk in geen enkel spel dat ik moet upgraden. Nu, ik wil wel heel graag upgraden voor VR maar dan zit ik ook ineens met een nieuw moederbord en processor en dan waarschijnlijk ook nieuwe case en voeding dus het zal ineens volledig moeten gebeuren ipv enkel een kaart upgrade :)
Verder is het helemaal niet raar om te verwachten dat videokaarten over de tijd heen meer frames per euro genereren. Waarom zou je anders uberhaupt upgraden? Om gebruik te maken van een marketing-featureset? Dan heb je ze echt niet op een rij. Maar een ei, blijft een ei, ik draai niet meer frames op een ei van vandaag en mijn lichaam heeft er ook niet minder nodig.
Dat lijkt mij een hele normale verwachting, anders ga je niet upgraden. Maar een 4070 is toch enorm veel sneller dan een 1080??? De kaart is net uit en de 1080 is erg oud maar. Dus ik moet even de 3080 als proxy voor de 4070 Ti gebruiken en dan zie ik hier bijvoorbeeld 30 fps (1% 21 fps) voor de 1080 en 75 (1% 61 fps) voor de 3080. Dat is letterlijk een verdubbeling van je frame rate! Maar belangrijker de 1% low gaat zelfs met factor 3 vooruit. Dat kan toch een prima reden zijn om te upgraden??? Persoonlijk wordt ik in ieder geval niet vrolijk van frame drops, laat staan van 21 fps.

Ik snap eerlijk gezegd niet waarom je dan met een 1080 blijft aanmodderen. Die heeft waarschijnlijk ook ooit een flinke zak centen gekost. De 1080 startte richting de 800 euro en het heeft zo te zien een jaar geduurd voor hij onder de 700 euro zakte. Dus waarom is 669 nu dan ineens te dol?

Sterker nog, zijn dit soort kaarten niet juist heel interessant voor je? Je krijgt nog 150 euro terug voor de 1080. Vervolgens heb je effectief voor 519 euro (669-150) een nieuwe videokaart en daarbij dubbele performance, in sommige games richting 3x meer performance. Persoonlijk zou ik even wachten op de post-launch prijzen maar an sich is de rekensom niet héél ongunstig.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 13:23]

De 1080 was gewoon ~550 euro toen ik 'm kocht, en 420 voor mij omdat ik dat BTW vrij kon doen. Ongeveer MSRP dus. Waar jij 800 vandaan haalt is mij een raadsel, zelfs de 1080ti kostte dat niet, ja tenzij je timing ruk was. Het gouden moment was dicht bij de launch of toen de 11Gbps versies van Pascal uitkwamen. Toen kocht ik mijn niet-11Gbps versie die sindsdien met mem OC toch gewoon op 11Gbps draait.

De volgende wordt een 7900XT ;)
Dat heeft ook te maken met het feit dat die kaart geen nieuwe voeding nodig heeft. Zelfs RDNA2 zou me dwingen tot een nieuwe PSU. Dan spendeer ik dat prijsverschil wel aan meer GPU :)

En waarom ik bleef aanmodderen? Omdat geen enkele deal tot nu toe me echt aanstond én de 1080 zelfs op 3440x1440 nog alles draait wat ik speel. Tot aan de dag van vandaag heb ik geen enorme 'nood' om te upgraden eigenlijk. De RX6800XT op ~600 euro was een optie geweest, net als de 6950XT voor wat ie nu kost, maar Nvidia was constant veel te hoog geprijsd voor wat je kreeg. Tegelijkertijd is ook RDNA2 niet echt efficient en dat doet me ook wel wat. RDNA3 zit wat dat betreft op een mooie sweet spot. 3X de perf van de 1080 (!!) met bijna 3x het VRAM en ik sla daar nu 850 euro op stuk. 200 euro terug voor de 1080 in resale en we zitten op een hele nette 650 euro voor weer 5-6 jaar dik gamen... en netto 1070 eur voor in totaal 12 jaar gaming. Dat red je zelfs met console niet.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

ik heb anders dik 700 euro betaald voor een asus strix 1080 en die is gekocht kort naar het uit komen
Dan was je timing slecht, wat kan ik er van zeggen. De 1080 heeft een periode 500-550 EUR gekost.
niet toen hij net uit was, dus als je hem toen wilde koste hij dat gewoon.
https://www.anandtech.com...0-founders-edition-review

Het MSRP van de Founder's Edition (die ook nog eens throttled) was hoger en dat kon je weten vanaf het begin. Het MSRP van de 1080 AIB lag 100 dollar (dus euro) lager. Als je dus 700 betaalde voor een Strix, ja dan wilde je een versie die ook nog eens de Asus premie bevatte, want Strix was ook nog het subtopmodel.

Vervolgens kwam later de 11Gbps versie uit en toen zakte de 1080 verder omlaag. Ook de heerlijke AIB versies zoals de MSI Gaming X waar ik toen op terecht kwam. Ik haalde die kaart er drie dagen geleden uit voor een 7900XT... looks as new, performs as new, dus dat plannetje uit de voorgaande posts wordt nu uitgevoerd :)

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

zoals ik al aangaf het betrof een asus strix 1080 en niet de founders edition
de prijzen zullen wel degelijk lager gaan liggen dan jij suggereert
https://nl.hardware.info/...oor-lagere-prijs-rtx-4070
We zullen het wel gaan zien, diezelfde leaker claimde enkele weken geleden nog dat de 4070 FE voor $749 verkocht zou gaan worden. Of hij nu wel gelijk gaat krijgen zal moeten blijken. Het zou mij echter echt weinig verbazen als de AIB topmodellen 'gewoon' voor €750 tot €800 op de markt gaan komen. Of ze voor dat bedrag zullen verkopen is dan weer een andere vraag. Daarnaast zal er, verwacht ik een laag zijn met AIB kaarten rond de €700 tot €750, en uiteraard ook wat basismodellen rond MSRP.
Ja daar heb je een punt. Hoe kan een kaart als dit zo'n geheugenbus hebben? Als die bus breeder was hadden we dan hogere prestaties?
Dan had je iig geen stutter in legio games binnen nu en twee jaar, hoewel zelfs dat met een schamele 12GB @ 500Gbps op deze core nog twijfelachtig zal zijn. Zeker met RT.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

De vraag is nu wat amd hier tegenover uit gaat brengen.
Het lagere verbruik is tegenwoordig wel iets waar meer naar gekeken word
met de hoge stroom prijzen en het miljeu.
eindelijk dat er iemand het ook typt { midrange kaart met een enorm geknepen geheugenbus } alles wat onder de 256 bus zit KOOP ik niet eens...zouden meer mensen moeten doen!!!
Spot on, de 3080 heeft met 760GBps (dat is uiteindelijk het getalletje waar je naar moet kijken, NIET busbreedte) nog best wel wat ademruimte... tenzij de framebuffer graag 12GB heeft en ook actief benut. Dan hang je alsnog. En die voorbeelden druppelen ook al binnen... Maar ook als je een 3080 naast de 1080ti zet, dan zie je: 1,5x de bandwidth versus bijna 2x de core power en minder VRAM. Dat is niet echt top.

Hier kun je de kaarten mooi naast elkaar plaatsen, heel verhelderend.
https://www.techpowerup.com/gpu-specs/geforce-rtx-3080.c3621

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

Ik wil toch even bijval geven aan "stin00" - ik heb hier een MSI 3080 12GB (jawel, 12GB, voor de oplettende lezer) in het systeem hangen, dus mét die fijne bit-bus van 320 bit. Dit geheel is gekoppeld aan de Dell Alienware 1440p G-sync. Eerlijk waar, er bestaat geen betere combi voor FPS gaming. Voor de GPU destijds 1100 betaald aan "vriend" Jeff Bezos - en ik heb er nog dagelijks heel erg veel lol van in elke game, even los van de HDR, Hz en G-sync prestaties van dit scherm. Feit dat de 12GB variant al snel uit productie werd gehaald, toont hoe goed deze kaart feitelijk is. De 4070 voelt voor mij aan als een complete flop, straks 950 piek voor een midrange 4070 non-Ti met 192bit. Dus ik zeg wachten - en laat kamp groen eens een keer met normale prijzen komen voor een MID-range kaart.

Edit: men kan nu (in de Pricewatch) een 4070 nonTi krijgen van Zotac of Inno3D tussen de 700 en 800. Los van de vraag of je dat soort prut uberhaupt in je kast wil hangen - laat staan wat MSI en Asus voor de topmodellen gaan vragen. Kortom, compleet overpriced deze 4070 voor wat je krijgt met die schamele 192 bit. But hey, luckely its a free world!

[Reactie gewijzigd door singlecore op 22 juli 2024 13:23]

nou ja, geen betere GPU...... ik heb hier 2 * 6800XT aan MSRP via AMD website gekocht aan ongeveer dezelfde prijs als je enkele "jeffe" kaart... dan denk ik dat mijn aankopen toch betere koop zijn.

[Reactie gewijzigd door d3x op 22 juli 2024 13:23]

De 3080 is ook een flop, ook met 12GB. Dat ding verbruikt prik als water. Heel Ampere is gewoon ultieme bagger vanwege de node en het magere VRAM. You do you ;) Maar die 3080 als baseline nemen... pfoeh. Dan ben je echt diep gezonken hoor. Ampere is met afstand de minst efficiente Nvidia gen in jaren. En zelfs je featureset (dat streepje voor dat je krijgt bij Nvidia...) veroudert binnen 1 gen. Geen FG/DLSS3. Lekker!

Ik heb serieus nagedacht over 2nd hand 3080, maar echt, voor meer dan 400 euro is het gewoon het bekijken niet eens waard. En ze staan online voor 650+. 8)7 8)7
En als je pech hebt, moet je ook nog een nieuwe PSU kopen om niet te crashen, terwijl je met een 7900XT op 650W gewoon wegkomt. Dat is ook nog zoiets... En die kaart is behoorlijk wat sneller.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

Kan er oprecht weer goed om lachen dat kamp Rood hier boven mij de aanval opent - terwijl ik alleen de boel probeerde te nuanceren in mijn 1e comment hierboven.

Maar om een 3080 een *flop* te noemen @Vayra terwijl toen die uitkwam in 2020 het simpelweg "de te kloppen kaart" was. Misschien is kamp rood even vergeten dat ze toen alleen een 470X/480X hadden, Miners only, los van board partners die "even" op zich lieten wachten. Maar eerlijk is eerlijk, daar kon je toen destijds CIV2 mee spelen in 4K 30FPS tegen ~80 celsius, laten we zeggen dat CIV2 gelukkig een turn based game was.

Het magere VRAM zeg je @Vayra , lol, met een 3080 384 bit bus is mijn VRAM a 12GB GDDR6X tot op heden zeer ruim te noemen. Je praat over een 7900XT met 20GB. Wat je alleen even vergeet is dat in je rode kaart GDDR6 zit, terwijl in de 3080 GDDR6X zit. Dus 6X ja. Dan stroomverbruik - je hebt het over een nieuwe PSU kopen om niet te crashen? Je vergelijkt 390w MAX voor de 3080 (uit 2020) met 310w MAX voor de 7900XT (uit 2023). Ofwel je vergelijkt een top-kaart uit 2020 met de AMD prestaties van 2023. Kortom, geen eerlijk vergelijk. Als je anno 2023 enig vergelijk wil maken, doe het dan met de 4000 NV series tegen huidige prijzen. Dan weet ik zeker dat je vanuit eerlijkheid en oprechtheid de 3080 12GB voor destijds 1100eur iets meer credits zal moeten geven.

Maar zeg rode vrienden - ik gun jullie allemaal ooit het (groene) licht in de ogen.
Ik heb niet zoveel met kampen en kleuren, ik heb het slechts over producten zoals ik ze zie in de tijd en met de prijs die ze hebben. Ik kom van kamp groen, en heb heel erg lang plezier gehad van mijn GTX 1080, iets minder lang van een 780ti, een 770, 2x GTX 660... Ik heb dus een reisje omhoog door de GPU stack gemaakt door de jaren heen en ervaren wat het verschil tussen midrange en high end door de tijd heen betekent. En veel ervaring opgedaan met verschillen in VRAM, vooral de 660 in SLI was leerzaam (=dat nooit weer) met zijn asymmetrische 1.5GB+0.5GB bus.

De 3080 10GB had ook bij launch te weinig VRAM en heel Ampere verbruikt veel te veel. De 12GB @ 1100,- euro... wow. Dan heb je echt teveel betaald...
RDNA2, als je dan de kampen tegen elkaar op wil zetten, had genoeg VRAM, maar verbruikte ook te veel. De afgelopen gen was zeer matig, overal. En deze gen is niet heel veel anders. Ook in beide kampen. De enige aanzienlijke verbetering is eigenlijk de efficientie, en het verdwijnen van de power spikes. Ook in beide kampen. Maar de prijs is simpelweg te hoog.

7900XT was dan ook zeker niet per definitie de meest optimale keuze. Maar het was tijd, en vanaf mijn startpositie (PSU, budget) in elk geval de minst slechte.

Mbt GDDR6/X... tja. De bandbreedte is nog altijd hoger met 880GB/s, en je hebt ook minder te swappen omdat je 10/12GB nu 20GB is die dus niet is volgelopen. Die GDDR6X is ook een van de redenen dat de kaart slurpt als een gek.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

Het is niet omdat alle GPU prijzen ronduit debiel zijn, dat dit een "prima deal" is.
Top end kaarten zijn altijd al in de 600 euro geweest. De mid end zit op 300 gemiddeld. Die 900+ prijzen zijn wel compleet van de gekke...
Prijzen van 900+ voor een top-end videokaart? Maak er 1600+ van dat is de prijs van de goedkoopste 4090's. De top is geen RTX 4070ti, 4080, 4090 en straks een 4080ti breed. Al wil de marketing van Nvidia dat graag zo verkopen. Alles high-end en daarboven nog 1 level enthousiast. En dan alle prijzen omhoog.
It's lonely at the top zeggen ze wel eens, niet bij Nvidia.
Ja, dat waren de "normale" prijzen voor de mining craze.....en de prijs bumps.
De eerste of de tweede mining craze. Ik kan me herrinneren dat er voor Covid in 2017 ook een gebrek was aan videokaarten. Vlak voor dat begon had ik een 1080ti voor ca 850 Euro. Ook al max overpriced eigenlijk. Daarvoor een 980ti van 750 euro in 2015. Ook toen klaagden er veel mensen over, hier en bij de buren.
€850 voor de topkaart vs 2k en €450 voor de mid-tier (GTX1070) vs €700 is in 5 jaar tijd toch een te groot verschil imho.
Gelukkig zijn de tweedehands prijzen wel wat genormaliseerd; je kunt nu voor €150-€200 een GTX1080 vinden.
Nou ik heb anders niet veel volk horen klagen over een 980ti en de prijs die daarbij hoorde. Dat was een beest. En de 970 idem, price/perf waren in Maxwell echt bizar goed, zelfs met die 3.5GB grap.

De 1080ti idem, die heeft zijn geld echt wel opgebracht. Daar kom je zelfs vandaag nog aardig mee weg. Zes jaar later.

Bovendien waren beide kaarten de 'almost full die' waar we bij Kepler nog 1K mochten neertellen voor de oh zo speciale Titan.... die vervolgens elke navolgende gen ook langs bleef komen soms zelfs in meerdere vormen. Dus nee, ik begrijp niet zo goed waar de klachten van Pascal en Maxwell op gestoeld zijn, en ik ken ze ook niet uit die tijd. Ook Pascal was qua prijs/perf hartstikke prima. Ja, het prijspunt ging gemiddeld 50 euro per tier omhoog tov Maxwell.. maar de perf jump was ook gigantisch en je kreeg over de hele stack meer VRAM, tot aan de 6GB 1060.

Ik denk ook dat Pascal en Maxwell met afstand de sterkste Nvidia generaties zijn geweest. Ooit. Die twee generaties zijn ook het moment (of de trigger?) geweest voor AMD om de handdoek bijna in de ring te gooien en te gaan rebranden. Vervolgens kwam Vega en het had geen schijn van kans, waarna het perf level jarenlang bleef steken op, feitelijk, een GTX 1080. Ik denk dat dit ook het moment is dat Nvidia zich arrogant genoeg ging voelen om eenzijdig en voor de markt uit RTX te gaan pushen en de dramatische generaties Turing en Ampere uit te brengen - en nu Ada. They won at that point... en ik denk dat dat punt inmiddels bewezen is. AMD heeft op discrete GPU het slechtste marktaandeel ooit. Gelukkig zit RDNA3 ook in de consoles.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

Ik vind de 4070 allerminst topend in deze 4xxxx gen. De verschillen met de Ti, de 4080 zijn gewoon te groot.

Dit is toch wel een teleurstellende kaart voor 669 euro. Voelt ook meer als een 4060 Ti op basis van de enorme beperking op cuda cores in vergelijking met de 4070 Ti.

Edit: @Vlizzjeffrey leuk weetje! Dat is wel sneu inderdaad.

En wat betreft de prijzen: de 1070 was gewoon 449, en zat minder ver van de 1080 dan de 4070 van de 4080. Ik vrees dat nVidia hetzelfde spelletje speelt als Intel: naam-inflatie. Net zoals bij de core i5, i7 en i9 wordt er steeds slim verschoven met features, segmenten en prijzen, zodat je gaat twijfelen en dan maar die nog dikkere cpu of videokaart koopt, just to be sure. Zonde, maar begrijpelijk. Iets met marketing en geld verdienen...

[Reactie gewijzigd door A Lurker op 22 juli 2024 13:23]

Sterker nog het is de eerste keer dat een nieuwe generatie 70 series niet meer cuda cores heeft dan de vorige generatie 70 series. De 4070Ti heeft wel veel meer cuda cores dan de 3070Ti.
Ik heb sowieso het idee dat de positionering bij Nvidea schuift... mijn beleving van oudsher:
80 is de top, ti is een extra voor enthousiastelingen die iets later instappen, 90 is voor gekken die gewoon het extreemste willen hebben in rare builds (vaak met extra koeling enzo). 70 is voor mensen die mid-high gaan zitten (goede performance voor prijs) en 60 is mid (vooral voor pc boeren).

Nu lijken ze 70 als 80 te positioneren etc, terwijl het eigenlijk minder levert.

Ergens heb ik altijd wel voorkeur voor nvidea (nu een 6900xt omdat dat de enige kaart was die ik voor een beetje normale prijs kon krijgen) maar ze vliegen nu wel wat uit de bocht in mijn beleving.
Ik herken wat je zegt. Ik kocht vroeger vaak de xx70 maar als ik nu nog zou moeten kiezen zou ik bij een xx60 uitkomen. Echter wordt daar weer vaak beknibbeld op geheugen dus t blijft lastig bij kamp groen de laatste jaren.

Maar ik game niet meer dus dat scheelt voor mij :+ (ik red t nog jarenlang prima met de 1070)
vroeger kreeg je voor 600 een XX80 en geen 4070 en die XX80 voor 900 met dual gpu


ik vind 600 nog steeds belachelijk ik kocht ooit een 780 oc3 voor 450 nieuw , werkt nog steeds.

deze prijzen moeten echt nog een aardig stuk zakken
Ergeins in de jaren '90 een 3dfx Voodoo 1 kaart gekocht voor een kleine 400 gulden. Beste graphics die je toen kon krijgen. Ik word oud...
tel daar de prijs van de vga kaart bij, want met de voodoo alleen was je niets ;)
Da's waar, maar ik kan me van die tijd niet herinneren dat ik daar veel geld aan kwijt was. Zal wel een simpel S3 of Cirrus Logic kaartje geweest zijn.
:) Die doorluskaart kaart (Diamond) had ik achter mijn Matrix Mystique hangen, glide was echt geweldig. Veel lol van gehad, toen draaiden de (Pentium en AMD) CPU's nog onder/rond de 200MHz.

Maar ja, over oud gesproken: ik heb ook nog de XT en AT PC's meegemaakt (en daarvoor de Z80). In die tijd had je Intel, AMD en Cyrix CPU's. Van 8088 naar 8086, 80286 etc etc....

Asus T2P4 anyone?
Haha, herkenbaar! Ooit begonnen met een ZX Spectrum voor m'n zesde verjaardag. Harrier attack spelen met/tegen m'n moeder :)
Spectrum was geweldig, Jet Set Willy, Ant Attack en wat dacht je van Starion 3D vliegen en schieten door de ruimte....

Voor de Spectrum was er de ZX81 met dat $%^#-membraamtoetsenbord en brakke connector voor de RAM-uitbreiding (naar 16kB of 8kB?). Had je een uur code ingetikt, resette dat ding. Wat heb ik dat ding vervloekt. |:(

Die Spectrum was ook goed uitbreidbaar, Mijn eerste was een 16kB exemplaar en met wat RAM-ic's uit de elektronicawinkel (Dil in Rotterdam) uitgebreid naar 48kB.
Sir Clive Sinclair had een slimme oplossing om de prijs te drukken: hij kocht afgekeurde (half-bad) rammetjes op voor een prikkie, sorteerde ze (bovenste helft/onderste helft) en gebruikte deze in de Spectrum.

[Reactie gewijzigd door slb op 22 juli 2024 13:23]

Ik had een C64 maar heb veel spectrum games gespeeld bij vrienden die allemaal een zx hadden. Leuke games, gelukkig vaak ook beschikbaar voor de C64.
Idd, goede oude tijd dat je voor € 500- € 600 de absolute enthusiast kaart kocht. In 2011 kocht ik nog een high-end game pc met i7 860 en Radeon 5870 voor € 1.200. Heb je nu nog niet eens de videokaart voor.

[Reactie gewijzigd door Hulleman op 22 juli 2024 13:23]

Nee hoor ik kan mij nog herinneren dat de ge-force 5900XT rond de 200 euro was en dat was een top kaart, vanwege inflatie gaan de prijzen nooit meer het oude worden.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 13:23]

Als mensen deze generatie gpu's niet zouden kopen had je een punt gehad. Nu is het niet meer als jouw persoonlijke mening.
interessante vraag, koopt de normale consument nog videokaarten of zijn het nu weer CHATGPT's van deze wereld die de markt verzieken? Met andere woorden wordt de consument gewoon uitgekleed omdat er schaarste wordt gecreëerd?
interessante vraag, koopt de normale consument nog videokaarten of zijn het nu weer CHATGPT's van deze wereld die de markt verzieken? Met andere woorden wordt de consument gewoon uitgekleed omdat er schaarste wordt gecreëerd?
Van schaarste is denk ik niet echt sprake meer, aangezien elk merk of model 40-serie videokaart wel via meerdere shops word aangeboden.
Schaarste hoeft niet letterlijk te betekenen dat je er niet aan kunt komen. Ik weet zeker dat als de consument z'n gedrag zou aanpassen aan z'n geklaag over de prijzen, de markt vanzelf weer afkoelt en de prijzen terug gaan naar een normaal niveau. De enige reden dat je tegenwoordig telefoons van 1200+ euro hebt en videokaarten van een vergelijkbare prijs, is omdat de consument bereid is dit te betalen. Of dat nu met tegenzin is of niet, dat maakt voor Nvidia geen bal uit.

Dus als we nou eens zouden stoppen met dit soort idiote prijzen betalen, houdt Nvidia vanzelf op met dit soort idiote prijzen vragen. Uiteindelijk heeft het voor de fabrikant ook geen zin om een GPU te ontwikkelen waar geen markt voor is.
veel mensen hebben een lager & goedkoper model gekocht of hun oude opnieuw gebruikt
Nvidia heeft nog genoeg 3000 serie kaarten waar ze vanaf moeten vanwege een ingeklapte mining markt.
Nu houden ze de GPU 4000 kaarten bewust op scalper prijzen om de oude voorraad weg te werken. AMD gaat er een beetje in mee, en blijft er net wat onder zitten, aangezien het geringe marktaandeel van hen maakt dat toch weinig uit. Ja, de consument wordt uitgekleed.
iid. Ik speel amper games, dus voor mij is mijn gtx 780m ruim voldoende, en die kan ook prima video-editen op mijn imac. alles aan mij is retro, dus dat past allemaal goed bij elkaar. 8)7 .
Ik heb, toen de crypto-mining markt in elkaar stortte een 2e hands RTX 2060 Super gekocht via de V&A op deze site. Ik had daarvoor een GTX 770 die best oud begon te worden. De 2060 is een fijne upgrade en speelt de meeste moderne spellen prima op medium settings. Het mooie is: zolang je niet went aan al dat visuele geweld van de nieuwste generatie GPU's in de nieuwste games, heb je die dure kaarten ook helemaal niet nodig.
wow ! :-)
Hier iets andere situatie maar voorlopig geen enkele reden om te upgraden. Ik wacht wel op de 6080 :-)
Larry Summers noemde het ketchup economics: iets kan relatief aan andere producten redelijk geprijsd zijn, maar dat maakt niet uit als alle producten idioot geprijsd zijn.
Mooi om te zien dat mensen dit nu al zo normaal vinden dat er wordt gezegd prima deal
Ja, ik sta ook met verbazing die reacties gade te slaan. Blijkbaar werkt de gewenningstactiek van Nvidia goed en zijn veel mensen zonder problemen over te halen exorbitante prijzen te betalen.
Doet mij denken aan Intel en het ellenlange quad core processor tijdperk sinds Skylake (en ervoor ook eigenlijk).
Nvidia doet nu net hetzelfde als Intel om net dezelfde reden, men heeft het marktaandeel.
Het is aan AMD om terug te slaan net zoals op de cpu markt.
Het is aan AMD om terug te slaan net zoals op de cpu markt.
Probleem is dat nVidia wel vooruitgang blijft maken, want de 5000 en 6000 serie van AMD kan je IMO best beschouwen als de Ryzen van GPU's

Mensen waren echter wel klaar met Intel en dan waren de Ryzen mooie alternatieven, bij nVidia zie ik dit niet. Mensen zijn (buiten de prijzen om) nog ontzettend tevreden met nVidia

Dit zie je ook terug in de verkopen, zelf waar AMD in alle opzichte de betere keus is, word nVidia 9 van de 10x toch gekozen

Lastig voor AMD om daar tegen in te gaan, zeker zonder een product te maken wat in alle opzichten beter is en ook nog goedkoper moet zijn (wat bijna niet te doen is imo)
Dat is het gehele marketing plan van Nvidia, al jaren lang. Net een kikker die langzaam dood kookt. Al is er wel iets te zeggen over gestegen TSMC wafer kosten, de winstmarge die bij Nvidia de zakken in gaat is te hoog wat mij betreft. Toegegeven, ik betaal de Nvidia taks ook, en als ik er net 1000 euro voor neer had gekwakt zou ik ook roepen dat het wel mee valt (goed praten van een "grote" aankoop voor jezelf is iets psychologisch :+ )

voor nu voldoet de 3080 die ik voor 779 Euro had nog wel even. Wellicht de volgende ronde wat van AMD.

[Reactie gewijzigd door nullbyte op 22 juli 2024 13:23]

Fools & Money shall be parted... Mijn waarschuwingen staan in dit draadje hopelijk pakken mensen het op. Je moet elke kaart in de historie plaatsen om te zien wat er echt aan de hand is. Als je dit naast Pascal zet, dan zie je hoe dramatisch het is. We zijn blijven steken op specs die bij een 1080ti horen, en je kon die destijds voor minder kopen dan deze 4070. Als dat je niet aan het denken zet, dan weet ik niet wat wél :)

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

Bericht van tweakers uit 01-09-2020 , dik 2,5 jaar geleden

Nvidia heeft zijn RTX 3000-kaarten aangekondigd. Vanaf 17 september is de RTX 3080 met 10GB gddr6x beschikbaar, voor 719 euro. Op 24 september volgt de RTX 3090 met 24GB gddr6x voor 1549 euro. In oktober komt de 519 euro kostende RTX 3070 met 8GB gddr6 uit.

Wat een enorme teleurstelling, ik hoop dat ze niets verkopen en de prijzen keihard onderuitgaan...
is niet echt gelukt he die 719? iets met mining en scalping geloof ik. Your point being? :)
Als je op tijd een 3080 had gekocht was het zeker gelukt, voor 7-800 euro, na de mining hype werden ze schaars en duur.

Na 2,5 jaar zelfde prijs, zelfde prestaties en iets zuiniger.. en dat in een tijd waar geen mining hype of schaarste heerst vind ik echt veel geld....
De aandeelhouders en het management van Nvidia willen een groei in omzet blijven tonen. Nu is het aan de klanten om nee te zeggen. Het crypto-feest is over.
Maar het nieuwe beestje Chat-GPT en zijn klonen is de volgende...
Ik was een van de gelukkige die vlak na launch een 3080 kocht voor adviesprijs, je zult begrijpen dat ik daar nog altijd zeer content mee ben! 8-)

Waardeloze release met de 3080 in het achterhoofd. Deze kaart komt niet eens aan de 3080 prestaties van 2,5 jaar geleden voor nauwelijks minder geld.

[Reactie gewijzigd door Tortelli op 22 juli 2024 13:23]

Dat zijn er niet heel veel geweest, getuige de maanden/jarenlange hype die er omtrent de videokaarten is geweest. Zelfs nu nog 2,5 jaar na de release verkopen ze nog voor 800-900 euro.... ongekend.
Voor de mining hype was het al onmogelijk om een 3080 te krijgen als je niet 200-300€ boven de adviesprijs wou betalen.

Vanaf dag 1 was hij enkel bij scalpers te kopen.
Of dat nu wel of niet lukte maakt toch niet uit? Genoeg die het trouwens Day 1 gewoon gelukt is.

Het probleem hier is dat er in 2.5 jaar tijd geen noemenswaardige verbetering is in prijs / prestatie ten opzichte van het aanbod bij release van de vorige generatie. Normaal verwacht je Gen on Gen minimaal 30% meer prestaties op hetzelfde prijspunt, en die 30% is eigenlijk nog redelijk lowballen ook nog, HUB had bijvoorbeeld laatst een poll waar uitkwam dat het grootste deel van hun publiek 50% Gen on gen verbetering wil zien voordat ze toehappen bij deze prijzen.

[Reactie gewijzigd door Dennism op 22 juli 2024 13:23]

Ten tijde van de 20 serie heeft Nvidia dat trucje al eens gelapt... 20% meer performance voor 20% meer geld.

30 serie was wel een echte upgrade aan MSRP, alleen is die nooit voor MSRP te koop geweest.

En nu doen ze weer hetzelfde als met de 20 serie. 30% meer performance voor 30% meer geld tov de marktprijzen van de vorige generatie.

Echt triestig.
HUB had bijvoorbeeld laatst een poll waar uitkwam dat het grootste deel van hun publiek 50% Gen on gen verbetering wil zien voordat ze toehappen bij deze prijzen.
Veel mensen waaronder ik zelf, doen 2 generaties met een GPU. Daarna upgrade en dus 50% meer prestaties voor hetzelfde geld. Maar wanneer nu de prijs per generatie ook met 25% omhoog gaat, wordt het een ander verhaal natuurlijk.
€719 niet nee maar Oktober 2020 €819 betaald voor een Gigabyte RTX3080 Gaming OC bij Informatique
Heb het destijds bij Alternate voor 719 gekocht. 2 weken later in huis. Al was ik 1 van de gelukkige. Zit er nog steeds in en werkt nog prima.
Ik had een RTX 3080 bij release voor 779 Euro, een redelijke prijs gezien de 3 vorige generaties. Heeft zeker 2 jaar gevoeld alsof ik in een VIP club heb gezeten.

[Reactie gewijzigd door nullbyte op 22 juli 2024 13:23]

Eerst die 669 zien, dan geloven...
De 6950XT kost ook ~680 euro met prestaties rond de 3090...

De 4070 is iets zuiniger maar nog niet in de performance klasse waar Ray Tracing echt zin heeft.
Een relatief goede deal, maar nog altijd veel geld.
Stilstand is geen vooruitgang.
Er zit 2,5 jaar tussen de generaties. Dit soort stappen zou je jaar op jaar verwachten. Lagere prijs voor dezelfde prestaties van een hoger model uit de vorige generatie. Maar met 2,5 jaar tussen de generaties mag je wel wat meer verwachten.
669 voor een 4070, met de prestaties van een 3080 die nog voor 800-900 euro te koop is. Prima deal :)
Vergeleken met een 3080 voor zo'n waardeloze prijs wel.

Als je naar de specs kijkt is deze kaart ten opzichte van de 4090 wat de 3060 is ten opzichte van de 3090. Alleen mogen we er nu 670,- voor betalen ipv 370.
met specs die bijna beter bij een xx60 kaart passen
De kaart zit eerder tussen de 3070 en 3080 in.
Heb je de huidige prijzen van de 6950XT gezien?
Je bedoeld een waardeloze deal. Ik betaal niet meer dan 399 voor deze kaart.
Je koopt een nieuwe 6950XT voor 699 en die veegt de vloer aan met de 4070.
Qua prestaties helemaal niet een goede deal.
Ik heb vlak na release een 3080 voor 770,- weten te scoren, dus die 4070 is gewoon geen prima deal. Maar zolang iedereendat roept en de videokaarten het koopt blijven de prijzen debiel hoog.
Ik kocht mijn RX 6800 2 jaar geleden, voor 590,-

Deze 4070 is misschien 20% sneller in het gunstigste geval, en kost 17% meer.

Ik noem het stilstand.
De 3080 komt uit september 2020, bijna 3 jaar geleden.

Je kan ook zeggen, 669 voor een 4070, met de prestaties van een 6800XT, die voor 616 euro te koop is, en ook nog eens 16GB aan VRAM heeft.
Precies.
En vet 12 gig
...een 4070, met de prestaties van een 3080...
Wellicht heb je met een verkeerde bril gekeken?

Het ligt heel erg aan de resolutie/kwaliteit. Maar op 4k Ultra is de 3080 bijna 10% sneller, maar op 1080 Medium is de 4070 bijna 5% sneller. Bij raytracing is de 3080 ruim 20% sneller.

Imho koop je een dergelijke kaart voor hogere resoluties en niet voor de 300 fps in Doom Eternal op 1080p en daar is de 4070 minder goed in dan de 3080. Maar de 3080 mist dan weer DLSS3.0. De 4070 is ook veel energie efficiënter dan de 3080... Imho kan je beter een nieuwe generatie kopen dan een vorige, maar het blijven hoge prijzen die men liever veel lager zou willen zien!
Ik heb momenteel een 8 jaar oude Nvidea GTX970 in gebruik die eerdaags de deur uit gaat. Voor de rest zit ik hier achter twee AMD mini PCs met integrated AMD graphics, en heb ook nog een SteamDeck met AMD CPU en integrated AMD graphics. Ik heb express afgelopen jaar geen 4090 + hele nieuwe computer aangeschaft, niet zo zeer voor de prijs (eenmalige aanschaf), maar om het stroomverbruik en de warmte die het daarmee uitstoot (wat in de zomer gecompenseerd moet worden met een zwaardere airco en dus nog meer stroom). Ik heb nu wel een abo op de Geforce Now streaming dienst ter compensatie...

Ik weet niet precies wat ik volgens jou probeer goed te praten, maar ik heb er voor gekozen om momenteel geen nieuwe videokaart aan te schaffen (van zowel niet Nvidia, AMD of Intel) met de daar bijhorende AMD/Intel CPU kachel... Dat betekend niet dat ik er nooit eentje aanschaf, maar voorlopig niet. Dat betekend niet dat er wat te zeggen is voor een Nvidia videokaart. Naar mijn mening zijn de RTX en DLSS(3.0) features bij Nvidia absolute killers als je naar de videokaart aanbieders kijkt. Daarnaast is de efficiëntie over het algemeen ook significant beter dan de concurrentie.

En ik kan bij geen enkele kaart zeggen deze is de 'beste' op alle vlakken, ze hebben allemaal zo hun eigen omstandigheden, het licht er geheel aan welke je zelf belangrijk vind. Kennelijk liggen jou prioriteiten niet op dezelfde lijn als die van mij... *surprise* }:O
Duur is het nieuwe normaal...?

Komt dit omdat wij als klant zomaar betalen wat de fabrikant voorschrijft? Dus wat een gek ervoor geeft? Of als klanten er massaal niet voor kiezen deze prijzen te betalen de fabrikant de prijs wel naar beneden bij moet stellen... Of gaat een fabrikant simpelweg failliet als we dit soort prijzen niet meer betalen..

Ik ben in de veronderstelling dat de klant bepaalt wat het nieuwe normaal wordt en niet de fabrikant, mits de klanten hier massaal voor kiezen :)
Ik ben inderdaad niet van plan dit soort astronomische bedragen te betalen voor een midrange videokaart. Maar mijn RX480 begint toch wel erg veel moeite te krijgen met games.
Er is bij een aantal videokaarten een kleine prijsdaling waarneembaar in de pricewatch, ik hoop dat die doorzet.
Met een 6700 XT heb je een kaart die 2,5 keer sneller is, dus dat is al een flinke upgrade voor een flink betere prijs. Of je kunt wachten op de 7800 XT, 7800 en 7700 XT.
2,5 keer? Dan zit je op 4080 prestaties!
2.5x dan een rx480, lijkt mij.
Ik heb mijn RX480 verruild voor een RX6600 die is 2 keer zo snel tegen minder verbruik en inmiddels voor 185 euro tweedehands te krijgen. Bevalt goed

Als je genoegen neemt met full HD hoef je die waanzinnige prijzen niet te betalen
Inderdaad, heb nu zelf een RX 6650 XT voor 1080p een fantastische kaart :)
En voor een hele goede prijs gekocht ;)
2016 GTX 1070 €549 (MSI GTX 1070 Gaming X 8G)
2023 RTX 4070 €669 (de MSI variant zal best iets hoger uitvallen in prijs)

Ik vind het niet zo'n heel hoge prijs.
Prijs verschil is gewoon even een 120 euro. Best fors, als je het mij vraagt.
Over zeven jaar met inflatie, vind ik dat niet.
Maar jij mag dat vinden.
In zeven jaar tijd, 18% meer. Ook met inflatie en COVID is dat nog behoorlijk veel, dat is gemiddeld per jaar 2,5% (percentage op percentage even niet meegerekend). Ik zou willen dat mijn salaris zo snel steeg. ;)
Volgens deze inflatie calculator is 550 euro in 2016 anders gelijk aan 667,95 euro in 2023, dus dat ligt toch prima met elkaar in lijn?

edit: en als ik deze tool gebruik kom ik zelfs uit op een bedrag van 723 euro in 2023, dus dan zou je nog kunnen beargumenteren dat de 4070 relatief goedkoop is.

[Reactie gewijzigd door T_elic op 22 juli 2024 13:23]

Of iets goedkoop is hangt ook af van de verhouding tussen besteedbaar inkomen en prijs. Inflatie is op zich een valide argument, maar de koopkracht is lang niet evenveel gestegen als de prijzen. Producten, waaronder toch al dure videokaarten, zijn daarmee als percentage van het besteedbaar inkomen gestegen in prijs en daarmee
effectief duurder geworden, ook al is de prijsstijging niet hoger dan die voor andere goederen in dezelfde periode (inflatie).

[Reactie gewijzigd door mac1987 op 22 juli 2024 13:23]

kijk eens naar de 3080 vs 4080? dat is bijna een verdubbeling in prijs. van 720 euro naar 1389 euro MSRP.
Dat is niet "infaltie" dat is "Oh... mensen hebben tijdens covid 1200 euro betaald voor een 3080?! Dat willen we houden, die prijzen!!" mentaliteit. Nvidia interesseert het geen ruk wat jij vind namelijk
Edit: link was een Ti, sorry.

[Reactie gewijzigd door Enai op 22 juli 2024 13:23]

Mooi vergelijk, hier wat andere, relevante cijfers:

GTX970: 3.5GB+0.5 (196+23 bit)
GTX1070: 8GB (256bit)
GTX4070: 12GB (192bit)

De 1070 was echt een flinke stap sneller dan z'n voorganger en was de op één na snelste kaart van het moment. Hij presteerde dus eigenlijk op 4080 niveau. De busbreedte was ook duidelijk meer dan slechts midrange en de hoeveelheid geheugen was meer dan gemiddeld. We bevonden ons net in de tijd dat 4GB nog ruimschoots voldoende was en waar 8GB voor langzamere Polaris kaarten eigenlijk als overbodig werd gezien, wat het ook zou zijn geweest hadden deze kaarten niet een dusdanig lange levensduur gehad door de cryptocrisis.

De 4070 daarentegen biedt dus niet de verdubbeling van geheugen aan en ook niet echt de gen-on-gen verbetering die je zou verwachten. De 1070 was destijd redelijk stevig aan de prijs, juist omdat er een flinke prestatieverbetering te zien was en de prestaties baanbrekend waren. Iets wat absoluut niet gezegd kan worden van de 4070.

Om een lang verhaal kort te maken: Juist omdat de 4070 slechts een incrementele verbetering weet te bieden, is een prijsverhoging juist niet gerechtvaardigd. Maar goed, de markt bepaalt de prijs. Als genoeg mensen vinden dat hij het wél waard is, is dat de prijs :)
De xx90 kaarten zijn opvolgers van de Titan modellen; alleen stonden die Titans vroeger iets verder weg in de line-up. De 1070 was duidelijk een maat kleiner dan de Titan, 1080Ti en 1080. Het was dus de vierde kaart in de lineup.
Daar heb je helemaal gelijk in. Men laat zich wat dat betreft ook enigszins gek maken door dus de xx90 kaarten als norm te nemen en al het andere als minderwaardig te zien.

Wat alleen wel opvallend en nieuw is, is dat tegenwoordig dus de Titan de best prijs-prestatie verhoudingen heeft, daar waar het vroeger een halo product was tegen een meerprijs die juist niet lineair meesteeg met de prestaties, maar exponentieel. Alles is omgekeerd nu: Eerst werd het haloproduct uitgebracht en daarna kwamen kaarten die qua prijs/prestaties maar een slap aftreksel waren, om mensen dus te bewegen dan maar het beste en duurste product te kopen.
je moet het zo zien...voor de prijs dat je ook kwaliteit krijgt.
En dat is in dit geval DUS NIET!.
+ deze 4070 is de kreupele versie van de 4070ti.
dus uit de oude trukendoos niet goedgekeurde kaart hahaha maar hij kan mee als minder...kunnen we ook verkopen toch :)

[Reactie gewijzigd door noway op 22 juli 2024 13:23]

Jammer alleen dat wat Nvidia tegenwoordig een x70 noemt, in feite en met héél veel optimisme een x60ti mag heten. Al vind ik het meer op x60 specs lijken.

En dat komt puur omdat Nvidia een AD103 in het leven heeft geroepen en daar een x80 op bakt die mijlenver van de AD102 af ligt (de 4090). Daaronder vinden we dan de AD104 en als we die lekker bijsnijden zitten we op wat de 4070 is.

De bandbreedte van die kaart is vrijwel gelijk met de bandbreedte van een GTX 1080 met 8GB en 500GB/s. Dat is dramatisch slecht voor een kaart die 2,5x zo snel is op de core, en het is het niveau aan bandbreedte dat je verwacht op een hedendaagse x60.

En dan komt nu de 4060ti binnen op 450 euro en met 8GB. Die kaart is al oud nieuws als ie uit komt. 450. Euro. Het is bijna crimineel.

[Reactie gewijzigd door Vayra op 22 juli 2024 13:23]

Ik vind dat de (met name Europese) pers wel heel erg fatalistisch doet over de gestoorde prijzen die Nvidia denkt te kunnen hanteren.
Duur en energieslurpend lijkt het nieuwe normaal inderdaad.

Helaas. Zoals Tweakers het ook al treffend beschrijft in hun kop "lekker zuinig voor een moderne videokaart".

Je ziet ook in de tabel heel duidelijk dat x70 reeks jarenlang onder de 200 dook (en niet zo'n beetje ook), maar we nu al op de knietjes mogen voor een verbruik van "maar" 200W.
Ik wacht op de eerste 4 slots 750 Watt videokaart.
Het is toch wel een trend om te schrappen op materiaal en in de plaats daarvan de hele handel maar dusdanig hoog te klokken dat er toch nog fatsoenlijke prestaties uitkomen. Een beetje overklokken wat we vroeger thuis deden, wordt nu door de fabrikanten gedaan.

Zij genieten het voordeel van kleinere chips en lagere kosten, wij mogen het hogere verbruik betalen. Gelukkig valt een deel af te vangen met een undervolt en het kiezen van de juiste GPU.
is dat nu mijn idee of lijkt dit grote rommel te zijn tegenover de 3070 en een vraag mij af hoe ze daar de 4060 en 4060-ti nog gaan tussen krijgen.
die msrp valt nog sterk af te wachten.
6800 xt met meer vram lijkt me hier toch de slimmere keuze te worden ook voor beter prijzen

[Reactie gewijzigd door Wolfp4ck op 22 juli 2024 13:23]

De 3070 is waardeloze rommel omdat ie slechts 8 GB VRAM heeft. Ik heb er een en UE5 + Photoshop is niet werkbaar, of Stable Diffusion + Photoshop, etc. Misschien goed genoeg als je alleen maar spelletjes speelt, maar niet voor een workflow.

De 4070 is beter simpelweg omdat je een redelijke hoeveelheid VRAM krijgt voor je zuurverdiende centen.

Meer nog, de 3060 is beter omdat je 12 GB RAM krijgt..

[Reactie gewijzigd door Enai op 22 juli 2024 13:23]

12gb is ook maar op het randje hoor, zelf 16gb voor de 4080 is bedroevend laag voor een high end kaart
Ik heb nog maar zelden te weinig VRAM gehad met de 10GB die de RTX 3080 heeft. Zaken als RT die vram vreten heb ik sowieso zelden aan.
Nu heb ik hier ook een Laptop met een 3060 met 6 GB, da's een compleet ander verhaal. Ondanks de resolutie van slechts 1080p.

[Reactie gewijzigd door nullbyte op 22 juli 2024 13:23]

En dat wist je niet toen je die 3070 kocht? Is toch niks nieuws dat bepaalde professionele toepassingen meer VRAM vragen dan alleen wat games spelen..

Daar heeft Nvidia juist de zogenaamde Titan modellen voor met veel VRAM.. Nu de 4090 met 24GB.. Kost wel wat natuurlijk, maar als je het echt professioneel gebruikt zo terugverdient lijkt me..
Titan modellen? De RTX A6000 is de grote broer van de 3090, met 48GB voor professioneel gebruik. De RTX 6000 Ada Gen is de vergelijkbare grote broer van de 4090. Titans waren altijd de high-end game kaarten; de professionele kaarten heetten Quadro.
Het nadeel van de 30xx serie is het weinige geheugen, daar doet de 4070 het al (iets) beter.
Dat weinige geheugen diskwalificeerd eigenlijk de 3070 al.
Daarnaast zijn de prestatie beter, misschien niet in verhouding met de prijs maar vergeet niet dat de 3070 in het begin ook pokke duur was.
Ik denk dat de 4070 tov de 3070 het wel goed doet.
Ben het wel eens dat de 6800xt de betere keuze is hier :) (heb ik zelf, ben er erg blij mee)
Ik heb een RTX 3080 10GB al sinds eind 2020 en merk maar heel weinig van het zogenaamde VRAM nadeel.. En dan speel ik zelfs op een vrij hoge resolutie van 3840x1600.. Enige wat ik ervan gemerkt heb is dat ik geen HD-texture pakket kon gebruiken in Far Cry 6, omdat die minimaal 11GB vereist.. Niet dat je veel verschil ziet waarschijnlijk..
Het ligt er waarschijnlijk ook aan wat je grafische instellingen zijn en welke games je speelt. Hier een review van Hardware Unboxed. Zij laten het verschil zien tussen de 3070 8GB en RX 6800 16GB met nieuwe games.

[Reactie gewijzigd door Dunky555 op 22 juli 2024 13:23]

Dat ligt het ook en daarom vind ik het ook een beetje non-issue aangezien je het vrij makkelijk kan oplossen door bepaalde settings te verlagen indien nodig.. Op 4K resolutie ga je zelfs met een RTX 3080 sowieso al niet meer alles op Ultra kunnen draaien in de nieuwste AAA games, dus dan doet de 10GB VRAM limiet er ook niet echt meer toe aangezien je toch al terug moet met bepaalde instellingen.. High ziet er in de meeste games vaak nagenoeg net zo goed uit als Ultra, en bepaalde andere shaders etc kunnen zelfs nog lager zonder dat je echt verschil ziet..

Mede daarom is het jammer dat er nog maar weinig aandacht is voor tweakguides van alle instellingen in nieuwe PC games.. Er valt echt een hoop prestatiewinst te halen daarmee zonder dat je echt aan grafische pracht inlevert.. Gat in de markt voor contentcreators op b.v. Youtube..

[Reactie gewijzigd door Inflatable op 22 juli 2024 13:23]

Mee eens dat het een non-issue is/kan zijn maar zoals de video laat zien is dat nieuwe games een paar jaar later ook op lager dan 4K baat hebben bij meer video geheugen.
Al met al heeft de video mij in laten zien dat V-RAM toch meer invloed heeft dan ik besefte (in de nieuwste games). 8GB RAM is nu wel vrij krapjes en het lijkt mij dat 10GB 12GB dat over een paar jaar ook is. Dus mits je elke paar jaar een nieuwe GPU koopt is V-RAM toch wel een puntje om rekening mee te houden mijns inziens.

[Reactie gewijzigd door Dunky555 op 22 juli 2024 13:23]

"Mede daarom is het jammer dat er nog maar weinig aandacht is voor tweakguides van alle instellingen in nieuwe PC games"

Vaak zijn het dezelfde instellingen die betere prestaties leveren zonder veel in te boeten op grafische pracht.
Shadows/Volumetric Fog/Screen space reflections/Ambient occlusion.
Op 1440p kan vaak Anti aliasing ook wel stappie terug.
Wat een teleurstelling is het toch daadwerkelijk geworden heb een 3070 en ga echt niet upgraden met deze prijzen Nvidia gaat me verliezen aan AMD heb al een ryzen 9 7900x en daar gaat een gpu bijkomen.
die gaan ze gewoon de performance van de 3070 geven met eenzelfde pricebump zodra hun oude stock 30-chips eindelijk op begint te raken
Kunnen ze lang wachten denk ik, want de 30-serie verkoopt ook amper meer.. Blijven allemaal lang liggen in de voorraden in de retail.. Ondertussen storten de verkoopcijfers van Nvidia in.. Zullen ze vanzelf met lagere prijzen moeten komen..

De basis economische wetmatigheid van vraag en aanbod.. Er is nu veel meer aanbod dan vraag, dan zakt de prijs..

[Reactie gewijzigd door Inflatable op 22 juli 2024 13:23]

Ik had graag een test gezien waarbij de 12GB mogelijk een beperkende factor zou zijn.
Denk aan:
  • RE4 in 4k met RT aan,
  • HWL 4k met RT aan
Ben erg benieuwd wat dit zou doen met de gemiddeldes in de grafieken.
Wat je vooral ziet is dat de 4070 wisselend presteert op 4K in console port games die slecht met resources omgaan. De erg geknepen geheugenbus van 192 bit schiet soms tekort. Dan is het VRAM zelf nog niet eens de beperkende factor. Check maar eens de RDR 2 testresultaten: review: Nvidia GeForce RTX 4070 - Lekker zuinig... voor een moderne videokaart

3080 RTX / 10 GB / 320 bit
4070 RTX / 12 GB / 192 bit

Op 1080P Ultra is het verschil slechts -8% tov een 3080.
Op 1440P Ultra is het verschil -13% tov een 3080.
Op 4K Ultra is het verschil ineens -25,1% tov een 3080.
Het geheugen is wel sneller geklokt op de 4070. Maar het is geloof ik 500gb/s voor de 4070 en 760gb/s voor de 3080. Nog steeds een flink verschil.
Eigenlijk had deze kaart met dit prijskaartje een 256bit bus / 16GB moeten hebben. Alleen dan komt de kaart natuurlijk teveel in het vaarwater van de 4080.
Precies dit. Gewoon meteen om duidelijk weer te geven waar de koper mogelijk tegen aan gaat lopen.
Hardware Unboxed ('3070 vs 6800 revisit 2023') heeft een zeer goede informatieve video gemaakt over '8GB Vram' , daaruit blijkt dat de RTX 3070 (ti) lachertjes zijn vs de RX 6800 , uiteraard een schoolvoorbeeld van Planned Obsolence.

Voor 1080p60 high settings is een 2de hands 5700xt voor 'SLECHTS' 200 eur nog altijd een superieure entry point, de 6700xt kost bijna (2de hands) het dubbelle voor pakweg 20% meer.

Persoonlijk zeg ik dat 8GB vram kaarten max 250 mogen zijn en het best vermeden kunnen worden echter blijft met name de eerder genoemde 5700xt als upgrade vanaf de rx580 of 10xx/16xx natuurlijk een no brainer.

Voor 400+ eur is 10 GB vram de nieuwe eis.
Voor 500+ eur 12 GB en 650+ 16 GB

Kwa prijs kwaliteit verhouding zijn alle nieuwe GPUs als een containerschip lauwe heinekens. De 6500xt had als predikaat best 'erbarmelijk' mogen krijgen ten opzichte van een 'excellent' voor een veelste dure gpu.
Iedereen heeft het over de slechte prijs kwaliteit verhouding, maar die begrijp ik niet.
Heb destijds in augustus 2021 een van de eerste RTX 3070 gekocht voor 769 euro.
Als ik nu de RTX 4070 koop voor 669 euro heb ik een kaart uit dezelfde serie ruim 100 euro goedkoper en ca. 30% sneller. Dat is toch een goede deal en vooruitgang ?
of je trollt of je snapt er niet echt veel van.

de msrp van de 3070 is 500. dat jij die voor scammer prijzen hebt gekocht betekend nog niet dat deze 4070 goed geprijsd is. dat is niet zo. deze had niet meer dan 500-550 euro moeten kosten. en niet 670. of hoger. voor zulke prijzen moet je gewoon een rx6950xt kopen die krijgen binnenkort ook fsr3 wat ongeveer hetzelfde zal zijn als dlss3.0 frame generation
Tja zo werkt de wereld niet, had moeten kosten.
En dit bericht komt toch in de buurt van je advies prijs :https://nl.hardware.info/...oor-lagere-prijs-rtx-4070
zo werkt het dus wel. amd prijzen waren goedkoper. en als je geen kaart nodig had waren er natuurlijk ook andere opties. dus je kan het niet accuraat vergelijken met scammer prijzen. zo werkt dat niet.

als je gaat vergelijken moet je het op de echte msrp gaan doen. wat voor de 3070 519 was
Dan moet ik je toch teleurstellen die van mij is reeds in pre-order :)
Of je erkent gewoon dat je geen gelijk hebt, is een gezonde eigenschap. Je benadert het vanuit een bedrag die enkel jij betaald hebt, een prijs die 50-60% boven MSRP lag destijds.

Ontopic, de positionering van deze 4070 is rampzalig in de huidige markt en ontiegelijk gunstig voor AMD. Het is bizar dat NVIDIA deze generatie zo belachelijk duur positioneert. Schijnbaar willen ze minder volume de markt in pompen of gaan ze er van uit dat mensen die nog op generatie 1 of 2 zitten maar gaan toegeven.

Intel maakt grote stappen in hun driver optimalisatie en kan, mits AMD niet in de low-midrange springt met een goed geprijst aanbod, grote sprongen maken. De tijd dat NVIDIA enkel op naam kan concurreren raakt achterhaald. Deze hautaine houding rechtvaardigd het besluit van EVGA meer en meer.
1 vraag wanneer heeft de kaart in de winkels gelegen voor de adviesprijs ?
Met de RTX 4070 krijg je de performance van de 2,5 jaar oude RTX 3080 voor bijna dezelfde prijs. (670 euro ipv 700 euro). De RTX 4070 is een prutdeal. Nvidia is een hebberig klotebedrijf dat jarenlang door PC-gamers geboycot zou moeten worden om ze een lesje te leren.
Haha grappig de aanhangers van AMD dit zal ook altijd zo blijven. Voor mij never nooit niet een cpu of gpu van AMD, zeer slechte ervaring met die klote dingen.
Wat betreft de verschillen tussen rtx 4070 t.o.v. rtx 3080 stroom verbruik, warmte ontwikkeling, dlss3
luister even..ik heb ook nvid kaartje in mijn kast zitten namelijk de 1070 ti maar....
Je wilt het niet begrijpen denk ik,het heeft niks met fanboys te maken kerel.
Deze kaart moet je niet willen kopen...net als velen zeggen { nvdia naait ons nu al 3/4 jaren met hoge prijzen }

Als mijn kaart niet meer doet wordt het amd...heel simpel.
Mooie vergelijking, ik mis wel de 3070Ti helaas. Die zou nipt nog de 4070 evenaren of zelfs verslaan.
AuteurTrygve Redacteur @Banath12 april 2023 15:12
De 3070 Ti is zojuist toegevoegd!
op basis van de dag 1 review van de rtx 3070ti lijkt deze 5-10% sneller dan de 3070 afhankelijk van de resolutie (10% op 4k ultra, en bijna 6% op 1080p ultra)
dus de 4070 lijkt op basis daarvan nog wel een >10% sneller
review: Nvidia GeForce RTX 3070 Ti - Meer cores en sneller geheugen
Als antwoord op de laatste vraag in de conclusie: Wat AMD als antwoord op de RTX 4070 gaat geven, is momenteel nog volstrekt onduidelijk, maar de fabrikant zal hier ongetwijfeld nog iets anders dan de RX 6950 XT tegenover willen zetten. > Ik denk de RX7800 of RX7800xt maar die staan voor een release op 18 juni pas :(.
De RX6800Xt is al een tijdje leverbaar, Wel meer verbruik maar ook meer Vram.
Al verkijgbaar voor rond de 600euro.. dus tja..
kleine mV correctie wat simpel is op elke radeon en zeker te doen op de 6800 series et voila.....
Veel mensen hebben al een video kaart. En ja iedereen (bijna toch) kijkt naar prijs kwaliteit.
Door deze prijsverhoging gaan mensen gewoon minder snel upgraden deze generatie.
Maar ik denk wel dat nvidia deze prijzen zal aanhouden zoals dit bij smartphones al het geval was.
Misschien appelen met peren te vergelijken maar in mijn ogen is dat voor prijs kwaliteit niet het geval.

Ik heb de handdoek in de ring geggooid en doe meerdere hobby's voor dezelfde prijs...
FPV drones, DAW audio productie en ga gewoon lekker op vakantie.
Koop nu gewoon mainstream, die 60 fps is voldoende... Tenzij voor je werk is of je ech, echt! wil upgraden omdat je aan 30 -40 fps zit.... Maar dan nog, zet gewoon dat gfx balkje op normal...
Ik zit ondertussen op de steam deck, nog steeds goedkoper dan de laagste gpu van deze generatie nvidia.
Of een playstation 5... nog steeds goedkoper... (alleen hardware vergeleken) of Xbox...
Ik ben het helemaal met je eens.

Allemaal leuk en wel "midrange" videokaarten kopen voor 700 euro... maar ik heb ook nog andere hobby's die betaald moeten worden. Ik game enkel vrij casual misschien een uurtje na het werk 3-4 dagen per week om even te ontspannen. Daar heb ik geen 700 euro voor midrange voor over.

Ik blijf gewoon bij mn 980Ti, die kan nog wel verder zelfs op 1440p/60fps. En ik draai sinds kort alles naar high/medium, en loopt gewoon lekker. En als die het echt niet meer trekt dan koop ik misschien een Xbox ofzo.
Ik snap het niet want je had gewoon al een 2080 of 3080 voor die prijs kunnen kopen. Want de 980Ti was ook €750 euro bij release. Dus er zijn gewoon kaarten van een zelfde klasse voor een zelfde prijs uitgekomen, maar je wilde niet upgraden.
In de ene pc zit een 3080 van €819 en in mijn andere pc een 980Ti, gekocht voor €120 en ik heb geen moment spijt gehad van deze aankoop.
Eenvoudig: ten tijde dat de 2080 uitkwam kon ik alles nog op 1440p / ultra draaien, dus destijds totaal geen reden om te upgraden. En de value van de 2080 was dan nog dusdanig slecht dat upgraden gewoon dom geweest zou zijn.

3080 is nooit beschikbaar geweest wat mij betreft, zeker niet voor MSRP. Tenzij je met bots dag en nacht voor je PC zitten "verkrijgbaar" noemt.

Tenslotte was de 980Ti de absolute topkaart destijds, getuige dat hij al 8(!) jaar meekan. Nu kan je voor die prijs dus een "midrange" kaart kopen? Of ik had ook 6 maand geleden (toen eindelijk verkrijgbaar) voor om en bij de 750 een RTX 3070 kunnen kopen, die nu al niet meer meekan met 8gb VRAM (Hogwarts Legacy, Last of Us) 8)7 Lekker.

Op dit item kan niet meer gereageerd worden.