'Nvidia GeForce RTX 4070 gaat 599 dollar kosten'

De GeForce RTX 4070 moet 599 dollar gaan kosten, meldt VideoCardz. De adviesprijs van de RTX 4070 komt overeen met die van de RTX 3070 Ti bij introductie. Daarmee is de RTX 4070 honderd dollar duurder dan zijn voorganger, de RTX 3070.

Het gerucht dat de Nvidia GeForce RTX 4070 een prijs van 599 dollar krijgt, komt van VideoCardz, dat het naar eigen zeggen bevestigd kreeg via drie verschillende bronnen. Die bronnen waren bij een persbriefing van Nvidia. Volgens VideoCardz wordt de RTX 4070 op 13 april geïntroduceerd.

De RTX 4070 krijgt een AD104-250-gpu met 5888 CUDA-cores, een boostclock van 2,48GHz en een tbp van 200W. De videokaart zou daarnaast beschikken over 12GB aan GDDR6X-geheugen en 36MB aan L2-cachegeheugen, zo meldt VideoCardz. Het is niet de eerste keer dat er geruchten over de RTX 4070 worden verspreid. Techwebsite Wccftech heeft enkele maanden geleden vermoedelijke specificaties van de RTX 4070 gepubliceerd. Hoeveel Tflops aan shadingrekenkracht de kaart biedt, is nog niet duidelijk.

De videokaart is gebaseerd op de Lovelace-architectuur, net als de eerder aangekondigde RTX 4090, 4080 en 4070 Ti. Daarmee ondersteunt de videokaart features zoals DLSS Frame Generation en Shader Execution Reordering. De gpu wordt geproduceerd op TSMC's 4N-procedé, dat ook wordt gebruikt voor Nvidia's Hopper-gpu's voor datacenters.

Met een adviesprijs van 599 dollar is de RTX 4070 een stuk goedkoper dan de RTX 4070 Ti die bij aankondiging 799 dollar moest opbrengen. Wel is de RTX 4070 honderd dollar duurder dan zijn voorganger, de RTX 3070. De 599 dollar die de RTX 4070 zou gaan kosten, is omgerekend naar euro's en inclusief btw ongeveer 665 euro. Die prijs kan voor de introductie nog veranderen; Nvidia doet dat vaker.

Prijzen Nvidia GeForce RTX 40-kaarten
Videokaart RTX 4070 RTX 4070 Ti RTX 3070 RTX 3070 Ti
Adviesprijs bij release 599 dollar 799 dollar 499 dollar 599 dollar

Door Rard van der Hoeven

Nieuwsredactie

30-03-2023 • 15:50

173

Reacties (173)

Sorteer op:

Weergave:

MSRP prijzen founders editions:

GTX 1070: €499,-
RTX 2070: €639,-
RTX 3070: €519

RTX 4070: €669 (599 x 0,92 ($ koers) x 1,21 (BTW)

Duur maar in theorie maar 30% duurder dan de vorige generatie en niet vergeten dat alles zeker 20% in prijs is gestegen sinds die tijd. Vind het nog de minst bizarre prijs van wat er tot nu toe is uitgebracht.
Vergeet niet dat sinds de RTX30xx generatie de kaarten zoals de 3070 veel later kwamen dan de 3090 en 3080. De generaties daarvoor waren de kaart al rond oktober/november beschikbaar. Hoewel je daar niet direct een prijs kan aanhangen is het weer het zoveelste trucje van Nivdia om ervoor te zorgen dat mensen toch sneller kiezen voor een high-end kaart met meer marge in plaats van een mid-range variant.

Prijzen mogen dan wel 20% gestegen, maar lonen niet. Mensen hebben andere prioriteiten. De redenen waarom de high-end kaarten voorheen nog heel populair waren was voor een groot deel crypto. De kaarten waren snel terugverdient, dus vonden mensen het niet erg dat ze 20 of zelfs 30% duurder waren. In deze tijd denk ik dat Nvidia goed moet oppassen welke weg ze inslaan, want als ze door blijven gaan met het prioriteren van alleen high-end kaarten dan gaan ze veel klanten verliezen. Hetzelfde geldt voor de veelt e hoge prijzen van de kaarten.

[Reactie gewijzigd door Andyk125 op 23 juli 2024 11:47]

Ook is de upgrade in de 70 serie in deze generatie de minste, de RTX3070 heeft ook al 5888 CUDA Cores, waar de RTX4070ti veel meer CUDA cores heeft dan de RTX3070TI.

Het is gewoon slimme marketing, vanaf de 2xxx serie kregen de volgende generaties steeds veel meer Cuda cores, dat is bij deze RTX4070 niet het geval, en veel mensen zullen dat niet weten.
Echt veel verschil tussen 3060ti, 3070, 3070ti was er ook niet eigenlijk. Vooral tussen 3060ti en 3070 zo'n 10%
De 3060 Ti was ook de geknipte versie van dezelfde chip als die in de 3070 zit. De geknipte varianten van de chips zijn vaak niet veel langzamer, en dus relatief voordelig (3080 was ook een geknipte 3090 en veel betere prijs/prestatie).
Vergeet niet dat ze die 4070ti een 4080 wouden noemen en er anders wel een 4070ti zal geweest zijn met minder cores :)
Een PS4 kostte bij introductie ca 400, de PS5 nu (nog steeds) 550. Dat is 37% duurder. Ja er is een digital versie, maar dan kan je alleen in de PS store kopen(wat mij betreft gevalletje duurkoop).

High end telefoons gaat óók nergens meer over tegenwoordig.dus om Nvidia nou aan te wijzen als hoofdschuldige gaat me wat ver.

[Reactie gewijzigd door MN-Power op 23 juli 2024 11:47]

Telefoons doen steeds meer en goedkope varianten worden steeds beter. Datzelfde geld voor GPU's.

Dikke kans dat deze RTX 4070 vrijwel iedere game op ultra instellingen speelt, boven de 60FPS. 9 jaar geleden had je daar nog een GTX 980 Ti voor nodig van €800. Met inflatie is dat bijna €1000.

Als in die tijd je eisen omhoog zijn gegaan dan heb je dat vooral jezelf aangedaan. Ik ben niet meegegaan met de 120+FPS hype en heb ongeveer dezelfde ervaring als toen met een goedkopere videokaart.

[Reactie gewijzigd door Wolfos op 23 juli 2024 11:47]

GPU’s worden steeds beter, maar prijstechnisch zijn ze steeds minder interessant. Veel games worden tegenwoordig ontwikkeld met de Specificaties van consoles in gedachten, daar waar bepaalde games juist heel vooruitstrevend waren en de limieten opzocht van de hardware is dit steeds minder het geval.

Door de slechte verkrijgbaarheid van de nieuwe consoles en de prijsstijging t.o.v. de oudere, zorgde ervoor dat veel ontwikkelaars hun games voor zowel old-gen als current-gen ontwikkelden, om zo een groot mogelijke afzetmarkt te krijgen. Is het dus het geval dat de GPU’s zo geweldig zijn of komt het omdat de ontwikkelingen van games veel stilgelegen hebben doordat ontwikkelaars de games ook op de oudere consoles wou uitbrengen.
De PS5 is al uitgebracht in 2020 en we zien nu pas voor het eerst dat bepaalde games niet meer op de oudere consoles worden uitgebracht. Wat in mijn ogen al genoeg zegt. Maar probeer het vooral goed te praten dat je met een RTX 4070 veel spellen op ultra kunt spelen boven de 60fps, maar dan wel op 1440p.

Ik heb trouwens al sinds 2013 een 1440p monitor, waar ik veel spellen met mijn GTX 970 prima op high kon spelen. Dat is al 10 jaar geleden en toen koste de Asus GTX 970 kaart maar €360,-
Ik heb trouwens al sinds 2013 een 1440p monitor, waar ik veel spellen met mijn GTX 970 prima op high kon spelen. Dat is al 10 jaar geleden en toen koste de Asus GTX 970 kaart maar €360,-
En momenteel doet een RTX 3050 (€270) dat ook best prima in "veel games". Maar net als die GTX 970 toen niet op ultra, en niet de nieuwste en mooiste games.

Gezien de prestaties van de overige RTX 4000 kaarten gaat de 4070 vrijwel iedere huidige game op Ultra draaien - de 4070 Ti doet dat namelijk met gemak. Historisch gezien is $600 echt geen gekke prijs voor dat soort prestaties.
Nee omdat je appels met peren vergelijkt. Wanneer was het voor het laatst dat 3 jaar na de release van een console nog steeds games uitgebracht werden op de vorige generatie? Inderdaad dit kwam gewoonweg niet voor. Het belangrijkste punt uit mijn hele vorige reactie laat je weg.

Waar is nu de echte impact van de nieuwe generatie GPU's? Inderdaad die is er niet, mensen kunnen met een RTX 10xx kaart nog prima games spelen die hebben geen RTX 3050 nodig. Zelfs de PS4 als de PS4 pro worden nog massaal gebruikt bij nieuw gereleasde games.
Er zijn momenteel al best wat populaire games waarvoor de 10xx kaarten niet meer adequaat zijn. Ja, op lagere resoluties en instellingen werken ze vaak nog wel maar je hebt zeker al wel baat bij beter.

En je koopt natuurlijk niet alleen een videokaart voor vandaag, want ook de rest van het jaar komen er veel games uit die alleen op de nieuwste consoles verschijnen, en dat worden er alleen maar meer. De Xbox studios lijken nu in ieder geval klaar te zijn met de One, en veel andere uitgevers hebben de eerste current-gen-only games ook al uitgebracht.

[Reactie gewijzigd door Wolfos op 23 juli 2024 11:47]

Je moet ook niet de nieuwste games willen spelen tenzij je geld teveel hebt. Wij lopen altijd 1 generatie achter, de meeste games draaien prima en zijn vaak ook nog eens veel goedkoper.
Ik gebruik mijn 1080ti nog gewoon. Op quad hd werkt het allemaal prima op hoge settings hoor. Met 144hz scherm
De vraag is meer, waarom hebben er zo weinig mensen een ps5? Dat is de reden waarom nog steeds voor de ps4 ontwikkeld wordt.

Schijnbaar vinden mensen de PS5 te duur en blijven ze fifa en COD spelen op de ps4.
En terecht, de vraag is alleen of ze er iets van gaan leren.

Dit geld ook voor de videokaarten markt.

[Reactie gewijzigd door whiner op 23 juli 2024 11:47]

Op exacte aantallen loopt de PS5 maar paar miljoen achter op de PS4 als je kijkt naar dezelfde verkoopduur, dus het beeld wat je wilt schetsen klopt niet. De PS5 zijn moeilijk om aan te komen vooral voor de normale prijs. Maar daar waar veel mensen de noodzaak hadden om te upgraden is dat nu niet per de nodig. Want ontwikkelaars zorgen ervoor dat de games ook nog steeds op de oude consoles uitkomen.

De mensen vinden de PS5 niet per ze te duur, deze is alleen niet voor de ‘normale’ prijs beschikbaar. En veel mensen hebben met de extreem hoge inflatie en energiekosten gewoon andere prioriteiten.
De mensen vinden de PS5 niet per ze te duur, deze is alleen niet voor de ‘normale’ prijs beschikbaar. En veel mensen hebben met de extreem hoge inflatie en energiekosten gewoon andere prioriteiten

Hij is dus te duur.
Waaruit blijkt dat mensen de PS5 te duur vinden? Omdat ze deze niet aanschaffen? Blijkbaar schaffen mensen het wel aan want de console is maar paar miljoen minder verkocht dan zijn voorganger. En er zijn genoeg redenen te bedenken waarom dit er minder zijn.

Is een prodcuct te duur omdat mensen andere zaken prioriteren boven een luxe product? Daarbij zijn er veel mensen die de console zelfs voor de woeker prijzen hebben aangeschaft, dus de 'normale' prijs hoeft helemaal niet te duur te zijn.
Schijnbaar vinden mensen de PS5 te duur en blijven ze fifa en COD spelen op de ps4.
Als mensen de PS5 te duur vinden, dan zouden er torenhoge stapels PS5 dozen bij de Mediamarkt en Intertoys liggen.
In werkelijkheid is het precies het omgekeerde, nu, bijna 2.5 jaar later is de PS5 nog steeds niet goed verkrijgbaar.
Ja, hij is nu eindelijk een stuk makkelijker te verkrijgen, grote webshops hebben nu met grotere regelmaat weer voorraad, scalpers zijn eindelijk geheel overbodig. Maar zomaar een winkel binnenlopen om adhoc een PS5 te scoren is nog even niet van toepassing.
Vanwege chipproductie capaciteit was de vraag afgelopen 2.5 jaar groter dan het aanbod, en om die reden zijn er minder PS5's verkocht dan de PS4 in diezelfde periode. Dat is ook de reden waarom de PS4 langer dan verwacht nog steeds 'leeft', nog niet iedereen is 'om'.
De vraag is meer, waarom hebben er zo weinig mensen een ps5? Dat is de reden waarom nog steeds voor de ps4 ontwikkeld wordt.
Dat valt best mee. De verkoopcijfers van zowel de PS5 als de Series X zijn erg sterk. Daarnaast zijn games vaak wel zes jaar in ontwikkeling, dus de userbase van consoles heeft geen invloed op games die nu uitkomen.

De reden dat er nog voor PS4 ontwikkeld word is A: omdat het kan en B: omdat het rendabel is. FIFA werd zelfs nog voor PS2 uitgebracht tot 2013! Dat had minder te maken met de populariteit van PS3 en Xbox 360 dan met het feit dat gewoon donders veel mensen nog een PS2 hadden.

[Reactie gewijzigd door Wolfos op 23 juli 2024 11:47]

Scherm resoluties zijn omhoog gegaan.
Zat ik vroeger op 1080p, mijn huidige monitor is 1440p.
Sommigen hebben al een 4k monitor of multi-monitor setup.
Daardoor heb je steeds krachtigere GPU's nodig.
Maar dat zijn dus de eigen eisen die omhoog zijn gegaan. Het is vaak én klagen dat graphics niet meer veel vooruit gaan, dan is 1080p weer niet acceptabel en minder dan 120FPS kan natuurlijk ook niet maar videokaarten zijn te duur? :?

Ik denk dat spelen op 1440p @ 60fps een heel stuk goedkoper is dan 10 jaar geleden in ieder geval.
De standaarden zijn omhoog gegaan.
Probeer vandaag de dag maar eens een 720p monitor te vinden, terwijl dit vroegah de standaard was.
En gelukkig maar, anders zaten we nog steeds met floppy's te swappen.
Okee, maar laten we 1440p60 nou eens de standaard noemen. Voor medium settings voldoen eigenlijk de meeste kaarten dan al. Zelfs de RTX 3060 gaat dat in verreweg de meeste games nog makkelijk af, en die verouderde kaart kost momenteel €350.
Wil je een paar jaar high/ultra settings dan gaat deze RTX 4070 waarschijnlijk voldoen, en wil je hoger dan heb je die optie.
Vroeger moest je daarvoor SLI / Crossfire draaien en daar betaalde je ook al snel meer dan €1000 voor.

Afgezien van de crypto-boom en tekorten van afgelopen jaren valt de GPU markt momenteel dus eigenlijk best mee.

Alleen de low-end bestaat niet echt meer, maar dan zou je nog altijd voor een oudere kaart kunnen gaan.
Ik ben dat zeker wel met je eens, ik heb mijn behoefte om ultra / high fps te spelen allang laten varen.
speel op 3440x1440 (ultrawide 1440p) met een ryzen 2700x en een amd 5700xt. ik speel medium met de meest recente games op nog steeds rond de 90/110fps. Mijn porto hoor je niet klagen en ik doe langer met de hardware.
Ik heb werkelijk nog nooit op een 720p monitor gewerkt. Ik heb zat 720p (HD Ready) TVs gebruikt, maar monitors? Ik denk dat mijn lijstje zoiets als dit gaat: 320 × 240, 640 × 480, 800 × 600, 1024 × 768, 1280 × 800, 1280 × 1024, 1440 × 900, 1680 × 1050, 1600 × 1200, 1920 × 1080, 1920 × 1200, 2560 × 1440.
[Weer verkeerd geklikt, excuus :+ ]

Edit: ook hier lekker een nul, waarom ook niet. Foutje moet natuurlijk meteen bestraft.

[Reactie gewijzigd door Henkieschmenkie op 23 juli 2024 11:47]

[Reactie op verkeerde bericht, verwijderd]

Edit: Jezus mensen, verkeerd klikken kan gebeuren, slinger je nullen liever ergens naartoe waar ze wel horen. Reacties volledig verwijderen kan niet, anders had ik het zeker gedaan.

[Reactie gewijzigd door Henkieschmenkie op 23 juli 2024 11:47]

Ach aandoen, ik heb het er voor over. :) Maar inderdaad een xx70 voldoet tegenwoordig al zeer goed. Een 4070ti schijnt bijvoorbeeld een 3090(en soms zelfs -ti) al duidelijk te verslaan en met die laatste ben ik toch echt nog zéér content voor mijn simrace hobby.

En qua telefoons: ik kijk niet eens meer naar de high-end. Ik ben zelf nog dik tevreden over mijn telefoon uit het jaar kruik dus zelfs low-end zou moeten volstaan. :D

[Reactie gewijzigd door MN-Power op 23 juli 2024 11:47]

Dat is een drogreden. Als je zo redeneert, zou een desktop- en gameresolutie van 640x480 nog steeds gangbaar moeten zijn.
Natuurlijk gaan de specs in de loop der jaren omhoog. Dat heet vooruitgang en normaal gesproken zou je 2 later een snellere videokaart voor hetzelfde geld moeten kunnen kopen..
Hoezo dikke kans....
Wat heeft dat met kans te maken.
Gewoon benchmarken zou ik zeggen.
Ga er maar vanuit dat je ultra en 4k kunt vergeten vanwege het geheugen.
Neemt niet weg dat Nvidia naar haar aandeelhouders heel duidelijk was over dat ze zouden proberen om de prijzen ho(o)g(er) te houden. Daar hoorde je als ik het goed herinner niks over gestegen prijzen of noodzaak, meer dat het kón / 'het nieuwe normaal is'. Dus ook al is zo'n kaart niet zo hard in prijs gestegen als in prestatie, hij zou goedkoper kunnen zijn als Nvidia voor een wat bescheidener winstoogmerk zou gaan en weer meer uit zou gaan van het doorberekenen van daadwerkelijk gemaakte kosten plus een gezonde marge i.p.v. wat de gek ervoor betaalt.
ps3 koste 600 euro dus is de ps4 30% goedkoper!!
de ps4 kwam zonder ssd en had ook niet een goede start met de cpu en gpu vergelijken met ps5 die het met een betere cpu en gpu kwam.
en niet vergeten ps5 word nog steeds met verlies zo niet zonder winst verkocht.
en niet vergeten ps5 word nog steeds met verlies zo niet zonder winst verkocht.
Dus is het toch niet vreemd dat videokaarten waarvan de makers volledig de winst uit hun product moeten halen en niet per verkocht spel een fiks bedrag verdienen ook in prijs gestegen zijn? Een PS5 is inmiddels een stuk minder exotisch qua hardware dan consoles ooit waren, dus het geeft al iets aan dat 550 eigenlijk nog te weinig is. Na meer dan 2 jaar ook nog eens.

Ik vind het enorm veel geld voor een console van die leeftijd.

Je kan trouwens nog verder terug, Als je een PS2 helemaal in het begin kocht betaalde je 1199 gulden( en was je knettergek ;) ).En tja, over de hardware-parity kunnen we discussiëren tot we een ons wegen; Het blijft een console.De high-end 30xx en al helemaal 40xx vind ik ook beesten t.o.v hun voorgangers, dus moet je daar misschien ook niet alleen naar de prijs en de naam kijken. M.i. zijn niet alleen die kaarten duur, maar ook consoles en misschien nog wel extremer: high-end telefoons.

[Reactie gewijzigd door MN-Power op 23 juli 2024 11:47]

De ps5 was een half jaar na launch al winstgevend. Het is geen ps3/4 tijdperk meer.
Je kan het wel weg beredeneren. Maar 90% van de mensen heeft geen technische kennis.
Die zien gewoon een prijs. Deze mensen wachten gewoon met kopen totdat de prijs gezakt is.
Dat gebeurde ook bij de PS4 en PS3, maar niet bij de PS5.
Hoe doen ze dat dan in BE? Daar is het per wet verboden met verlies te verkopen.
Dat geldt enkel voor de winkels en niet voor de producent.
Deze wet is er om de kleine retailers te beschermen tegen grote retailers die via stuntprijzen de concurrentie zouden kunnen vervalsen.
Aan de Belgen enkel de bill of materials aanrekenen, en de R&D aan de Nederlanders met verlies verkopen.

Edit: Of wat @catfish zegt. Dat houdt meer steek. Om R&D kosten per product te berekenen moet je zowiezo al wat creatief zijn.

[Reactie gewijzigd door depeje op 23 juli 2024 11:47]

Ik heb het idee dat ze high end kaarten voortrekken juist vanwege dat hun sales ingezakt is doordat minen niet meer gebeurd. En zelfs dan nog zal de winst tegenvallen dus verhoogt men flink de prijzen om verder te compenseren.

Ik kijk dan ook uit na volgend jaar januari. Waar dit jaar Nvidia de schuld gaf aan scalpers en overstocken hebben ze dit excuus voor volgend jaar niet meer. En toch zie ik bijna niemand meer high end kaarten kopen dankzij de absurde prijzen. We mogen dan ook hopen dat Nvidia en co leert de klant weer op de eerste rij te zetten ipv aandeelhouders die als maar meer winst willen zien zelfs in een tegenvallende markt.
Ik heb een 3080ti gescoord voor €799 ik denk vorig jaar mei? Was vermoedelijk een prijsfoutje maar vrienden rondom zitten sommige nog oa door financieel nog op de 10/20xx puur omdat het nog niet aan zit.

Dus je hebt zeker gelijk dat men nu vooral kijkt naar de vaste lasten en dat luxe gelukkig ff op een lager niveau komt. Dit was paar jaar voor COVID wel anders lening op lening en geld kon niet op..
Allemaal komplotten waarom Nvidia EvilCorp is! Deze verhalen zijn al zo oud als dat NVidia zich gemengd heeft in de strijd met ATI(nu AMD), 3dfx en NVidia met de Geforce 256 ddr opeens de snelste kaart had en de Rage en Voodoo voorbijstak.

Het is veel waarschijnlijker dat hogere prijzen komen omdat - naast de tekorten in halfgeleiders - de kaarten veel complexer zijn geworden. Je kunt het letterlijk zien door fotos van Nvidia kaarten door de jaren heen te gaan bekijken. Maar goed, dat past niet in je verhaal.

Dat het niet meer nodig is om om de twee jaar een nieuwe videokaart te kopen, zou een klein beetje mee kunnen spelen in de prijsbepaling, maar dat verwacht ik niet. Je kunt jaren en jaren doen met je RTX4070 dus uiteindelijk ben je veel goedkoper uit dan voorheen. Zo speelde ik van de week de open beta van Diablo IV op een 4K scherm met mijn 6 jaar geleden aangeschafte hi-end game PC. Het duurt nog wel even eer Intel, AMD en/of Nvidia aan mij gaan verdienen, want deze PC gaat nog wel even mee.

Uiteindelijk zijn de gamervideokaarten in de hogere regionen niet waar de fabrikanten het van moeten hebben, want de massa koopt het niet en bij de massa zit het grote geld.

Overigens pakken met name webshops en de zwarte handel de grootste winstmarges door de enorme tekorten door veel hoger te gaan zitten met de prijs als de adviesprijs. Ga daar eens over zeuren.

PS: Ik word een beetje moe van dat Nvidia en Intel gebash hier op de site. Ik ben, zoals de meesten hier, niet getrouwd met een merk en ik koop hardware van alle fabrikanten. Wij hebben geen behoefte aan gekleurde fanboy berichten te moeten lezen onder elk bericht over nieuwe hardware. Waar zijn de tijden gebleven toen Tweakers gekleurde posts in 1 minuut verwijderde?

[Reactie gewijzigd door ABD op 23 juli 2024 11:47]

Prijzen mogen dan wel 20% gestegen, maar lonen niet. Mensen hebben andere prioriteiten. De redenen waarom de high-end kaarten voorheen nog heel populair waren was voor een groot deel crypto. De kaarten waren snel terugverdient, dus vonden mensen het niet erg dat ze 20 of zelfs 30% duurder waren. In deze tijd denk ik dat Nvidia goed moet oppassen welke weg ze inslaan, want als ze door blijven gaan met het prioriteren van alleen high-end kaarten dan gaan ze veel klanten verliezen. Hetzelfde geldt voor de veelt e hoge prijzen van de kaarten.
Ik blijf me verbazen over dit soort commentaren. Natuurlijk snap ik dat mensen graag veel voor weinig hebben maar dat is exact wat je nu kan krijgen! Zeker tweede hands kan je geweldige preformance krijgen voor een koopje.

- Waar het om gaat is de prijs per performance. Als je die vergelijking maakt zijn de nieuwe GPU's gewoon goedkoop. Per fps is een 1060 duurder dan een 4060. Je krijgt gewoon meer voor je euro's.

- Het vergelijken van de huidige prijzen van een 3060 met een 4060 is gewoon onjuist. Als je de introductie prijzen ziet en inflatie gebruikt als factor is er gewoon geen enorm verschil. Ze zijn duurder maar zijn ook veel sneller.
Dat is nu precies wat nvidia wil, dat je rekend in fps per euro, wat natuurlijk onzin is. Bij elke generatie gaat de performance omhoog en de prijs omlaag. Of wil je de CPU ook afrekenen in operations per second, dan zou je nu 3 miljoen moeten neerleggen voor een 13900. Kortom, nvidia kan dit alleen doen omdat ze een bijna monopolie hebben en er consumenten zijn die hun absurde prijzen verdedigen.
In deze tijd denk ik dat Nvidia goed moet oppassen welke weg ze inslaan, want als ze door blijven gaan met het prioriteren van alleen high-end kaarten dan gaan ze veel klanten verliezen.
In een gezonde marktwerking zou AMD en Intel dan met goedkopere kaarten kunnen uitkomen en verliest Nvidia idd klanten. Aan ieder van u om uit te maken of je bij de concurrent meer fps per euro krijgt.

Gpu’s zijn idd duurder geworden. Maar het is een luxegoed voor in een complexe (gaming sector + datacenters+crypto) concurrentiëler markt.

Iedereen lijkt wel boos.

Als de markt verstoord wordt doordat met prijsafspraken de prijs hoog houden dan mag je boos en teleurgesteld zijn want dan spelen ze het spel oneerlijk en verstoren ze de vrijemarktwerking. Op een open economie hebben wij recht op en daar moet je voor opstaan.

Verder moet je er vanuit gaan dat Nvidia liefst zoveel mogelijk aan u wil verdienen. Zo werken bedrijven nu eenmaal.

Zo denk ik er althans over.

Mijn game-budget blijft voorlopig hetzelfde. Ofwel wat langer doordoen op men huidige setup ofwel niet overschakelen op 4K. Ik ben alvast tevreden met 60fps 1440p.
MSRP prijzen founders editions:

GTX 1070: €499,-
RTX 2070: €639,-
RTX 3070: €519

RTX 4070: €669 (599 x 0,92 ($ koers) x 1,21 (BTW)

Duur maar in theorie maar 30% duurder dan de vorige generatie en niet vergeten dat alles zeker 20% in prijs is gestegen sinds die tijd. Vind het nog de minst bizarre prijs van wat er tot nu toe is uitgebracht.
Euro prijzen zijn vooral verwarrend in dit soort vergelijkingen omdat de dollar letterlijk alle kanten op is gegaan de laatste jaren. De ene keer krijg je vanuit Europa 'korting', de andere keer moet je flink extra betalen.

GTX 770: $399
GTX 970: $329
GTX 1070: $449
RTX 2070: $499
RTX 3070: $499

[Reactie gewijzigd door sdk1985 op 23 juli 2024 11:47]

Als het niet de inflatie is dan is het wel de dollar koers, het gaat er uiteindelijk om wat we hier in Europa en dan vooral Nederland betalen en niet de prijzen zoals ze in Amerika worden neergezet door Nvidia zelf. Daarbij zijn de prijzen in Amerika altijd zonder BTW, welke verschillend zijn in de staten. Net zoals verschillende EU landen.

Daarnaast zijn de reference kaarten hier amper beschikbaar, al meerdere generaties. We hebben het niet over het selecte groepje hier op Tweakers of die scalpers die al jaren lang de boel opkopen en deze met winst proberen te verkopen. De meeste 'normale' gamers of mensen die een videokaart kopen zullen dus stukken duurder uit zijn dan de prijzen die Nvidia noemt.
Als het niet de inflatie is dan is het wel de dollar koers, het gaat er uiteindelijk om wat we hier in Europa en dan vooral Nederland betalen en niet de prijzen zoals ze in Amerika worden neergezet door Nvidia zelf. Daarbij zijn de prijzen in Amerika altijd zonder BTW, welke verschillend zijn in de staten. Net zoals verschillende EU landen.

Daarnaast zijn de reference kaarten hier amper beschikbaar, al meerdere generaties. We hebben het niet over het selecte groepje hier op Tweakers of die scalpers die al jaren lang de boel opkopen en deze met winst proberen te verkopen. De meeste 'normale' gamers of mensen die een videokaart kopen zullen dus stukken duurder uit zijn dan de prijzen die Nvidia noemt.
De MSRP prijzen van Nvidia bestonden al voor Nvidia met de founder edition kaarten kwam en kunnen tevens afwijken van die kaarten. Bij sommige kaarten was de MSRP namelijk lager dan de prijs van de Founders Edition.

Voor de Nederlandse euro prijzen is bij dit nieuwsbericht weinig ruimte want we hebben het hier over een gerucht over de advies prijzen in dollars. Wat dat voor de prijs hier gaat betekenen zitten nog een berg variabelen achter, waarbij die euro/dollar koers IMO nog de grootste impact heeft. Alhoewel beschikbaarheid tegenwoordig ook aardig belangrijk is.

Dat maakt het tevens ook redelijk zinloos om over euro prijzen binnen de discussie over hoe duur Nvidia een kaart in de markt zet te praten. Want stel dat Nvidia een kaart 10% goedkoper in de markt zet maar de euro is 20% ongunstiger. Dan is in dat geval die kaart effectief alsnog duurder hier. Maar dat ligt dan niet aan het beleid van Nvidia.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 11:47]

[...]
De MSRP prijzen van Nvidia bestonden al voor Nvidia met de founder edition kaarten kwam en kunnen tevens afwijken van die kaarten. Bij sommige kaarten was de MSRP namelijk lager dan de prijs van de Founders Edition.
Maar die MSRP prijzen zijn amper interessant, want de meeste kaarten van andere merken zaten daar makkelijk meer dan 10% boven toen Nvidia nog geen founders editiion kaarten had.
Voor de Nederlandse euro prijzen is bij dit nieuwsbericht weinig ruimte want we hebben het hier over een gerucht over de advies prijzen in dollars. Wat dat voor de prijs hier gaat betekenen zitten nog een berg variabelen achter, waarbij die euro/dollar koers IMO nog de grootste impact heeft. Alhoewel beschikbaarheid tegenwoordig ook aardig belangrijk is.

Dat maakt het tevens ook redelijk zinloos om over euro prijzen binnen de discussie over hoe duur Nvidia een kaart in de markt zet te praten. Want stel dat Nvidia een kaart 10% goedkoper in de markt zet maar de euro is 20% ongunstiger. Dan is in dat geval die kaart effectief alsnog duurder hier. Maar dat ligt dan niet aan het beleid van Nvidia.
Dus bij geruchten en aannames van een dollar prijs van een product is het geen probleem om daar over te discussieren. Maar dit terug berekenen naar Euro prijzen daar is geen ruimte voor. Want ja we hebben natuurlijk nog niet genoeg informatie uit het verleden om dan een goede aanname te doen. Ik hoop toch dat je zelf ziet hoe krom deze manier van redeneren is en dat dit nergens op slaat..
Totdat je goed kijkt naar de specs, en ziet dat de RXT4070 niet eens in de buurt komt van de RTX4070TI.

RTX4070: 5888 CUDA Cores
RTX4070TI: 7680 CUDA Cores

RTX3070: 5888 CUDA Cores
RTX3070TI: 6144 CUDA cores

Zoals je kan zien is het gat tussen de RTX4070 en RTX4070TI veel groter dan het was in de vorige generatie, wat de ''zachte'' prijs kan verklaren, als je niet goed alle specs leest zou je er zo in trappen.
De vraag is dan nog steeds of je 23,43% meer perf zal krijgen met de 4070Ti t.o.v. 4070.

Ik ben opgehouden met naar de specs aan het kijken. Het geeft een indicatie, maar het enige wat ik echt wil weten: hoeveel FPS krijg je aan het einde van de formule. Dus: tests afwachten.
Ik denk dat er ook rekening gehouden moet worden met nummering.

Tijdens de periode van de 9xx/1xxx/2xxx series waren er geen xx90 kaarten. Dus het topmodel was een 1080(ti) of 2080(ti).
Sinds de 3xxx series bestaan er 3090(ti) en de 4090 (en ti komt vast nog wel).

Wat wil ik hiermee zeggen, moeten wij de vergelijking wel doen 1070->2070->3070? Of eigenlijk 1070->2070->3080? Want dan zit je weer 1 stap onder het topmodel en is het prijsverschil ook anders.
Ze misbruiken de nummering in dit geval juist om de klanten te misleiden.

GTX1070 1920 CUDA Cores
RTX2070 2560 CUDA Cores
RTX3070 5888 CUDA Cores
RTX4070 5888 CUDA Cores

Dit is dus de eerste keer dat een nieuwe generatie 70 serie niet meer CUDA cores heeft dan de vorige generatie, en is daarom ook een marginale upgrade, wat de ''zachte'' prijs verklaard.
Tussen rtx 2xxx en rtc 3xxx, hadden ze daar geen marketing trucje uitgehaald, zodat ze de cuda Cores konden verdubbelen?
Ik heb me cuda cores nooit geteld.
Maar ik gebruik 3d mark .
Misschien even wachten daarop.
De klok is natuurlijk wel 50% verhoogt.
Je hoeft ze ook niet te tellen, het staat in de specs.

Hij zal een flink stuk langzamer zijn dan de 4070TI, aangezien de 4070TI een stuk meer CUDA cores heeft.
Fijn.
Eerst ff beschenen.
Toen waren er wel de Titan kaarten toch? Volgens mij is de 3090 ivm de Titan kaart.

[Reactie gewijzigd door CHKYBSTRD op 23 juli 2024 11:47]

Zijn de 3090/4090 kaarten niet vergelijkbaar met de Titan serie kaarten van de 9xx/1xxx/2xxx ?
Je hebt een punt, maar voor mijn gevoel... nee.

In mijn beleving presenteert nVidia hun 70 kaarten als high mid, dus een prima 1440p kaart en een geweldige 1080p kaart.
En daarboven kom je in ok 4k, prima 4k en beste voor 4k voor de 80, 80ti en 90 kaarten.

Dus tenzij dat idee verandert is, voelt het voor mij alsof ik die series gewoon tegen elkaar mag blijven zetten.

Daarbuiten denk ik dat nVidia te grote dollar tekens in hun ogen zien.
Bij LMG video's hebben ze al een paar keer de "grap" gemaakt dat ze bij nVidia een hekel hebben aan arme mensen.
Wellicht zijn kosten gestegen, prima, maar de markt na de crypto crash en einde van grootste lock down gebeuren is achter de rug, plus recessie. Dus ik denk dat ze gigantisch overschatten wat een gemiddeld persoon wil en durft uit te geven voor hardware op het moment.
Toen was er de Titan. En de stap 080-> 090 is wat mij betreft zeer vergelijkbaar met die van de (bijv) 980 naar de Titan. Die had toen ook bijvoorbeeld 2x zoveel geheugen(al is dat bij de 40xx weer een kleiner verschil) en niet schokkend veel meer Cuda-cores. Bij de 1080 vs de Titan was het zelfs slechts een factor 1,5 qua geheugen.

Voor games alleen heb je de 24GB ook niet nodig, dan kan je beter een xx80ti halen(of zelfs 80, maar 10GB was me v'éél te krap). Dus wellicht hadden ze voor de xx90(ti) toch beter gewoon een aparte naamgeving aan moeten blijven houden.

[Reactie gewijzigd door MN-Power op 23 juli 2024 11:47]

Behalve het feit dat de werkelijke prijzen niet in de buurt komen van MSRP.

899,- gaan de leverbare kaarten minimaal kosten. Let maar op.
Ik denk dat je wat overdrijft, aan die prijs koopt niemand die kaart. De TI versie vind je nu vaak voor 909€ (adviesprijs)
Dat en ik denk niet dat veel mensen de eerste maanden voor 519 een 3070 hebben weten te krijgen. Ik heb in december 2020 een MSI 3070 Suprim X voor ca. 699 weten te bemachtigen(in afwachting van een 3080ti, wat toch een 3090 is geworden) en ik prees mij een paar weken later zeer gelukkig met de prijs die ik ervoor heb betaald.Volgens mij zijn ze een tijd zelfs 2x zo duur geweest. Heb bijna op het punt gestaan om hem uit de PC van GF te trekken. ;)

[Reactie gewijzigd door MN-Power op 23 juli 2024 11:47]

Ik kan niet wachten om voor €669 euro een RTX 4070 te kopen /s :+
Deze "MSRP" prijzen zijn toch altijd sprookjes.
Deze had wss ook nog eens de 4060 moeten heten. Dus je moet hem vergelijken met de 3060. Dus het is misschien wel de grootste stap van allemaal.
Zeker geen vreemde prijs. Als je deze itt de 3070 ook daadwerkelijk voor deze prijs kunt kopen dan is het helemaal prima.
GTX 970: €350,-
Van 2015 gtx 970, naar 2023 rtx 4070 = 100% prijsverhoging.
Goed om even te vergelijken, maar wat ik merk bij me is dat ik nu wel gewend ben aan deze prijzen en al normaal vind. Vorige kaart 1080 ti voor 650e gekocht en nu een 3080 voor 1000, binnen 4 jaar 350 erbij voor non ti versie. Wat ik nu nog buitensporig asociaal vind is dat de prijzen 3090 en 4090 versies al gauw gewoon het dubbele kosten van de 80 series. Klein stapje terug maar en dat is het gewoon niet waard.
Dat de absolute top zo duur is dat vind ik nou juist geen probleem. Dat is toch voor mensen die prijs/kwaliteit verhouding niet belangrijk vinden. Maar de prijzen voor de xx60 en xx70 vind ik al een paar generaties flink hoog.
Misschien wen je traag.
Kan ook zijn dat je alles duur vind.
Soms is het gewoon wat het is.
Je kunt er geen recht op gelden.
Tja, ik zeg ook niet dat ik er rechten aan ontleen. Ik koop gewoon minder vaak nieuwe hardware. Een beetje meer concurrentie zou ik in ieder geval flink verwelkomen.
Dat zou zeker mooi zijn, .maar heb weinig vertrouwen.
Intel heeft de handdoek alweer in de ring gegooid.
Het verschil in performance is wel veel meer dan 100% gelukkig. Zou me niets verbazen als het meer dan 300% of zelfs 400% is eigenlijk…
Nou was de GTX 970 een medium settings, 1080p @ 40FPS kaart (The Witcher 3, één jaar nadat die kaart uitkwam). Dat is momenteel meer vergelijkbaar met een RTX 3050 denk ik.
Toen de 970 uitkwam was hij ~80% van de snelste kaart op de markt. Deze is nog niet eens de helft.
De 970 was inderdaad echt een doorbraak. Zeker in sli was de prijs kwaliteit verhouding goed. De 1000 serie was een kleinere stap volgens mij.
1080p was gewoon high-end toen en de FPS gekte was ook nog niet zo toegeslagen. Bovendien was The Witcher 3 een hele zware game voor die tijd.
Ja valt toch best mee. Hoe verhoudt de kaart zich zo ongeveer met de 3080/3080ti en de rest van de 4000 lineup?
ALS die daadwerkelijk voor die ~650 euro komt, vind ik het nog an sich een nette prijs, dat was uiteindelijk de 3070 onder 'normale' marktprijzen ook redelijk, zelfs huidige prijzen maar krap 100 euro lager.
Het lijkt een nette prijs omdat het gat tussen de RTX4070 en de RTX4070ti gigantisch is, waar de RTX3070 en RTX3070TI bijna dezelfde gpu's waren.
Voor een 12GB kaartje vind ik het anders een behoorlijk heftige prijs. Het maakt de GPU er niet toekomstbestendiger op.
12GB VRAM is al meer dan een 3080 met 10GB. Als je later ooit zoveel VRAM nodig hebt, kunnen deze kaarten dat soort kwaliteitsinstelling toch al niet meer op 60Hz aan qua rekenkracht, laat staan meer Hz.
Dat klopt niet. De kwaliteit van de ports is weliswaar discutabel, het effect onder de streep niet: Resident Evil 4, Hogwarts Legacy. Spellen waar een dergelijke kaart eigenlijk snel genoeg is om alles naar max te schroeven en fatsoenlijke FPS te houden, maar waar VRAM roet in het eten gooit.

Het is nu eenmaal minder dan waar de consoles mee zijn uitgerust. En juist in scenario's waar je een Nvidia kaart zou verkiezen boven AMD (raytracing=1), loop je tegen de beperkingen aan.

Op dit prijsniveau is 12GB gewoon schraperig weinig en had 16GB de norm moeten zijn. Voor 100-150 minder had het wellicht nog een te accepteren compromis geweest.
Valt wel mee toch, niet minder, consoles hebben ook nog aardig wat van shared memory voor algemeen RAM type toepassing nodig, van hun 16GB totaal? Je leest maximaal 13.5GB op een console als je alles naar VRAM zou schuiven, maar typisch zal game+OS eerder ca. 6GB RAM en dan nog 10GB VRAM overhouden toch een stuk praktischer uitkomen... die draaien ook al lang niet alle games meer op 4k resolutie, of zelfs maar 60Hz, laat staan 120Hz. Zelfde issue daar met rekenkracht vs RAM.

https://www.reddit.com/r/...ox_series_x_have_and_how/
How much videoram does Xbox Series X have ?

The Xbox Series X has up to 13.5GB of VRAM for games, but in practice it is less. That is due to it using a shared memory architecture i.e. VRAM and System RAM is one pool with a single memory address. It is more efficient than a traditional PC setup of discrete RAM pools. The downside is that the memory bandwidth is shared between CPU and GPU, whereas on PC it is completely discrete too.

https://gamingbolt.com/xb...3-5-gb-of-memory-to-games
How this all splits out for the developers is fascinating. Of the total 16 GB memory capacity, Microsoft’s solution essentially reserves the vast majority for the actual running of games. A total of 13.5 GB – 10 GB of GPU optimal memory and 3.5 GB of standard memory – is dedicated to games themselves, while the remaining 2.5 GB from the slower pool is used for the operating system and background functions, which means games get more potential bandwidth, the results of which, in theory, should be more than tangible.
Theorie versus praktijk. De digital foundry review van RE4 was er duidelijk in. Evenals de video’s over Hogwarts Legacy van ik meen hardware unboxed.

Als ik 600€ voor een gpu neerleg verwacht ik gewoon dat ik ieder spel kan spelen zonder dat ik me zorgen hoef te maken om dergelijk zaken. Of het nu slechte optimalisaties betreft of niet, is irrelevant. De concurrentie bood 2.5 jaar geleden al meer vram op dit prijspunt.
https://www.reddit.com/r/..._allocated_vram_usage_vs/
Ik lees vooral FUD, een paar AMD kaarten hebben 16GB, dus gaan we op zoek naar manieren om daar voordeel aan toe te kennen. Feit is dat veruit de meeste kaarten nog maar 3-8GB hebben. Dus wil je een PC game verkopen aan meer dan 1% van de PC gaming markt, dan moet je gewoon volop aan de VRAM optimalisatie, zoals deze games in praktijk ondertussen ook alweer gedaan hebben. Probleem opgelost, en dat blijft ook wel opgelost worden de komende jaren. De tweede/derdehands koper betaalt ook allang geen € 600 meer straks, net als nu iemand die een kaart met 3-4GB koopt voor € 150. Dan kijk je anders naar zoiets.
Ik lees vooral misinformatie om het gebrek aan VRAM op dure kaarten goed te praten.

https://www.techpowerup.c...rformance-analysis/5.html
Not only rendering performance requirements are high, but VRAM is also challenging. Even at 1600x900 we measured allocation of 10.5 GB, which of course doesn't mean that every single frame touches all the memory. Still, cards with 8 GB do encounter a small FPS penalty even at 1080p. At 4K, the VRAM usage is 14 GB, which makes things challenging for RTX 3080 10 GB and RTX 4070 Ti 12 GB—both these cards drop well below their AMD counterparts at 4K. Generally speaking, AMD does quite well in The Last of Us Part 1. Maybe it helped that we used the company's beta driver that has additional optimizations for the title.
Het klopt dat allocated VRAM niet per sé betekent dat het ook noodzakelijk is. Desondanks zie je ook in deze game dus dat de RTX3080, een kaart die met de 6800 serie concurreert, op 1440p slechts op het niveau van de 6700XT presteert, want VRAM gebonden.

FUD is overigens een afkorting voor Fear, Uncertainty & Doubt. Daarvan is gewoon geen sprake. Er zijn meetbare resultaten die bevestigen dat de gebrekkige hoeveelheid VRAM in het nadeel werkt van Nvidia's kaarten in bepaalde games die in 2023 zijn uitgekomen. Hoe je het ook wendt of keert, dat zijn gewoon feiten die relevant zijn voor een koopoverweging en of een bepaalde GPU een goede deal is of niet. En dan is het dus de vraag of je als koper bij iedere high profile game die uitkomt eerst wilt wachten totdat de boel fatsoenlijk gepatcht is om VRAM beperkingen op te lossen.

Op dit prijsniveau is dat voor mij persoonlijk een dealbreaker, want ik wil niet bij iedere release met dezelfde vraag zitten of mijn GPU nu wel of niet tegen de bekende problemen aan gaat lopen.
FUD is de vrees voor marginaal lagere FPS in selecte spellen de eerste paar maanden voor mijn gevoel wel ja, als daar dan hele producten op worden afgeraden. Goed voor mijn mogelijkheid tweedehands in te slaan, maar het gaat soms wel ver allemaal in de beleving vooral.
Ik plaats het daarom puur in dat perspectief ook, van enkel een paar games waar dit speelt die vooral nog eens ports zijn en op een console dan weer prima te spelen voor weinig, historisch dat zulke games voor PC vaker na enkele maanden alsnog een VRAM optimalisatie krijgen, en je de impact vooral merkt op een 4k of soortgelijk extreem hoge resolutie. Een forse combinatie van factoren al met al, en games die je zelfs voor zo een VRAM patch zeker nog kan spelen, enkel dan nog op een iets lagere kwaliteit. Daar moet je niet nachten van wakker liggen lijkt me, maar gewoon die nachten lekker gamen op de instellingen die je wel kan halen op dat moment.

"Still, cards with 8 GB do encounter a small FPS penalty even at 1080p"

Volgens mij zijn we het daarmee helemaal eens, het is een prima valide keuze om te maken voor jezelf met zelfde performance, efficiency, features om voor soortgelijke prijs niet 10-12GB te nemen maar een videokaart met 16GB of meer VRAM. Ik bedoel, we zijn Tweakers, why not go for it :Y)

Edit:
review: The Last of Us Part 1 PC - Langverwachte port in slechte staat
Vers van de pers: ook hier zie je heel veel gedoe in het artikel rond excessief VRAM usage, maar op 4k resolutie houdt de RTX3080 10GB zich prima staande tegenover een 6800XT 16GB, op twee van de 3 graphic settings de snellere van de twee zelfs en op ultra zo goed als gelijkwaardig. Dit terwijl die game aangeeft tot wel 15GB VRAM nodig te hebben op 4k ultra. Het klopt soms gewoon ook niet, in de zin dat dat VRAM dan niet actief gebruikt wordt voor een groot deel, zodanig inactief is dat een beetje rappe PC het vanaf schijf en algemeen RAM kan aanleveren zonder al te grote performance problemen. Helaas ook weer het zoveelste voorbeeld van een belabberde port, ditmaal van de iconische Last of Us game die veel beter had verdiend.

[Reactie gewijzigd door OruBLMsFrl op 23 juli 2024 11:47]

Ho wachten even! Zodra je 4k-gaming wilt gaan doen gaat VRAM-gebruik een zware rol spelen, en games hikken al tegen dat 12GB limiet op. Het wordt vanzelf een belangrijke overweging als iemand wilt gaan upgraden naar een dergelijke monitor, en misschien dat @Cid Highwind dat wel bedoelt.

nVidia en AMD hebben allebei 2 interessante technieken resp. genaamd DLSS (Deep Learning Super Sampling) en FSR (FidelityFX Super Resolution). Het idee van beiden is om de performance van je FPS te boosten d.m.v. het renderen van de frames op lagere resolutie en deze vervolgens te upscalen met zoveel mogelijk behoud van de beedkwaliteit en latency. Deze technieken werken al uitzonderlijk goed, maar hierbij wordt het VRAM-gebruik helaas niet minder (kan zelfs meer worden in bepaalde situaties).
Waarom zou je dan 4k resolutie kiezen als je dan toch upscaled vraag je je af? Nou simpel, je wilt namelijk die 1:1 pixelmapping behouden van je monitor en de renderkwaliteit is altijd hoger vanuit voorgenoemde upscaling techniek. Dit is een uitkomst voor mensen die ook een 4k monitor (zoals ik) hebben om zowel op te kunnen dev'ven als gamen, en ik ben daar heel blij mee!

Kamp AMD lijkt daarnaast ook veel eerder VRAM van 16GB toe te passen gezien ze dit ook al bij de vorige generatie deden, maar of dit daarvan de aanleiding is lijkt me niet, eerder een combinatie van zaken zoals het gebruik van FSR en focus op computing :)

[Reactie gewijzigd door Litanic op 23 juli 2024 11:47]

Voor die prijs wil ik opzich wel upgrade van de RTX2070 :)
Ik ook wel vanaf een 3060 TI, die was nog 770 anderhalf jaar geleden, als ik daar nog 300 voor kan krijgen tenminste, dan ligt hier een 4070 in de zomer.
Ik op zich ook ;)
De RTX 2070 was ook 599 dollar bij release (in 2018). Wat men toen ook al veel te duur vond, voor vergelijkbare GTX 1080 (Ti) performance slechts met wat extra trucjes zoals DLSS en een beetje RTX. In deze tijd lijkt dat bedrag idd erg mee te vallen.
Maar ik denk dat ik toch voor een 4080 of hoger ga dit jaar.
Wat een prijs, ben benieuwd hoeveel er worden verkocht tegen deze prijs. We kiezen en reageren met onze portomonnee. Ik hoop dat de prijzen weer normaal worden bij de 5k generatie, zo niet dan zing ik het wel uit tot de 6k generatie :)
Ik speel nog op 1080p dus ik koop een RX 6600/6650 voor 260-320euro en wacht tot de volgende kaart die 2x zo snel is met vergelijkbare prijs. Ik weiger om mee te doen aan deze gekte.
Als je op 1080p speelt is geen van deze kaarten relevant, tenzij je een hoge refresh rate wilt. Speel zelf op 1080p met een 1070 en haal in alle games 60fps. Een rx6600 is inderdaad meer dan zat.
Was van plan om binnenkort over te stappen op 1440p monitor met 120 refresh rate. Maar ik wacht nu wel op een kaart die dat consistent kan leveren voor 250-300 euro.
Wellicht is dat iets te hoog gegrepen met dat budget? Als ik mij de tweakers review goed herinner, zat de rx6650 niet consistent op 120fps op 1440p.
Daarom blijf ik voorlopig bij 1080p en RX 6650. Zodra een kaart komt die dat wel kan voor dat budget stap ik over op 1440p.

[Reactie gewijzigd door Von Helm op 23 juli 2024 11:47]

Het zelfde jammer zou niet misstaan hebben bij mijn 5800X
Yes, dit is precies wat ik hoopte!

Edit: wacht, je bedoelt hoog? Jij bent toch de MetalSonic uit het GPU topic die bijna op het punt stond om een 3080 voor 1200 euro te kopen? Deze is nog een stuk beter volgens mij, voor de helft!

En 12GB vram :)

[Reactie gewijzigd door JDx op 23 juli 2024 11:47]

Pfoeh, ik heb 3080's zien gaan voor 400-450 eur nu. Maar dat zag iedereen natuurlijk aankomen, niemand hoort verbaast te zijn.
Link aub, de Asus TUF Gaming 3060 TI kost zelfs nog steeds 494, dan komt nog de 3070, de 3070 TI en daarna de 3080, ik heb ze niet gezien onder de 800 hoor.

Oh toch wel, 789 bij MeGekko, de versie met 10GB wel
https://www.megekko.nl/pr...VEL-EPIC-X-10G-Videokaart

[Reactie gewijzigd door JDx op 23 juli 2024 11:47]

Ik bedoel dan wel 2e hands, nieuw krijg je ze er niet voor. Sorry had ik misschien erbij moeten vermelden.
Inderdaad, en je krijgt DSLL 3.0 er ook nog eens standaard bij. Wat een aanzienelijke verbetering is op de 2.0 versie waarover de 30xx series beschikt (tenminste voor de games die dat ondersteunen)
Same. Vind het wel erg jammer. Ik doe sinds een tijdje simracen met een VR headset, en met mijn huidige kaart is het gewoon niet mogelijk zonder de render resolution e.d. flink terug te schroeven. Een 4080/4090 klasse kaart zijn de eerste die full resolution VR kunnen doen zonder in te leveren op grafische kwaliteit. Maar dat is mij geen 1500 / 1600 euro waard.
Ben benieuwd, wat voor kaart heb je? Ik neem binnenkort een 1080 van een maat over (heb nu een RX580), doe ook aan simracing en wil ook wel een VR headset.
Eerst een 6700XT, paar weken geleden tweedehands een 6900XT op de kop getikt.

Ligt uiteindelijk ook aan de headset dit je wilt gebruiken. Ik heb zelf een HP Reverb G2 en die heeft een wat hogere native resolutie dan bijvoorbeeld de Valve Index (maar weer lagere refresh rate, niet dat ik nu die refresh uberhaubt haal).

Ik haal nu in ACC ~65 FPS, met de ingame render resolution op 70%, FSR2.0 ingeschakeld op quality, foveated rendering ingeschakeld (center van beeld is scherp, in rondjes om de center word de resolutie steeds een stukje lager), rest van de ingame opties mostly op medium, aantal zoals texture resolution op hoog.

Maar ingame zie je wel dat de opties zijn teruggeschroefd. Mist wat scherpte, op grotere afstanden zien auto's er meer uit als een arcade racer uit 1995, tot je weer dichterbij komt en dan ziet het er weer goed uit. Schaduwen zien er ook minder goed uit, beetje pixelated / grainy (ik denk dankzij FSR), er word aangeraden schaduwen uit te zetten voor de perfomance, maar dan lijkt het net alsof alle auto's 'zweven' en het allemaal hovercars zijn. Ook even alles op max gezet met native resolutie en dan is alles echt haarscherp en mega mooi, maar helaas maar iets van 5 fps, en de head tracking lagt dan ook waardoor als je je hoofd beweegd er vertraging in zit dat ingame je beeld wijzigd, nog nooit zo snel over mijn nek gegaan :+

AC1 en Automobilista2 is de VR performance wat beter, vooral in AC1, is ook al wat ouder spel natuurlijk. Uiteindelijk ligt het erg aan je headset en welke spellen je wilt spelen. Ik vermoed dat je met een 1080 wel snel tegen performance issues gaat aanlopen, of dat je zover moet terugschroeven dat je flink inlevert op grafische kwaliteit.

[Reactie gewijzigd door !GN!T!ON op 23 juli 2024 11:47]

Kijk met die info kan ik wat, dankjewel! Ik speel eigenlijk alles behalve ACC en iRacing aangezien ik niet meer aan league racing doe. Zal eerst ook wel niet zo'n dure headset worden omdat ik slechte ogen heb en wagenziek word dus wil er eerst niet te veel geld in steken mocht het niet bevallen.
Reken daar maar niet op.
De uiteindelijke 4060(ti) zal dan zo'n €400-500 kosten vermoed ik...
Ik hoop hier toch echt op het 'vote with your wallet' principe. Zo lang men deze absurde prijzen blijft betalen gaat er geen verbetering in komen, integendeel.
Ik zie het niet snel veranderen. Kun je je nog herinneren toen de eerste smartphone van 1000+ euro uitkwam? Daar sprak men net zo goed schande van, en nu is het een standaard.
Een standaard die ik weiger te volgen. ;)
Maar inderdaad, dat is ondertussen een heel normale prijs geworden net omdat mensen ervoor betalen.
Koop altijd een model ouder. Meestal is het toch weinig vernieuwend.
Tja, uiteindelijk koopt men toch wel binnen budget. Ik heb altijd best wel richting high-end gekocht maar met prijzen van bijna €2k doe ik dat niet meer. Zo'n RTX 4070 voor pak 'm beet €650 is dan een prima alternatief.

Ik heb ook niet het idee dat dat echt een achteruitgang is. Ik ben van 1080p naar 1440 gegaan en de midrange-kaarten van tegenwoordig kunnen dat prima hebben.

[Reactie gewijzigd door Wolfos op 23 juli 2024 11:47]

Helaas is de 4060 nog steeds maar 8GB, dus vind ik persoonlijk niet veel meer waard dan de 3060 TI en die kost (Asus TUF Gaming) nog steeds 494 momenteel.
599,- valt nog enigszins mee gezien de adviesprijs voor de 4070ti. Je hebt er waarschijnlijk 3080ti achtige performance mee.

Tweedehandsmarkt voor de 30 series stort ook best hard in, er is nu voor niet al te veel geld prima te upgraden naar een kaart waar je de huidige console generatie meer dan goed mee zit.
Ik kan het verkeerd zien, maar de 4070ti is in veel games +/- 30% sneller dan de 3080. De 4070 lijkt op papier ongeveer 25-30% langzamer dan de 4070ti.

Het zou me dan ook niet verbazen als de 4070 meer richting de 3080 gaat i.p.v. de 3080ti. Uitzondering is natuurlijk met DLSS3 frame generation, maar dat is eigenlijk de enige goede nieuwe feature, en dat zal niet elke game ondersteunen...

Dus upgraden heb je helemaal gelijk in. Als ik de prijzen vergelijk met 2e hands 3080s dan is 599 voor een 4070 al aan de hoge kant, en daar moet de BTW nog bij. 665 euro lijkt me echt te hoog. Zou als ik een GPU moest kopen eerder nu een 2e hands 3080 doen voor tussen de 550-600 euro (of minder!) i.p.v. wachten op een upgrade met een 4070.

[Reactie gewijzigd door Ahrnuld op 23 juli 2024 11:47]

Ik denk dat je wel gelijk hebt inderdaad, hopelijk een iets betere kaart dan de 3080 maar zal niet veel schelen. Het zal qua "value-per-dollar" wederom geen verbetering zijn t.o.v. de vorige generatie.

Wat upgraden betreft, eens! Vorige week geüpgraded naar een 6800XT voor 480,- en echt heel erg onder de indruk. Nog nooit zoveel frames gehad;)
Aan de andere kant zijn er ook nog steeds mensen die 350 euro voor een 2070 super durven te vragen haha! 3070 en 3080 prijzen zakken wel lekker nu inderdaad
Mensen kunnen hoog of laag springen, maar dit zijn de prijzen en daar gaat voorlopig niets aan veranderen.
het gaat niet veranderen omdat idioten ze nog steeds blijven kopen idd
Deze idioot is zeer blij met zijn 4070 Ti, een waardige upgrade voor zijn oude 1070.

Deze idiooit heeft verder ook geen andere hobbies en geeft ook geen €3000 uit aan een weekje vakantie, roken of drinken of dat soort ongein.
Oh jawel hoor, de reden dat de midrange introductie zo langzaam verloopt is omdat NV graag heeft dat iedereen die het ook maar een beetje kan betalen het topmodel koopt.

Ik verwacht dat de volgende serie kaarten weer wat normalere prijzen heeft. Met noot dat de AI boom die een beetje gaande is niet teveel impact heeft.
599 dollar is nogal veel voor een kaartje uit het midden segment, als iemand mij dit 10 jaar geleden had verteld, had ik er smakelijk om gelachen.
Nvidia heeft geproefd van het chiptekort en de cryptohype waardoor schaarste ontstond en de prijzen door het dak gingen, dus waarschijnlijk willen ze nu niet meer terug.

Maar van de andere kant willen consumenten het er waarschijnlijk wel aan uitgeven, Nvidia is en blijft natuurlijk een commercieel bedrijf en geen weldoeners organisatie.
Dus hopen maar dat er van de extra centjes er heel wat ontwikkelingen voor worden uitgebracht waar we iets aan hebben als consument.

Je kunt ook voor AMD kiezen, maar helaas hebben hun niet zo'n grote fan schare als Nvidia.
Dit komt vooral door negatieve ervaringen uit het verleden met drivers voor AMD kaartjes, die waren niet bepaald optimaal te noemen.
Ik moet wel zeggen dat deze problemen allemaal zijn opgelost en ik zelfs de AMD software fijner vind werken dan de software van Nvidia.
Maar het blijft als een spook om AMD heen hangen.

En dan nog het blauwe kamp Intel dat we er sinds kort bij hebben, hopelijk maken ze goede kaartjes voor de juiste prijzen.

Het is en blijft in ieder geval wachten totdat de bubbel klapt, Het is wachten op een nieuw ''Ryzen scenario'' denk ik waarbij de concurrent de prijzen flink moet laten zakken en weer flink aan de bak moet.
Ikheb al lang 400 -500 euro klaar liggen voor een nieuwe grafische kaart die dat bedrag waard is.

Blauwe team komt op de radar.
Wacht nog om te zien wat amd in de zomer uitbrengt. Waar wachten die op! Hebben vermoedelijk minder oude inventory dan nvidia...
Nvidia heeft bij mij alvast afgedaan. Als bedrijf, evenals huidige productaanbiedingen.
feit is ook dat amd meesurft op de prijzen van nvidia. prijs/performace is nauwelijks goedkoper dan nvidia

Als amd gamer ben je ook altijd een 2derangsburger als het op drivers aankomt aangezien het aantal gebruikers zo laag ligt ivg met nvidia (ruwweg 7%)
Sommige VR developers doen zelfs geen moeite om hun headsets compatibel te maken met amd
Wat is de positionering van een 4070? Misschien een 3080/6800xt?
Als dat het geval is, neem je beter een 6800 XT, die kost nu € 620. Waarom zou je dan € 50-100 meer betalen voor een 4070? Ik verwacht toch iets betere prestaties, anders is de 4070 bij voorbaat kansloos.
Waarom zou je dan € 50-100 meer betalen voor een 4070?
DLLS 3.0, Ray Tracing, Gsync, NVENC, om er een paar te noemen.
Mja als je feature voor feature gaat vergelijken....

DLSS 3.0 = FSR 2.0/3.0
Ray Tracing = is een techniek geen feature; kan AMD ook
Gsync = FreeSync (Premium)
NVENC = AMD VCE/VCN

Hebben we hier alleen over features en dus uiteindelijk title-optimization. Als je dan dus een eerlijke vergelijking wil dan blijft alleen (raw) performance over. En dan moet je wel appels met appels vergelijken...

Uiteindelijk is het ook een value-comparison; de raw-performance vs de prijs van de kaart. Daarnaast zou je nog kunnen kijken naar performance per watt als je dat ook nog belangrijk vind.
En vergeet ook niet 16GB vs 12GB VRAM.
Feature is een containerbegrip. Het betekend letterlijk gezien kenmerk van. Heeft niets met functionaliteit te maken. Dus raytracing is een feature als iemand wil dat dit zo is. Handig voor marketing niet zo handig voor mensen die willen weten wat iets kan en doet.
DLSS 3.0 = FSR 2.0/3.0
Ray Tracing = is een techniek geen feature; kan AMD ook
Gsync = FreeSync (Premium)
NVENC = AMD VCE/VCN
En al die zaken doet nVidia gewoon stukken beter. En nee, ik ben geen nVidia fanboy oid.
Zelf heb ik een non xt 6800. Was gewoon benieuwd in een nvidia kaart ivm cuda cores.
In dit geval is de 4070 zeker 15% sneller in 1080p games en 18% snelle in 1440p games.
https://www.gpucheck.com/...-3-70ghz/ultra/ultra/-vs-
Die benchmark kan niet kloppen, alle andere sites hebben nog niets gereviewed of gepubliceerd van de 4070. Dus vraag me sterk af of deze data correct is.
Ook staat de kaart er voor 440 te koop op.

Even de betrouwbare reviews afwachten denk ik.
Je hebt het vast over de 4070 Ti dan...
Introductie prijzen :+

Marktprijzen zullen wel weer de pan uit rijzen, en dat voor een matige kaart met ietwat beperkt geheugen.
Nu crypto mining niet meer op GPU's gebeurt valt dat best mee. De 4080 is nu soms voor onder de introductieprijs te krijgen, dus mochten ze uitverkocht raken gewoon paar maanden wachten.
In de VS wel, hier nog lang niet het geval.
Wellicht. Eerst zien dan geloven :D
Kleine kanttekening: de introductieprijs van de RTX 3070 was puur fictief :|

Dat ding is nog steeds duurder dan die fake introductieprijs van bijna 2 jaar geleden. Paar maanden geleden nog zo'n 700 euro zelfs, al zal het nu nog veel sneller dalen hopelijk. Dat zou leuk zijn voor de instapper, al komen de 4060 Ti en 4060 er ook aan binnenkort.
Ik heb pas een 3070 gekocht voor 600 euro. Bizar gewoon :+

Maar ik moest direct een GPU hebben. Normaal koop ik de 90/TI kaarten, maar dat zag ik nu even niet zitten met de huidige prijzen.

Op dit item kan niet meer gereageerd worden.