Slides tonen prestaties en prijs Nvidia GeForce RTX 4070-desktopvideokaart

Er zijn slides verschenen waarin details en prijzen van de Nvidia GeForce RTX 4070 worden gedeeld. De videokaart zou soortgelijke prestaties als de RTX 3080 bieden bij gebruik van DLSS zonder Frame Generation. De videokaart moet 599 dollar gaan kosten.

Nvidia positioneert de GeForce RTX 4070 als een gpu voor 1440p-gaming met 100fps, blijkt uit slides die VideoCardz vroegtijdig heeft gepubliceerd. Volgens prestatieclaims presteert de videokaart gelijk aan de GeForce RTX 3080. Die claims gelden voor gameprestaties met DLSS-upscaling zonder gebruik van de Frame Generation-feature, die werd geïntroduceerd in DLSS 3.0.

De videokaart zou in diezelfde gevallen gemiddeld ongeveer 20 procent sneller zijn dan de RTX 3070 Ti en 30 procent sneller dan de RTX 3070. Bij gebruik van Frame Generation, waarmee met Tensor-cores extra frames geïnterpoleerd worden, moeten de prestaties gemiddeld 40, 70 en 80 procent hoger liggen dan bij de RTX 3080, 3070 Ti en 3070. In de slides staan geen details over prestaties zonder DLSS. Volgens bronnen van VideoCardz is de RTX 4070 in games gemiddeld 15 procent langzamer dan de RTX 4070 Ti, die Nvidia eerder dit jaar heeft uitgebracht.

De videokaart krijgt volgens de slides een adviesprijs van 599 dollar. Die prijs is al eerder uitgelekt, maar lijkt nu bevestigd te zijn. De slides noemen donderdag 13 april als releasedatum. Nvidia heeft de gpu officieel nog niet aangekondigd, hoewel het bedrijf de RTX 4070 eerder heeft genoemd in een persbericht. Volgens eerder uitgelekte slides krijgt de GeForce RTX 4070 een AD104-gpu met 5888 CUDA-cores. De videokaart moet daarnaast 12GB GDDR6X-geheugen krijgen op een 192bit-geheugenbus. De totale bandbreedte moet daarbij 504GB/s bedragen. De tgp zou 200W bedragen.

Nvidia GeForce RTX 4070-slides via VideoCardzNvidia GeForce RTX 4070-slides via VideoCardzNvidia GeForce RTX 4070-slides via VideoCardz

Door Daan van Monsjou

Nieuwsredacteur

11-04-2023 • 14:05

81

Submitter: Xtuv

Lees meer

Reacties (81)

81
80
47
1
0
22
Wijzig sortering

Sorteer op:

Weergave:

4070Ti van 799 dollar komt op 910 euro minimaal, dan zou deze 599 dollar betekenen dat je 680 euro gaat betalen. Fors bedrag voor een kaart die praktisch identiek scoort aan een kaart die 2,5 jaar oud is.

Voor hetzelfde bedrag zie ik bijvoorbeeld een 6950xt staan in de pricewatch. Tikkie minder met raytracing, maar bak sneller in rasterization, en stuk meer VRAM.
De kaart die 2,5 jaar oud is is de in het artikel genoemde 3080? Dit is een 4070. Mijn 3060 presteert ook ongeveer als een 2070, dat is toch precies wat je verwacht van kaarten van de volgende generatie?

Dat het nog steeds (te) duur is, is een ander verhaal, maar ze zijn nog steeds goedkoper dan menig smartphone. :+
Het punt was ook de prijs lijkt me. Als je de 3080 vandaag weer uit zou brengen voor dezelfde prijs zouden mensen ook klagen. Je verwacht meestal meer prestaties voor een lagere prijs bij een nieuwer product.
Als je kijkt naar euro per FPS dan klopt het inderdaad dat je per euro meer prestaties krijgt bij de 4090 dan bij de 3090 van de vorige generatie.
In het artikel:
ongeveer 20 procent sneller zijn dan de RTX 3070 Ti en 30 procent sneller dan de RTX 3070.
Dus binnen dezelfde xx70 range.
De benaming doet er niet zoveel toe. Het gaat om price/performance.
Jullie vergeten de totale hoeveelheid geld in omloop mee te nemen in de vergelijking. In vergelijking met 2.5 jaar geleden is er veel meer geld in omloop dan toen het geval was. Dit resulteert automatisch in hogere prijzen want er is meer geld in omloop / je geld is minder waard. Dat we nu met torenhoge inflatie zitten nadat de geldprinter overuren heeft gedraaid is dan ook geen verrassing. Je ziet het terug in elke sector.
Momenteel draait de geldversnipperaar overuren (nou ja, de 'MB' geldvoorraad van de euro gaat stevig omlaag, ik neem aan dat je de toename in 'geldvoorraad' bedoelde met 'de geldprinter'), maar er komt nog even geen deflatie om de hoek kijken.
Al met al is die Euro geldvoorraad (MB) nu 10% hoger dan 2,5 jaar geleden, maar de infaltie is wel iets hoger geweest dan dat.
Tussen 2015 en 2018 is de geldvoorraad (MB) in de eurozone ongeveer verdrievoudigd, maar de inflatie was in die jaren niet echt noemenswaardig.

Voor de wat complexere geldvoorraden M1 en M2 gaan min of meer vergelijkbare verhalen op. Oftewel, wel leven (gelukkig) niet in Zimbabwe, de inflatie wordt niet stelselmatig aangejaagd door de geldprinter.
inflatie loopt altijd achter. als er vandaag de tomaten opbrengst mislukt betekent niet dat er morgen gelijk hogere prijzen zijn. Gaat altijd een tijd overheen
De inflatie word wel stelselmatig aangejaagd door de geldprinter.
En extra gestimuleerd door zorgverzekeraars , energie"leveranciers" en vooral , de supermarkten.

[Reactie gewijzigd door BrammetjeBram op 22 juli 2024 14:16]

Het is vrij basic eerlijk gezegd, natuurlijk gaat het onderwerp nog veel dieper dan wat ik heb opgeschreven echter gaat dat voorbij aan de discussie die gevoerd wordt. Leg het graag een keer voor je uit maar kom dan gewoon gezellig langs op de koffie :)
Zo basic dat je gewoon volledig de plank misslaat. Het hele probleem is dat je het over "geld in omloop" hebt in plaats van inflatie. Dat geeft duidelijk weer in welke hoeken van het internet je zit. Veel van het geld dat uitgegeven is waren gewoon kortstondige leningen (aantal maanden) om financiële instituten van liquiditeit te voorzien. Dat geld is daarna gewoon weer uit de omloop genomen, maar dat hoor je de cryptobro's nooit zeggen natuurlijk. Feit is dat hoewel er een verband tussen geldvoorraad en inflatie zit, deze absoluut niet hetzelfde zijn.

Daarnaast zie je dat de inflatie zelf met name in grondstoffen en energie zat, en de vraag is in hoeverre Nvidia dat in hun eigen leverketen terug heeft gezien. Het gaat dus niet om geldvoorraad, het gaat dus niet eens om inflatie maar om de specifieke prijsstijgingen waar Nvidia mee te maken had. Dit bovendien ook nog eens in de context dat we al een enorme prijsstijging gezien hebben die pure marge was in vanwege cryptomining. Uit alle informatie die we hebben blijkt dat nvidia gewoon de marges pakt.

Er spelen gewoon veel dingen hier. Nvidia die zich strategisch steeds minder op de consumentenmarkt richt en dus de concurrentie met AMD minder spannend vind, feitelijk erop rekent dat hun merknaam nog krachtig genoeg is om mensen aan zich te binden ondanks de tegenvallende prijs/prestatieverhouding vs AMD en die nog van hun 3000 series voorraad af wil en dus geen haast heeft om lagere marges op de nieuwe series te pakken. Daarnaast heb je toenemende complexiteit van de kaarten die tot extra kosten leiden en specifieke inflatie in de leverketen. Uit dat geheel komt de huidige prijs rollen en wat gewoon duidelijk is uit alle bronnen en analyses in en rondom de industrie is dat Nvidia absurde marges aan het pakken is omdat ze het kunnen.

Het is dan ook enorm frustrerend dat je dan "hur dur moneyprinter" comments blijft zien die dit soort anti-consumentengedrag aan het goedpraten zijn. Hou gewoon eens op met dit soort idiote praktijken van megalomane bedrijven te verdedigen.
Je kan een macro economische trend niet projecteren op een enkele markt waar er veel andere factoren spelen. Is zoals het klimaat en het weer.

Wat ook speelt is bv. het gebrek aan voldoende concurrentie, het kunstmatig verlengen van een reëel tekort door een eerder gigantische vraag waardoor er nog steeds 30xx series op overschot zijn, en ook gewoon het nakende einde van de wet van Moore, waardoor prestatie sprongen steeds kleiner worden en vorige generaties het langer uithouden.

De gaming markt lijkt na Covid nog altijd voldoende vraag te creëren bij de huidige prijzen (maar ik vermoed dat deze wel nog 100-200 euro dalen het komende jaar)

Inflatie in de gpu markt is veel groter dan de macro economische inflatie. Speelt deze, icm stijgende energiekosten een rol? Zeker. Maar het is imho niet de hoofdreden van de huidoge prijzen.
Zat net even naar Toms Hardware GPU hierarchy chart te kijken, en dat is toch wel een aardige stap naar beneden. Voorgaande generaties zat de xx70 kaart altijd op de performance van de xx80Ti van de generatie ervoor. Dat de 4070 nu "enkel" performance van de 3080-non ti haalt is toch wel jammer.
Als je de markt echt een plezier wilt doen ga je gewoon voor de intel-arc-battlemage. Lijkt erg close te liggen aan de 4070 en is qua prijs een huge verschil.. zal niet eens zo hoog liggen als de AMD/Nvidia kaarten.

Kunnen we eindelijk eens een eerlijkere en gezondere markt zien met meer concurrentie.

[Reactie gewijzigd door deniz280 op 22 juli 2024 14:16]

ijkt erg close te liggen aan de 4070 en is qua prijs een huge verschil
Ik zou daar echt niet van op uit gaan, als je de laatste kaarten van hun ziet kan ik het nog niet geloven dat deze kaart maar in de buurt gaat komen van de 4070ti

Mocht dat tegen die tijd wel zo zijn en hij is beter geprijsd, is het natuurlijk een no brainer maar persoonlijk ga ik er niet vanuit
Ik volg wel heel wat kanalen en natuurlijk is het nog een speculatie maar het lijkt er wel steeds meer op te wijzen dat dit mogelijk bijna vergelijkbaar zou kunnen zijn. Maja blijft nog even afwachten inderdaad en hopende dat dit ook echt zal gebeuren want dat is alleen maar goed nieuws voor de consumenten <3
Dan moeten ze eerst hun drivers verbeteren, de huidige arcs zijn hetniet.
Denk dat Nvidia en amd vanzelf hun prijzen gaan verlagen. Vraag is lager en wordt nog lager.
Laatst een video gekeken dat over de Arc ging en van wat ik begrijp is dat zij nu bijna identiek zijn qua performance als de mainstream kaarten. Driver support is nu veel beter en stabiel volgens vele youtubers die hier reviews en testen van maken.

Ik heb hem zelf niet maar ik kan me goed voorstellen dat Intel nu wel zn sh*t voor elkaar heeft.

Maar goed we gaan het zien met de nieuwere modellen straks.
Laten we het hopen! Ook de volgende generatie, wanneer dat ook mogen zijn.
Iedereen heeft z'n eigen waardes die belangrijk zijn bij het vergelijken van videokaarten.
Maar oudere kaarten van een niveautje hoger zijn bijna altijd betere value als de net-nieuwe kaart, tenzij er te weinig van te krijgen is want dan doet de prijs rare dingen.

Maar bij mij komt er bijvoorbeeld niets in van meer dan 200watt. Dat vind ik eigenlijk al te veel. Nog geen eens om stroomkosten of zo, maar gewoon herrie en warmte productie, vooral in de zomer. M'n kantoorkamer wordt al te heet met een 150watt kaart er in, ik zit niet te wachten op een 300watt GPU, wat de prijs en/of performance dan ook is :).

Voor weer iemand anders is VRAM alles zeggend, voor weer iemand anders zijn bepaalde software features toch belangrijker, etc.. etc...

Ik heb zelf geen VRR scherm bijvoorbeeld. Dus ik kijk eigenlijk naar iest wat de 1% lows >60fps heeft op 1080p of 1440p. Maar of de gemiddelde framerate nu 65 of 75 of 90 is zal me niets schelen, het gaat toch limited zijn op 60fps. Dus kijk ik naar andere factoren zolang de performance vergelijkbaar is _voor mij_.

Maar iemand die competitiever speelt of een ander scherm heeft kan hier weer heel anders naar kijken, en daar kan 10% performance verschil make-or-break zijn.

We weten het pas als de kaart bij testers is, van te voren kan je toch negens op aan :).
4070Ti van 799 dollar komt op 910 euro minimaal, dan zou deze 599 dollar betekenen dat je 680 euro gaat betalen. Fors bedrag voor een kaart die praktisch identiek scoort aan een kaart die 2,5 jaar oud is.

Voor hetzelfde bedrag zie ik bijvoorbeeld een 6950xt staan in de pricewatch. Tikkie minder met raytracing, maar bak sneller in rasterization, en stuk meer VRAM.
Maar er zijn buiten gaming ook nog toepassingen voor een GPU. Ik mag graag wat aanklooien met GANs en over het algemeen genomen zijn in off-the-shelf AI paketten nVidia Tensor Cores gewoon de norm. Er is zat dat simpelweg niet werkt op AMD of waarbij je een wrapper of injector moet gebruiken om het uberhaupt draaiende te krijgen op een Radeon.
En met veel dingen als je het al draaiende krijgt op een Radeon is het vaak niet de performance die je zou verwachten.
Precies, ik gebruik mijn GPU voornamelijk voor Stable Diffusion en dan is een 4070Ti sneller als een RX 7900 XTX voor een paar honderd euro minder.
Dat tikkie minder met raytracing klopt ook niet helemaal meer. 12GB is zo'n beetje aan de onderkant wat je nodig hebt om raytracing echt boeiend te maken. Plus nieuwe games gaan nauwelijks minder om met de AMD-variant.

Plus wat heb je aan raytracing als je je setting naar medium moet zetten om er serieus gebruik van te kunnen maken. De 6950 XT kan iig alle textures laden en dan heb je iig iets aan ray tracing. 12GB is vrij krap vpor RT, zeker met het oog op de nabije toekomst
Voor hetzelfde bedrag zie ik bijvoorbeeld een 6950xt staan in de pricewatch. Tikkie minder met raytracing, maar bak sneller in rasterization, en stuk meer VRAM.
'Tikkie minder' is wel een understatement hoor, op een AMD is raytracing onwerkbaar (sub-60 fps).
Heb je de de evaluatie van de 3070 VS de 6800 gezien van Hardware Unboxed toevallig.
Daarbij ik heb ervaring met de 3070ti de 6800 en 6900xt en sub 60 is niet het geval voor de laatste en zeker wel voor de eerste
Je bedoelt 680 euro betalen voor een kaart die gelijke performance heeft als die 2.5 jaar oude kaart, doe nu nog steeds gemiddeld voor een paar 100 euro meer kost, en bij die goedkopere kaart heb je wel nieuwere functionaliteiten.. je moet dan wel gek zijn om nu nog een 3080 te kopen.
Als je verder leest suggereer ik ook niet dat de 3080 hier de interessante optie is.
1440p @ 100fps+ vind ik nou z'n vage marketing. Op welke game is het te hale? Op alle games? 100 fps+ op FTL is nou niet zo lastig maar op Cyberpunk 2077 wel.
Aangezien ze erbij zetten dat het inclusief DLSS 3 is zou het op Cyberpunk dus best mogelijk moeten zijn om die 100+fps te halen lijkt mij.

Check bijvoorbeeld deze video op twitter:
https://twitter.com/NVIDIAGeForce/status/1633139800000839680
(gaat hier dan wel om een 4070ti, maar toch)

Hier kan je zien dat een 3090 met DLSS (versie 2 volgens mij, dus 3 zal betere resultaten halen?) al bijna 100 FPS haalt op 1440P ultra + RTX aan:
review: Cyberpunk 2077 - Next-gen game voor next-gen hardware

[Reactie gewijzigd door dartbord op 22 juli 2024 14:16]

Ik vind dat DLSS sowieso buiten de kwestie gehouden moet worden als het gaat om vergelijken van performance. Ik kan ook een game renderen op 100x100 pixels en deze dan upscalen, en dan roepen in marketingslides dat ik 300 FPS haal. Dat wil niet zeggen dat DLSS geen goede toevoeging of ontwikkeling is, maar het verkleurt wel heel veel marketingmateriaal.
Absoluut. En daar komt nog eens bij dat FSR 3 waarschijnlijk frame generation naar de 30-serie kaarten gaat brengen. Waardoor DLSS 3 een zwakker verkoopargument wordt.
FSR2 kan het qua kwaliteit ook niet echt matchen met DLSS2. DLSS3 blijft een hardware oplossing, en aangezien eht voor frame generation nog belangrijker is om dit goed uti te voeren vanwege input latency etc gaat AMD er tcoeh een zwaarde kluif aan hebben. En weer moet Nvidia met iets komen voordat AMD het op pakt.
FSR 3 lijkt interessanter te worden dan DLSS 3. AMD wil namelijk 2x* de framerate behalen van FSR 2. Terwijl DLLS 3 maar 50% meer framerate biedt.

Ik vermoed dat AMD meerdere frames wil genereren per frame in plaats van slechts één. Dat kan wellicht omdat AMD shaders gaat gebruiken in plaats van Nvidia die hun Optical Flow chip gebruikt. Volgens Nvidia is de 40-serie net snel genoeg is voor één frame. Want de 30-serie Optical Flow chip is volgens Nvidia te langzaam voor DLSS 3.

* https://cdn.wccftech.com/...n-Frame-Technology-_1.png
Hier laten ze zien dat ze met een enkele interpolatiaframe willen werken, en leggen ze uit dat 2x de framerate er niet in zit.
depends... Het gaat hier om een 1-op-1 vergelijking met een andere kaart. Dan gaat het er om dat de settings matchen. Als dat nu met DLSS2 of zonder DLSS2 is, maakt voor de vergelijking weinig uit -> het gaat om het verschil.

Zodra er ergens DLSS2 met iets vergeleken wordt met DLSS3 is het appels met peren en heb je er niets aan, hetzelfde als ergens vergelijken tussen medium-quality en de andere op ultra of zoiets.

Daarbij, dit is een marketing slide van Nvidia. Gewoon geen enkele marketing slide is nuttig, of ie nu van Intel, AMD, Nvidia of van Apple komt. Daarom -> reviews en benchmarks :).

Ik vind sowieso dat DLSS3 (of in de toekomst andere framegen tools?) uit de benchmark resultaten moeten blijven. 90fps met DLSS3 kan nog steeds een ruk ervaring zijn om mee te spelen als de latency schommelt tussen een 40 en een 60fps om maar wat te zeggen.
Kom op, tuurlijk maakt dat uit. Genoeg games waar DLSS niet goed uit de verf komt. In Hogwards gaf het probleem, Dead Space remake en zo zijn er nog veel meer games. Daarnaast valt de performance in games die geen DLSS ondersteunen enorm tegen. Vergelijken doe je op basis van dezelfde settings niks meer niks minder.
... dat is wat ik zei, toch ?
Waarom moet dat buiten beschouwing worden gelaten? Als je er meer frames mee behaalt is dat toch gewoon een valide verkoop argument?

Ga je dan ook bij video encoden de nvenc encoder uitzetten omdat "ik kan ook prima speciaal hardware op de pcb plaatsen voor encoden"

Het product is alles bij elkaar. Je kunt wel zeggen "dls 3.0 op performance mode is troep" oid.
De vraag is of het ook beter speelt. Framerate is namelijk een argument van speelbaarheid geweest, die jarenlang is geofferd voor mooiere plaatjes.

Juist die speelbaarheid wordt niet bevorderd bij frame generatie. In tegendeel. Het is er dus vooral om in grafieken die metrieken tonen zonder context beter naar voren te komen. Hoger getalletje is immers beter, toch?

Waarschijnlijk zullen er dus naast gemiddelde fps en 1% low grafieken dus ook grafieken met input lag en response rate moeten komen om de perverse marketingprikkel van hoge framerate te beteugelen.
Behalve dat als jij een game op 100x100 draait het er niet uitziet terwijl DLSS er net zo goed of in sommige gevallen zelfs beter uit kan zien dan native afhankelijk van de implementatie van bepaalde AA methoden. Aan de andere kant kan DLSS ook slechter zijn maar over het algemeen is DLSS volgens mij goed genoeg dat het zo weinig verschil maakt tov native dat het de extra performance increase meer dan waard is.
Tja, maar dan zit je met gegenereerde frames, ziet er wel vloeiender uit, maar is niet te vergelijken met een andere kaart die dat native haalt. De extra latency (vaak hoger dan als je native op lagere framerate speelt) is echt merkbaar, maar maakt misschien voor cyberpunk iets minder uit.
Het helpt niet dat er niet bij gezet is welke DLSS settings en RTX settings gebruikt worden. (of ik kijk er over heen)
Als het DLSS Performance is en alleen RTX Low ofzo dan heb je leuke FPS ja...
Daarnaast is Frame Gen ook niet altijd bevordelijk voor beeld kwaliteit.

Lijkt soms meer een race naar fps dan een fijnere ervaring.

[Reactie gewijzigd door Xfade op 22 juli 2024 14:16]

één van de gelekte slides heeft een grafiek. Ze halen 1440p100 in Borderlands 3 en Metro Exodus, en met DLSS 3 aan in Cyberpunk 2077. Telkens op maximale settings met RTX aan in ondersteunde games.
Laatste slide even bekijken?
Geeft toch al een redelijke indicatie wat je kunt verwachten.
Veel te duur en veel te weinig geheugen voor een kaart van 600 euro. nVidia hanteert duidelijk een concept om bare minimum te geven zodst de kaart snel slecht bruikbaar wordt voor high of ultra gfx in de hoop dat mensen weer gaan upgraden.

Als je ziet hoe erg de 3070 nu al door de mand valt met zijn 8gb vram zie je waar de 4070 ook naar toe zal gaan over 2 jaar. Dan zul je daar vergelijkbare issues gaan krijgen.
Er zijn nu al een aantal games die meer dan 12 gb gebruiken bij 1440p Ultra settings. Zie oa:
https://youtu.be/Rh7kFgHe21k

En nee zelfs DLSS kon de 3070 8GB niet voldoende helpen om de stuttering issues op te lossen.
12 gb voor een 4070 vind ik nog best ok. Je kan ook prima op high settings op 1440p spelen met een midrange kaart. Wat de prijs voor een midrange kaart tegenwoordig is, is het echte probleem.
Vergeleken met een AMD die rond hetzelfde prijssegment op 16GB zit is het gewoon weinig.
Ik vind het echt weinig. Het is 2023 geen 2020 meer....
De 1080 Ti had al 11gb, Radeon VII 16gb dit zijn kaarten uit 2017/2018.
AMD heeft 12GB op de 6700XT uit 2020 zitten die voor die was @ launch 500 dollar nu 400 euro.

Nvidia is gamers gewoon aan het uitknijpen en aan het zorgen dat ze sneller moeten upgraden door vram te beperken.
Bizar dat als je nu iets wilt kopen wat enigzins future proof is je veroordeelt bent tot een 4080 met 16 gig videoram als je per se Nvidia wilt. 1300 Euro op dit moment..
Oplossing is om verder te kijken dan dst merk. AMD heeft voor 600 euro am 16GB kaarten die hebben ze al meer dan 2 jaar voor) vanaf ongeveer die prijs te koop (RX6800). Nu kan je nieuwe 6800XT's voor 600 euro. Krijgen en een 6950XT voor iets van 700.
Nog steeds veel geld gezien de hardware 2 jaar oud is maar een betere deal dan nVidia op dit moment heeft.

De 6700XT kan je voor 400 krijgen met 12GB bij nVidia betaal je straks msrp 600 dollar dus 680-700 euro hier als ze de msrp al halen. Met een beetje pech moeten de partners 650-700 dollar vragen om rond te komen is ook al eens eerder gebeurd dat alleen de paar founders kaarten voor die prijs te krijgen waren.

[Reactie gewijzigd door Astennu op 22 juli 2024 14:16]

Dit is wel allemaal op ultra he, en HardwareUnboxed _zelf_ zegt altijd om vooral geen ultra te gebruiken :).
Textures inladen van meer dan 1024x1024 pixels die vervolgens niet groter dan een paar pixels op het schermen komen heeft weinig zin.

Volgens mij kan je van al deze spellen de texture quality op de en-na-hoogste zetten en dan speelt het uistekend op 1440p met meer dan 60fps en een 8gb 3070. Terwijl je de rest van de settings gewoon op ultra laat staan. En misschien heb je dan zelfs geen enkele pixel verschil op je scherm, omdat de 'ultra' textures niets toevoegen op 1440p of lager.

Maar, er zit wel een goed verhaal in dit filmpje, dat raytracing ook een flinke slok VRAM kan kosten, en de combinatie daarvan kan er dus zelfs voor zorgen dat 'AMD-suckt-met-raytracing' er toch opeens met de winst vandoor gaat zodra raytracing aangezet wordt, omdat de 3070 het gewoon niet meer in z'n geheugen kwijt kan. _Dat_ is wel een faal, want voor Nvidia is hun raytracing-performance natuurlijk het trotse paard... en als dat nutteloos is vanwege te weinig vram op een kaart dan klopt er iets niet.

(En al helemaal niet omdat er een 3060 bestaat met 12gb geheugen, toch??).
Uhmm op 1080p en 1440p!! Dit zijn extreem lage resoluties ik game. Daar al jaren niet meer op. Genoeg mensen die al boven de 1440p zitten met 3440x1440 of 4k schermen. Dit zijn dure kaarten daar mag je wat van verwachten. Een 6700XT heeft wel netjes 12gb geheugen en die was een stuk goedkoper.

En zelfs op high had de 3070 problemen bij bepaalde games op medium 1080p was het soms pas opgelost en dat kan echt niet in die prijsklasse. Wat lagere framerates na 2 jaar sure maar dst soort gestotter is game breaking en niet fatsoenlijk speelbaar.

En dit zijn de eerste games dit probleem wordt de komende jaren dus alleen maar groter en voor dat geld hoop je toch wel wat langer goed te kunnen gamen en niet naar low of medium presets te moeten. Bij een AMD kaart kun je met aanzienlijk hogere instellingen spelen omdst die wel voldoende geheugen hebben. De 6700XT 12GB zal in bepaalde gevallen net wat weinig hebben maar de 6800 kaarten zitten met 16gb nog goed. Echter zit de 6700XT wel ineens iets lager prijs segment. Maar heeft wel 50% meer vram dan de 3070.
Het ging ook over claims dat 8gb nu al te weinig was voor 1080p en 1440p. En de 1080p claim ben ik het niet mee eens , de 1440p claim depends on game (of raytracing meer).

Of 8gb ok was voor de prijs daar brand ik me absoluut niet aan , want de markt is zon zootje geweest de afgelopen jaren dat ik het ook allemaal niet meer volg.

Ik blijf bij 1 van de weinige dingen waar ik het 100% mee eens ben met HardwareUnboxed:
1) ultra settings zijn dom, gebruik ze niet (hebben ze een video over).
2) 1080p / 1440p werkt nog goed met 8gb, maar het einde / randje is in zicht dus pas op wat je nu nog koopt (wat perfect aansluit bij deze 4070 post).
En 800fps als je de frame generation van je TV aanzet, aldus de slides van m'n TV.

Ik wacht de tests wel af. En aangezien 8GB tegenwoordig al te krap is voor hoge settings / 1080p, heb ik m'n vraagtekens hoe lang deze 12GB voldoende gaan blijven voor de belofte van 1440p/100fps. De norm voor dit segment is immers 16GB, al sinds een paar jaar.
En aangezien 8GB tegenwoordig al te krap is voor hoge settings / 1080p
ehhh wat? The LAst Of Us misschien, die ook wordt afgekraakt vanwege dit (en waarschijjnlijk gewoon domme code of zelfs een bug is).
Daar buiten is voor 1080p 8gb toch nog meer dan genoeg?
https://www.youtube.com/watch?v=Rh7kFgHe21k

The Last of Us, Forspoken, Hogwarts Legacy, Resident Evil 4. De lijst wordt langer en langer. Het valt allemaal te verhelpen met wat aanpassingen van de instellingen, maar dat is niet per sé wat je verwacht als je ruim 500€ uitgeeft voor een GPU.

De ontwikkelingen gaan door, 8GB is inmiddels low-end gaming. 12GB zal de low-end van over een aantal jaar zijn. Of dat aantal 2, 3 of nog geen anderhalf is, blijft koffiedik kijken. Maar ruim bemeten is het niet. DLSS, frame generation, het helpt allemaal niet als je buffer overspoelt.
Ja die heb ik net bekeken, en 1080p is uitstekend daar met alles, zelfs met raytracing. Het verhaal van dat filmpje is juist dat raytracing kan instorten op de 3070 bij 1440p...

En het is ultra, en ultra-textures is gewoon niet slim bij 1440p of minder :).
Met alles wat ik speel kom ik niet boven 8gb uit. Ik speel voornamelijk competief en Word of warcraft met alles ultra settings en 1080p. Die spellen die boven de 12gb uitkomen zet ik mijn vraagtekens bij en als dit zo is dan is dit echt op hoge instellingen op 4K. Voor mij sowieso niet relevant.
1:1 tegenover de RTX 3080 zonder frame generation. Ik denk dat we dan dus kunnen verwachten dat de prijs ook 1:1 de 3080 zal zijn, gezien de fps/euro verhouding ook zo ligt voor de andere RTX 4000 kaarten.

Dat houdt dus in dat een XX70 kaart 700 euro gaat kosten. :'( Ik hoop natuurlijk dat ik het mis heb, maar zelfs van 599 euro (dus 1:1 dollar euro) zou ik niet echt blij worden...

Tenzij je echt heel graag Nvidia/betere raytracing wilt hebben betekent dat dus dat er nog steeds geen competitie is voor de RX 6800(XT), die nu voor 560-630 euro te koop zijn.

[Reactie gewijzigd door youridv1 op 22 juli 2024 14:16]

Ja, 2,5 jaar na de introductie van 3080 eenzelfde prijs/performance is niet echt om over naar huis te schrijven.

We hebben het echter eerder gezien met de 20-serie. De 2080 kostte evenveel als de 1080ti en was even goed. 10% sneller, maar 8GB ipv 11GB ram. De 30-serie maakte dat weer goed. Hopelijk wordt de 50-serie de nieuwe 30-serie.
600 USD is op dit moment zo'n 550.09 euro volgens m'n tooltje (geen idee hoe actueel die is).
Dat keer 1.21 voor de BTW is 665,61 waar je dan op komt. Ga er maar vanuit dat het _op zijn minst_ 699,- euro wordt.
De goedkoopste 3080 die ik zo snel zag was nog steeds 790 euro.
Apart. De 4070 heeft 66% van de geheugenbandbreedte van de 3080 en is volgens Nvidia toch even snel.

504GB/s 4070: https://videocardz.com/ne...ion-gpu-has-been-pictured
760GB/s 3080: https://www.techpowerup.com/gpu-specs/geforce-rtx-3080.c3621
Mijn R9 Fury had 512GB/s bandbreedte. Maar als ik moest kiezen zou ik toch voor de 4070 gaan. Uiteindelijk is geheugenbandbreedte slechts één factor die de prestaties bepaalt.

[Reactie gewijzigd door Cid Highwind op 22 juli 2024 14:16]

Het kan anders wel een bottleneck vormen.
Weer Nvidia shananigans, * DLSS3 when supported** Is dus meteen een appels met peren vergelijking als je met oudere kaarten vergelijkt die alleen DLSS2 ondersteunen.
Enige heldere is slide 2, die dan ook zegt dat performance 3080=1x4070, zonder DLSS techniek.
Als je dat in je achterhoofd houdt en kijkt naar pricewatch en deze prestatiereview:https://tweakers.net/reviews/10154/4/amd-radeon-rx-6950-xt-vijf-razendsnelle-radeons-vergeleken-prestaties.html

Dan zie je dat een 6950xt (+/- 20% hogere prestatie index heeft)als het om echte frames gaat.
Tsja dat DLSS3 er een partij "fake"frames erbij pompt en zo de kaart voorbij gaat, valt nog te zien aangezien 6950XT ook FSR kan gebruiken...
Goed nieuws! Dit klinkt als een mooie vervanger voor mijn 2060 Super, waar ik tot nu toe nog aardig mee weg kom.

[Reactie gewijzigd door Saeverix op 22 juli 2024 14:16]

Waarom blijf je niet gewoon binnen dezelfde reeks, de xx60? Zal je waarschijnlijk nog €100 mee kunnen besparen en de stap van de 2000 serie naar de 4000 is al groot genoeg lijkt me? Tenzij je je meer kan en wil veroorloven natuurlijk en een stap omhoog wil op de ladder, maar persoonlijk vind ik de xx70 modellen en hoger de meerprijs niet waard.

'Enthousiast' level pas beter bij me (en de meeste gamers) dan 'high-end'. Marketing en de stortvloed aan nieuws op sites zoals deze doet het wel lijken alsof het normaal is om een xx70/xx80 of zelfs xx90 te (willen) hebben, maar de gemiddelde persoon rijdt ook niet in een dikke Audi of Ferrari, maar gewoon in een Volkswagen of Toyota.
Gezien ik van een Super kom, en ik er destijds zo'n 550 voor betaald heb leek me dit qua prijs wel een goede vervanger. Daarnaast ik er van een 4060 nog minder bekend. Maar wie weet, als de 4060 rond dezelfde periode op de markt komt kijk ik daar ook even goed naar.
Wellicht ook een leuke vervangen voor mijn 1080ti, die kaart komt ook nog verrassend goed mee. (Voor de games die ik speel*)
Hier dito met een 1070 TI, die red het ook nog aardig met de meeste games op 1440p, maar de 144 hz die mijn monitor heeft kan ik nu wel vergeten. Een vereiste voor de volgende kaart is dus 1440p met een +/- 144 fps.
Ik heb nu de RTX 3070 en draai warzone net met 70fps op 1440p, hoe kun je dan met een 1070ti ditzelfde halen ?
DLSS of FSR aan? Settings te hoog?
Heb ik het over fps in warzone? Nope...

Warzone 2 heb ik nog niet gespeeld, maar bij warzone 1 haalde ik gemiddeld 100 fps, wel met meeste graphics settings op laag, Texture Resolution op normaal en
Texture Filter Anisotropic op hoog.
Excusemoi dubbelpost :-/

[Reactie gewijzigd door Supertroeper op 22 juli 2024 14:16]

Dat is ook mijn gedachte, hier ook nog de 2060super. Vind het nog steeds wel veel geld, maar we zullen wel zien, ga de hele pc vervangen, nu nog steed i7 4770k.
Zie ik nou in de plaatjes dat de RTX3080, 3070Ti en 3070 óók DLSS 3 krijgen??
Of lees ik de plaatjes verkeerd?
Zover ik weet moet je die grafieken zien als een DLSS 2 vs DLSS 3 kaart. DLSS 3 gaat via de hardware wat een 20/30 serie kaart niet heeft
De prijs daargelaten heeft deze kaart hetzelfde probleem als de 4070ti: VRAM. 16 GB wordt binnen nu en afzienbare tijd de norm voor 1440p en ultra / high texture settings, eventueel met RT.

De 3070 wordt nu ook al geslacht in bepaalde titels vanwege vram problemen.

Op dit item kan niet meer gereageerd worden.