Uitgelekte Nvidia-slide toont specificaties GeForce RTX 4070-videokaart

Techwebsite VideoCardz publiceert een vermeende slide van Nvidia, met daarop specificaties van de GeForce RTX 4070-videokaart voor desktops. Deze lijkt verschillende geruchten te bevestigen. De RTX 4070 moet op 13 april uitkomen.

De slide van VideoCardz toont onder meer dat de GeForce RTX 4070 een tgp van 200W krijgt. Daarmee ligt de tgp lager dan die van de RTX 3070 en 3070 Ti, die respectievelijk 220 en 290W bedragen. De slide claimt daarnaast dat de RTX 4070 gemiddeld 186W verbruikt tijdens het spelen van games, minder dan de geclaimde gemiddeldes van 215 en 240W en bij de RTX 3070 en 3070 Ti.

De GeForce RTX 4070 krijgt volgens de slide verder 12GB GDDR6X-geheugen met een bandbreedte van 504GB/s, wat overeenkomt met eerdere geruchten. De videokaart zou daarnaast 36MB L2-cache krijgen, waar de voorgaande RTX 3070 en 3070 Ti over 4MB L2-cache beschikten. De slide noemt geen concreet aantal CUDA-cores. Eerdere geruchten stellen dat de gebruikte AD104-gpu beschikt over 5888 van dergelijke kernen. De RTX 4070 Ti heeft er 7680, terwijl dat aantal bij de voorgaande RTX 3070 ook op 5888 ligt.

De Nvidia GeForce RTX 4070 is nog niet officieel aangekondigd, maar er gaan al langer geruchten rond over deze videokaart. De gpu zou op 13 april uitkomen en dan een adviesprijs van 599 dollar krijgen, wat omgerekend en met btw neerkomt op ongeveer 671 euro. Diezelfde adviesprijs wordt ook op de slide van VideoCardz getoond. Daarmee is de adviesprijs gelijk aan die van de RTX 3070 Ti, maar 100 dollar hoger dan die van de 'gewone' RTX 3070.

Nvidia GeForce RTX 4070-slide via VideoCardz

Door Daan van Monsjou

Nieuwsredacteur

03-04-2023 • 07:35

128

Lees meer

Reacties (128)

128
128
51
4
0
67
Wijzig sortering

Sorteer op:

Weergave:

Zou graag mn 5700XT willen upgraden maar deze prijzen zijn echt belachelijk. In 2019 heb ik de xt voor 525 gekocht wat toen het beste was wat AMD te bieden had, nu is 525 net genoeg voor een entree kaartje :(
De vraag die je je eigenlijk moet stellen, buiten de belachelijke prijsstelling van videokaarten tegenwoordig, is de euro/fps waarde. Stel dat je weer 500 euro inlegt, hoeveel FPS krijg je extra ten opzichte van wat je nu hebt. Of dat uiteindelijk resulteert in low-, mid of high-end maakt dan eigenlijk niet veel meer uit.

[Reactie gewijzigd door M2M op 22 juli 2024 14:11]

En dan natuurlijk de vraag heb je die extra fps wel echt nodig?
Ik heb meer dan 10 jaar lang mijn 980 kunnen gebruiken en nu dat 4000 series uit zijn gekomen heb ik de 3080 genomen :)
Ik heb meer dan 10 jaar lang mijn 980 kunnen gebruiken
Dat vind ik best knap aangezien de GTX980 (en GTX970) in september 2014 uitkwam, het is nu 2023... ;)
Ja net geen 10 dan :)

[Reactie gewijzigd door deniz280 op 22 juli 2024 14:11]

Heb m'n 970 ook zolang kunnen rekken, maar nu toch gesettled voor een 3070ti :)
Verstandige keuze! :) Echter hoor ik wel veel slechte nieuws over de videokaarten met max 8GB.. Het blijkt dat veel games tegenwoordig veel hogere texturepacks gebruiken waardoor je met 8GB tegen heel wat issues gaat lopen.

Maja je kunt ook prima de texturepack settings op medium zetten ipv high of ultra.
Beste is inderdaad gewoon een paar jaar oude GPU over te nemen waar de kop vanaf is, net zoals bij auto's krijg je meer waar voor je geld.
Precies, zeker met Nvidia..
idd, zo lang je tevreden bent van je huidige hardware moet je die gewoon blijven behouden. Zo loop ik gemiddeld 2 generaties achter en kan ik heel goedkoop een 2e-hands kaart kopen op het moment dat ik de spellen die ik wil spelen (vaak minder veeleisend dan de toptitels, maar soms ook al een paar jaar oud) aanschaf.
Dit zie ik tegenwoordig steeds vaker, verzoeken om een game systeem in elkaar te zetten dat "minstens 160FPS haalt in [spel]". Bij levering van het systeem kom ik er achter dat ze gewoon een 60hz monjtor hebben, maar ondanks uitleg wil het er niet in dat de 200 op hun FPS counter geen fluit uit maakt.

Dit gaat dus niet om future-proofing of iets dergelijks, maar het geloof dat hoe meer FPS er bij de counter staat hoe beter hun game ervaring is. Dus heb it af en toe PC's gebouwd met een RTX 3080 en Ryzen 7 5700 voor spellen als Fortnite terwijl ze het verschil met een systeem van 1/4 van de prijs niet hadden gezien.
Ook op 60 hz heb je wat aan meer fps, dat je op 60 hz niets hebt aan 200 frames is niet waar en technisch incorrect. Je inputlag gaat ook op 60 hz omlaag, hoe hoger je fps is.
Zeker voor shooters is het heel erg merkbaar, 120 fps "voelt" veel en veel beter dan 60fps.
Maar je krijgt er weer screentearing voor terug, tenzij je Vsync aanzet maar dan ben je qua inputlag weer terug bij af.

Tenzij je competitieve shooters speelt weegt screentearing echt niet op tegen inputlag, en juist de competitieve gamer zit anno 2023 echt niet meer op een 60Hz scherm :P
Dit is idd de checkvraag waarmee ik mezelf in toom houdt. Ik wil best graag een nieuwe PC bouwen, maar is het echt nodig? Nee. de meeste games zijn op 60-90 fps ook prima vind ik, en de enige competitieve game die ik speel(rocket league) draai ik op 144fps. Dus nee, nodig niet. Dan kan ik nog wel ff wachten.
AI vereist tonnen VRAM.
Absoluut oneens, kijk eens naar de 6700 XT, vanaf 409 te krijgen en kun je echt lekker mee vooruit.
Dat is inderdaad een goede kaart en voor de huidige markt niet een belachelijke prijs. Maar blijft een feit dat een GPU nu gewoon echt duur is. Wat vroeger 300 was, is nu 500.

Ik zit nu met een gtx 1050 ti voorlopig goed als ik op 1080p blijf gamen, maar wil graag over naar iets dat een beetje comfortabel 4k 60 fps aankan. Ik heb het idee dat de door jou genoemde kaart dat nog net niet aankan, anders had ik die gekocht.

Maar wachten op een rx 7700... Of navi 32 gpu beter gezegd... Ik weet het niet.
Het is door een combinatie van:

- COVID chip-pijplijn problemen
- het extreem populair worden- en vervolgens instorten van minen
- de daaruitvolgende schaarste die prijzen tot in de stratosfeer opjoeg
- 3 jaar aan gigantische inflaite

enorm koffiedik kijken wat nou precies de basale prijs van een GPU is en wat nog steeds er aan toe bijdraag qua randfactoren.

Ik denk eerlijk gezegd dat we wel nog flink lang kunnen wachten tot we weer momentjes als de GTX 980 of GTX 1080 mee gaan maken, incluus dat de 'Ti' versies toen het daadwerkelijk waard waren.

Wat ik van het drama rond de 4080 = 4070 een beetje grappig vind is dat men van de 30xx generatie vergeten is dat daar hetzelfde trucje werd uitgehaald. De 3060 was namelijk op dezelfde chip als de 3050 gebouwd, terwijl de 3060Ti op dezelfde chip als de 3070 en 3070Ti was gebouwd.
Je vergeet iets nog, - bewust iets in standhouden wat allang al gefixt kon worden en zou resulteren in lagere prijzen.
Dat gebeurt nooit.. Bedrijven zijn altijd heel goed in prijzen laten stijgen met allerlei excuses zoals inflatie etc, maar zodra de kosten zakken zullen prijzen nooit evenredig meezakken, die blijven gewoon op het hogere niveau hangen.. Vooral in markten waar (te) weinig concurrentie is, zoals de GPU markt waar infeite maar 2 fabrikanten actief zijn.. 3 nu als je Intel ook meerekent..
Je vergeet een belangrijk punt, namelijk dat voor het eerst in de geschiedenis van de chip-industrie de geavanceerde nodes van chip-bakkers (in de praktijk: TSMC) niet goedkoper zijn per transistor dan de voorgaande node, maar even duur of zelfs duurder. Vroeger kreeg je bij elke generatie meer prestaties per euro, dat is niet meer het geval. Dus naar mate de prestaties omhoog gaan blijft de prijs ook stijgen.

[Reactie gewijzigd door bwerg op 22 juli 2024 14:11]

Dat verklaart echter geen prijsverschil van honderden euros, de chip zelf is slechts één onderdeel op een videokaart en kost op zichzelf nauwelijks honderden euros (waarschijnlijk is dat enkel bij de RTX 4090 het geval, net iets over de 200 misschien?) aangezien daar een flink grote die opzit.
De flink gestegen prijzen zullen vast te maken hebben met het feit dat tijdens de mining bubble videokaarten als warme broodjes over de toonbank gingen voor enorme prijzen. NVIDIA stapte daar vrij laat op in door de 'scalper marge' alvast in te calculeren en voor zichzelf te reserveren door videokaarten voor een stuk meer te verkopen.
Nu zijn ze lekker aan die prijzen gewent en proberen ze bij de RTX 4000 series dit nog een keertje en proberen er zelfs een schepje bovenop te doen.
Ik denk eerlijk gezegd dat we wel nog flink lang kunnen wachten tot we weer momentjes als de GTX 980 of GTX 1080 mee gaan maken, incluus dat de 'Ti' versies toen het daadwerkelijk waard waren.
Ben er ook bang voor.
Wat ik van het drama rond de 4080 = 4070 een beetje grappig vind is dat men van de 30xx generatie vergeten is dat daar hetzelfde trucje werd uitgehaald. De 3060 was namelijk op dezelfde chip als de 3050 gebouwd, terwijl de 3060Ti op dezelfde chip als de 3070 en 3070Ti was gebouwd.
En tot op zekere hoogte doet AMD het ook. Had de 7900xtx en 7900xt niet gewoon een 7900 en 7800 moeten zijn?
En tot op zekere hoogte doet AMD het ook. Had de 7900xtx en 7900xt niet gewoon een 7900 en 7800 moeten zijn?
Naar mijn mening had het gewoon de 7700XT & 7800XT mogen zijn. Het is jammer dat er nu een XTX versie is, wat concurreert met de RTX 4080, i.p.v. RTX 4090
En dan waren er misschien wel meer verkocht
Dat zou zeer goed kunnen ja :*)
Ik denk eerlijk gezegd dat we wel nog flink lang kunnen wachten tot we weer momentjes als de GTX 980 of GTX 1080 mee gaan maken, incluus dat de 'Ti' versies toen het daadwerkelijk waard waren.
En vooral: Waarom zouden ze prijzen laten zakken als ze meer winst maken met minder productie. Dat is dubbel win voor Nvidia en AMD.

Mercedes en BMW hebben hetzelfde trukje ontdekt. Meer en duurdere top specs en amper aandacht nog voor instapmodellen.
Tja, vroeger had ik ook een brood voor een euro,

Nu kost mijn brood ook bijna 3 euro, en dat brood is niet eens zo high tech

[Reactie gewijzigd door Scriptkid op 22 juli 2024 14:11]

En daar zit niet eens een graphics slider op ;)
Hij kan het op zich wel hoor, maar dan met enkele settings strategisch iets lager dan ultra en waar mogelijk FSR gebruiken. Maar het kan natuurlijk altijd comfortabeler :)
iets lager dan ultra
Hoeveel lager eigenlijk? Kom je weg met high?

Ik moet eerlijk zeggen over het algemeen ik quality settings vanaf medium acceptabel vind en high zelfs prima. Die slider helemaal op ultra schuiven geeft wel een kick maar ik zie het niet altijd helemaal terug ;) .
High is simpel hoor. Ik bedoel met strategisch van die settings die heel erg zwaar zijn zonder dat je eigenlijk het verschil ziet.
Of de 6700XT snel genoeg is voor 4k60fps zal eraan liggen welke titels je speelt, in heel veel games haalt die het makkelijk, maar zware games zoals de nieuwe spiderman zit je rond de 40-50 fps, lichtere games als Forza Horizon 5 zit je rond de 100 fps op 4k.
Hier een goede recente video betreft de 6700XT en 4k gaming:
https://www.youtube.com/watch?v=NrsWnck9HMY
Thanks. Dat ziet er helemaal niet onaardig uit! De performance in Valhalla viel een klein beetje tegen, maar dat reken ik meer het spel aan dat de kaart...
Maar wie gaat er nou een 5700xt upgraden voor een 6700xt, als je upgrade wil je toch wel flink sneller, en niet een klein beetje sneller dan je vorige kaart?
Same here. Ik vind de prijs nog te hoog voor een upgrade (prestatie verschil wat je gaat krijgen). Dus waarschijnlijk wacht ik nog op 1 generatie verder of voor een goede aanbieding.
Gelukkig loop ik nog nergens tegenaan met mijn 5700 XT, maar ik game dan ook op 1080p. Wel met een 165Hz scherm, maar met 50~60 fps ben ik al tevreden.
Ik speel op 1440p met een VRR-scherm, gaat ook nog prima. Niet alles op max uiteraard, maar prima te doen.
Zelf heb ik ook de 5700XT en kan (bijna) alles spelen op 1080p met ultra settings... En dat op een i7-4850 (een oudje) met DDR3 geheugen etc.. Natuurlijk kan ik meer uit die kaart halen, maar zolang ik casual kan gamen met 60fps (FC6, Anno 1800, RR2 etc.) zie ik geen reden voor een upgrade. Zodra er een nieuwe monitor komt (e.g. UWD of 4K), pas dan kom komt er een nieuw systeem. De 5700XT is voor 1080p een prima kaart.
5700XT is nog best een knappe kaart toch? Ik vind persoonlijk dat een 4070 niet genoeg extra performance bied om de sprong te maken.
Zelfde hier, RTX 2070 Super die ik net voor de mining-craze op de kop kon tikken; heb nog geen enkel spel in m'n library die problemen geeft op 1440p.

Als ik kijk wat ik toen tweedehands betaalde en wat ik nu tweedehands (laat staan nieuw) kwijt ben voor een noemenswaardige upgrade dan zie ik ook geen enkele reden om te wisselen. Het enige wat ik op zou schieten is wat extra e-peen en hoger stroomverbruik.
Bedenk je wel dat de inflatie sinds 2019 ook gigantisch is, een heel stuk meer dan 10%. Uiteindelijk als je de inflatie in gedachte houdt valt de huidige prijs best mee, alles is gewoon een stuk duurder, kijk naar een fles 1.5 liter coca cola, die is nu ook meer dan 30% duurder dan in 2019. Leuk is het niet, maar het is wel de realiteit. Je kunt dus nu niet meer rechtstreeks de prijs uit 2019 vergelijken met die van nu zonder ook inflatie erbij te betrekken.
Check vraag en aabod hier.
zie net een 6950XT voorbij komen voor 620 eurie.
Mooi prijsje.
Altijd al geweest hoor.
Mijn gtx 1080 was 750 euro.

Een hobby kost nou eenmaal geld.
9 keer zoveel L2 cache!

Dat zet wel zoden aan de dijk. 8-)
Sheelt het hebben van een grotere cache niet best veel in energie gebruik?

Want de infinity cache van AMD verlaagde het verbruik van de GPU behoorlijk voor hetzelfde aantal FPS.
De chip gaat dan meer stroom pakken. Dat cachegeheugen zal elke paar reads ververst moeten worden. Dat kost wat stroom, maar daar krijg je zoooo veel performance voor terug. 8-)

Een cache miss (ik kijk in het cache, maar de data is er niet, zodat ik een geheugen level hoger moet gaan kijken, dat een orde van grootte langzamer is) is duur, qua tijd. Daar wil je zo min mogelijk last van hebben. Hoe groter de cache, deste minder misses.

[Reactie gewijzigd door hooibergje op 22 juli 2024 14:11]

Je vergist je. Zonder de cache had je veel meer GDDR reads gehad. En omdat GDDR fysiek verder weg is van de CUDA cores, is zo'n GDDR read een stuk onzuiniger dan een cache read.

Een cache miss is duur in vergelijking met een cache hit, maar een cache miss is nauwelijks duurder dan geen cache gebruiken en direct naar GDDR gaan.
9 keer zoveel L2 cache!

Dat zet wel zoden aan de dijk. 8-)
Dit is de opvolger van de 3070. In vergelijking met die kaart zal de 4070 zo'n 30% sneller zijn. Maar de prijs is 20% hoger. Ofwel in anderhalf jaar tijd weet Nvidia slechts 10% meer prestaties te bieden voor een flink hoger bedrag. Dat is gewoon afschuwelijk slecht.

Je wordt compleet genaaid door Nvidia als je hun kaarten koopt. En zelfs nu nog zit je maar met 12GB VRAM. Tegenwoordig is 8GB VRAM voor 1080p Ultra al te weinig. 12GB is dus maar net aan genoeg en zeker niet voldoende om over 3~4 jaar nog op hoge instellingen te kunnen gamen. Deze 4070 is een bijzonder slechte deal. Want laten we wel even realistisch doen. Met zulke prijzen ga je echt niet meer elke 2 jaar een nieuwe kaart kopen. Die moet dan echt wel flink langer mee. Maar Nvidia zorgt ervoor dat dit niet te doen is door de kaart nu al krap uit te meten met de lage hoeveelheid VRAM.
Ik ben zo'n mafketel die een GPU gebruikt om modellen op door te rekenen, en voor wat ik nu doe is zelfs 8 GB rijkelijk voldoende. :-)

Dan hoef ik geen shared memory model uit te programmeren, wat meer gepuzzel zou zijn om het snel te krijgen. Nu is het 'hoi, hier is je data, hier heb je een paar duizend threads, reken maar uit, ik hoor het wel als je klaar bent.' 8-)
Is erg afhankelijk van het model. Ik liep zelf met de 2080Ti al tegen geheugen limitaties aan. Ik heb nu een 4090 en hoef voorlopig niet aan geheugen management te denken.
Nice! Wat voor soort modellen draai je, dan? :-)
Economische (ALM) modellen.
Oh, dat is echt een compleet andere tak van sport. Fun! 8-)
GPUs maken iedereen blij :-)
en voor wat ik nu doe is zelfs 8 GB rijkelijk voldoende. :-)
Klopt maar de meeste mensen gebruiken die kaarten om te gamen en sommige settings verbruiken nu eenmaal geheugen. 12 Gb lijkt veel maar als je wat future proof wil zijn en High res (al dan niet 4K) + raytracing wil draaien is dat eerder aan de lage kant. Games slurpen immers elke generatie meer geheugen op. Zelfden wordt een wereld kleiner of worden de textures kleiner.

De 4070ti is bijna dubbel zo snel als een Console GPU. Dus een 4070 zal zeker 60% sneller zijn dan een console die tegenwoordig ook al zoveel mogelijk naar 4K schalen en VR brillen uitbrengen. De 4070 en 4070ti zijn alles behalve trage kaarten die wel iets meer geheugen mogen krijgen als een console GPU om ze tenvolle te benutten. Nu en in de toekomst.

Zelfs op een 3060 is 12Gb ram minimaal 10% sneller. (bron) Dus ook dat geeft al wat aan dat 12Gb eigenlijk een ondergrens is om geen bottle neck te zijn voor uw GPU.

[Reactie gewijzigd door Coolstart op 22 juli 2024 14:11]

Verwachten dat je "Ultra" settings kunt gebruken op een x070 kaart is natuurlijk ook wel een beetje optimistisch. "Ultra" is natuurlijk geen objectief label; het is een setting die de game-makers gebruiken voor de beste kwaliteit die technisch mogelijk is. En dat is dus een setting die feitelijk bedoeld is voor x090 kaarten.

Nu zal een 4070 wel redelijk vergelijkbaar zijn met een 2080Ti, dus games uit die periode zullen wél in Ultra speelbaar zijn. En de 12 GB nu is meer dan de 11GB van 2080Ti.
Het probleem wat we nu met 8 GB kaarten bij diverse spellen al zien is dat de chip op de kaart veel meer aankan, maar dat het geheugen de kaart beperkt. Bij een enkel spel is 12 GB ook al een probleem. En aangezien de consoles 16 GB hebben, is dat straks vermoedelijk een sweet spot voor veel games.

Sowieso vind Nvidia dat we aan de RT moeten, maar dat gebruikt meer geheugen, dus wat mij betreft schieten ze zich in de voet door dan krap in het geheugen te gaan zitten.
Let wel, bij consoles is die 16GB het totale RAM geheugen, dus niet alleen die van de GPU, waar bij gamers meestal het 'gewone' geheugen toch al 16GB is of meer, naast de 8/12GB GPU geheugen. Zelf ben ik overigens wel van mening dat elke nieuwe GPU gewoon minimaal 16GB moet hebben, dus ook de 4060.
Raytracing is met de huidige armlastige hoeveelheden VRAM niets anders dan een gimmick - tegen de tijd dat het gebruikt wordt kunnen de kaarten van nu het weer niet aan.
Je wordt net zo hard genaaid door AMD als je hun kaarten koopt. Ik ben met je eens dat 12GB te weinig is en dat elke nieuwe kaart minimaal 16GB moet hebben, maar bij het rode kamp is het niet anders, en als beide kampen dit doen dan zal daar wel een reden voor zijn.
En de prijs mag dan wel 20% hoger zijn dan bij de release van de 3070, maar in feite is de prijs helemaal niet hoger, de inflatie sindsdien is meer dan 20%. En zowel AMD als Nvidia hebben beiden ook gezegd dat de steeds krachtigere GPU's duurder worden om te maken omdat het steeds complexer wordt en hoe kleiner hoe duurder (omdat ze de kleine technologie meteen gebruiken ipv jaren te wachten tot de prijs van kleine technologie minder duur is).
Beide kampen hebben te maken met 'verhoogde' prijzen en 'mindere' prestatievooruitgang. Dit is niet alleen bij Nvidia. Je moet dus wel realitistisch blijven en niet alleen met oogkleppen op voor 1 kamp. Wil je graag AMD kaart kopen? zeker doen, het zijn ook goede kaarten en hebben ook zo hun voordelen boven Nvidia, maar andersom is net zo goed.
AMD is op de 6700 wel iets guller dan Nvidia. Maar gek genoeg lijkt het er vooralsnog op dat nota bene de Intel-kaarten het langer uit gaan houden (gegeven dat ze de drivers blijven updaten).
Ja, de 16GB op de A770 was zeker een verrassing, maar er is ook een (non intel) lijn van de A770 met maar 8GB.
ASRock heeft inderdaad maar 8GB op de A770, maar Acer levert daarentegen de volle 16GB.
Bewuste keuzes van zulke malafide praktijkjes om meer winst te kunnen genereren want zodoende moeten wij consumenten veel eerder een nieuw kaart weer kopen :)

Basisregel voor mezelf is altijd jezelf afvragen waarom doen zij datgene wat zij doen? Dan wordt je wellicht vanzelf wel meer skeptisch maar dat is ook wel nodig in een wereld vol bedrog en verleidingen.
Inderdaad, en dan kan je alleen maar concluderen dat ze dit doen om mensen te bedonderen. Mensen die voor het hoogste nummertje gaan zonder verder te kijken (uitkijken dat je er zelf niet intrapt, dat je denkt dat een 4080 per definitie beter zou moeten zijn dan een 4070, altijd controleren!).

Pure oplichting van mensen die er niet op letten of geen verstand van hebben.
Dat is een behoorlijke lage bedrijfstactiek, maar ze doen het al decennia, en komen er nog altijd mee weg.

Dat gezegd hebbende, wat is het alternatief? Alsof AMD (of ATI destijds) nooit dat soort dingen flikt? En wat dacht je van CPU's, die doen dat ook.

Een boycot zal er dus niet in zitten, je ontkomt niet aan partijen die dit flikken (en dat weten ze, dus blijven ze ook lekker zo door gaan). Enige wat er van gezegd kan worden is dat je gewoon donders goed moet opletten.
Tegenover de 3070 een prijs verhoging van 20% tegenover een rasterized performance increase van (speculatief tov de specs) 30%.
20% performance increase vs 3070 TI.
Verre van geweldig maar het lager stroom verbruik is ook wel een mooi pluspunt.
Komt daarmee ongeveer gelijk te liggen aan de performance van een 3080 wat voor 600msrp mij ook weer niet afschuwelijk lijkt.

[Reactie gewijzigd door faxityy op 22 juli 2024 14:11]

Ik heb de indruk dat 20W lager stroomverbruik nu niet direct veel impact zal hebben. Als je elke dag 3 uur gamet aan volle performance is dat over een jaar gespreid ongeveer 22 kW bespaard. Dat komt neer op ongeveer 13,44 EUR volgens de gemiddelde prijzen. Zelfs bij de duurste leverancier zou het 19,27 EUR zijn. Per avond is dat iets van 5 cent bespaard. Denk dat je al gauw meer geld kunt besparen door gewoon een framerate cap van 60 FPS in te stellen...
Voor het stroomverbruik zelf maakt het wellicht niet veel uit. Maar het wil ook zeggen dat je andere componenten (lees: je PSU) wat kleiner kunnen blijven.
Zelfs dan nog... 20W lijkt me nu niet echt iets waardoor je pakweg een PSU van 550 ipv 600W kunt kiezen.
Het zou voor mij wel schelen in de aanschaf van een nieuwe power supply. 200tdp kan met mijn oude, als het hoger uit zou vallen zou ik een nieuwe nodig hebben. Maar deze situatie is vrij persoonlijk natuurlijk
Ofwel de 4070 is goedkoper bij release dan de 3070, want de inflatie sindsdien is ver boven de 20%. mensen lijken nogal te vergeten dat alles een heel stuk duurder is geworden, maar gaan dan toch nog steeds rechtstreeks zitten vergelijken met de oude prijs. Leuk is anders, maar het is gewoon de realiteit, of vind je dat fabrikanten niet hun prijzen mogen aanpassen om hun gigantisch gestegen kosten ook nog te mogen terugverdienen? Ik geloof rustig dat de marge op de kaarten nu zelfs nog minder is dan tentijde van de 3070 release.
Jij gelooft echt dat zij prijzen puur verhogen voor de gestegen kosten? Nu dat alles weer beetje normaal is bijgetrokken qua chips en gas/electra?
Uhm, als ik naar de supermarkt ga, dan kan ik weinig spreken over 'normaal is bijgetrokken'.. Een fles 1.5 liter coca cola kost nu meer dan 30% extra ten opzichte van 2019.
En het is gewoon een feit dat het produceren van GPU's op deze kleinere schaal duurder is, dat zeggen zowel AMD als NVidia en andere chip fabrikanten. Over 10 jaar dan zal de prijs van gebruik van de huidige kleine schaal wel goedkoop zijn, maar nu kost elke verkleining een stuk meer dan de generatie ervoor.
Of vind jij dat werkgevers/fabrikanten die verhoging van bv loonkosten niet mogen doorrekenen aan hun klanten (wat in Nederland bv al meer dan 10% verhoging was sinds 1 januari)?
Linus tech legt het haarfijn uit waarom dit niet de enige reden is. Zij houden dit ook bewust kunstmatig hoger dan het zou moeten.

Mining heeft het vooral ook opgejaagd en de hoge verwachtingen tijdens covid.

Nogmaals. Denk je echt dat dit alleen komt door de opgenoemde dingen wat jij aangeeft?
Het probleem is niet zozeer dat alles duurder is geworden, inclusief videokaarten, maar dat onze lonen niet zijn meegestegen en zijn achtergebleven.
Ja klopt helemaal, echter komt dit voor mij alsnog over als "alles is duurder" want zolang lonen niet mee schaalt dan zal vanzelf alles duurder worden. Als onze lonen omhoog zouden gaan op hetzelfde schaal als dat die prijzen stijgen dan blijft alles zoals het altijd al was geweest vanaf het moment dat je zoiets voor het eerst koopt.
Jammer dat er niet een 40 serie komt met heel veel geheugen. Bijvoorbeeld met 64gb of 128gb.
Ik gebruik steeds meer machine learning voor mijn projecten. En video geheugen is heel erg welkom.
Maar de A serie kaarten zijn echt knetter duur. De traagste 40 serie met veel geheugen. Dat is wat ik nodig heb.
voor professionele kaarten rekenen ze nu eenmaal ook een professionele prijs :/ hopen dat je software met resizable bar overweg kan en wat extra ram steken?
Voor het meeste professionele gebruik is een Geforce voldoende. Denk aan 3D modeling, game development, videobewerken, etc. Quadro kaarten hebben alleen zin als je echt héél veel geheugen nodig hebt (meer dan 24GB anders ben je met een RTX 4090 beter af) of iets specifieks doet waarvoor je die professionele drivers nodig hebt.
CAD software maakt daar bijvoorbeeld gebruik van. Gewone 3D modeling software niet.

Nvidia is hier ook bewust vaag over. Je kunt geen benchmarks vinden, nergens specifieke getallen of zelfs informatie over de specifieke functies in de drivers.

[Reactie gewijzigd door Wolfos op 22 juli 2024 14:11]

Iets waar verder natuurlijk niet een grote afzetmarkt voor is. Dan betaal je waarschijnlijk nog meer dan de A- serie voor zo een kaart.
Tja, wat jij nodig hebt is wel behoorlijk kleine markt, daarvoor zijn juist dus die A-serie kaarten bedoelt. een doorsnee gamer heeft, de komende 10 jaar, geen bal aan 64GB of 128GB aan geheugen nodig op de GPU zelf.
Jammer dat videokaarten je niet de mogelijkheid bieden om zelf dingen op te installeren en te upgraden qua hardware. Dat je ergens een los Vram op kunt insteken en hiermee je Vram kunt upgraden.

Moet technisch mogelijk zijn maar ik denk dat bedrijven daar niet zo op zitten te wachten want minder winst :) In mijn ogen is dat dus minder goeie ontwikkelingen.

[Reactie gewijzigd door deniz280 op 22 juli 2024 14:11]

$599 betekend dus €700 hier in Europa. De 4070ti is $799 msrp en die zie je hier ook niet onder de €900 op Pricewatch.

Voor €700 vind ik een RX 6950 XT er toch aantrekkelijker uitzien. Als ik hier kijk dan heb je dan performance die hoger ligt dan een 4070ti op normale 3D en RT performance die tussen een 3070ti en 3080 zit op 1440p. Ik wil deze zomer mijn 2070 super gaan vervangen en denk er serieus over om NVIDIA deze keer links te laten liggen.
De 4070ti is $799 msrp en die zie je hier ook niet onder de €900 op Pricewatch.
Nou... sinds vorige week:
https://tweakers.net/pricewatch/1899012/inno3d-geforce-rtx-4070-ti-x3.html
Toch één hele € onder de 900! :+
wat ik me nu afvraag is hoe goed deze daadwerkelijk gaat presteren ook tegenover rtx 20 kaarten of de gtx 1600 series, persoonlijk denk ik dat er nog steeds een meerderheid gamed met kaarten van 4 jaar of ouder. zelf ben ik in bezit van een RTX 2080 geen super, geen revisie, geen ti. Ook draai ik nog alles op ultra 1920x1080 met 60 fps of meer, zoals hogwarts legacy (m.u.v. cyberpunk 2077 welke heel erg schommelt tussen 38 fps en 65 fps met rt en dlss).

de 3070 was eigenlijk al een verbetering van de 2080, in hoeverre wordt een 4070 dan een verbetering of interessant?
' persoonlijk denk ik dat er nog steeds een meerderheid gamed met kaarten van 4 jaar of ouder. '
Dat hoef je niet te denken, dat blijkt keer op keer ook uit de steam hardware survey: https://store.steampowere...e-Survey-Welcome-to-Steam
De 1650, 1050 Ti en 1660 (Super) zijn onverminderd populair. De verklaring daarvoor is dan ook ontzettend simpel: dat waren de laatste normaal geprijsde midrangekaarten van Nvidia.
Ik speel ook nogsteeds op een 2070super, 1080p is nog altijd goed te doen, ook vaak nog wel met 120fps en ik raak aldoor meer uitgekeken op trippe-A en verkies steeds vaker simpele spelletjes die ik snel even kan spelen, zoals Nova Drift.

Echter, ik ben zo iemand die altijd het nieuwste wilde hebben. Puur vanuit mijn hobby vind ik het superleuk om te klooien met nieuwe videokaarten en bijbehrende settings in games. Daar spendeer ik vaak veel meer tijd aan dan daadwerkelijk het spel te spelen. Dit is nu echter totaal belachelijk geworden en ook gewoon niet rendabel. Gelukkig zijn er genoeg youtube videos te bekijken zodat ik dit gevoel alsnog kan beleven zonder een dure videokaart te hoeven kopen. Het blijft echter aan me knagen, dit was 20+ jaar mijn hobby en hoewel ik heus nogsteeds veel geld zou kunnen uitgeven aan die nieuwe spulletjes voelt het gewoon niet ok. Ik moet mezelf nu dagelijks blijven vertellen dat het allemaal niet nodig is alsof ik zwaar moet afkicken van de drugs. Lastig! :X :Y)
Zit nog op een GTX1070 ftw en de meeste games doen het nog prima op 1920x1200. De paar keer dat ik problemen had waren door mijn 6600k (Vooral denuvo games als yakuza kiwami etc), sinds er een 5800x in de pc zit loopt alles als een zonnetje.

Voor emulatie en de betere stream encoder zou ik wel een nieuwere kaart willen hebben, maar toch echt niet voor meer dan 450ish euro. Ik wacht wel tot amd met een 7600xt/7700xt komt voor een redelijke prijs en anders slaan we nog een generatie over.
Ik heb 10 jaar lang nog met een 980 gespeeld :) Werkte helemaal prima op 2k resolutie ook.. meeste games high settings en capped op 60 en af en toe dipte het wel naar beneden bij nieuwere games.

Nu heb ik een 3080 en dit hou ik ook wel weer minimaal 4-5 jaar denk ik.
Oke, die 12GB verraste mij wel na al die 8GB leaks.. maar daar zijn het leaks voor ;-) die prijs tho.. denk dat ik bij m'n 3060ti blijf
Wat wel even een dingetje is om rekening mee te houden is dat de RRP voor de FE editie is. Kaarten van Asus, MSI, etc gaan een tikkeltje meer kosten. En dan komt deze kaart in eerste instantie toch aardig in de buurt van de 7900XT. Keuzes, keuzes...

[Reactie gewijzigd door pepsiblik op 22 juli 2024 14:11]

500 zou een mooie prijs zijn geweest, 600 begint helaas al in high-end terrein te komen.
High-end terrein is helaas al een aantal jaar naar 1000+ euro verschoven. Vroeger was 500-600 euro high-end, tegenwoordig mid-range, wat echt belachelijk is.
Misschien wordt het dan waard te kijken voor een 3070 TI als ze ongeveer hetzelfde gaan kosten. Lijkt mij sterk dat de 3070TI dan niet in prijs gaat dalen.
Waarom zou je nog voor een 3070TI gaan als de 4070 sneller is en minder zal slurpen?
Omdat je Nvidia niet wilt belonen met hun nieuwe wijze van markvorming
Nieuwe wijze van markvorming?
Linus tech tips geeft hier een mooi uitleg bij waar Nvidia mee bezig is en waarom men juist de 4000 series zou moeten skippen als je wilt dat dit niet een blijvend trend wordt qua prijzen/performance ratio.
Ik denk dat het naief is om te denken dat je als consument veel invloed daarop hebt door een enkele generatie te skippen. De rest is aan de markt, en nVidia lijkt zich wel te vergalloperen met de 40X0 serie.
Veel niet nee maar wel wat verschil.

Als je alleen kijkt naar de ontwikkelingen toen destijds met covid en miners.

Linus had hier toen destijds ook heel fijn uitgelegd waarom deze prijzen zo hoog werden gehouden en dat zij dit ook opnieuw deden met hun nieuwe serie videokaarten 3000. Nu hebben zij bewust die prijzen vastgehouden wat eigenlijk voortkomt uit tijden waar inflatie niet eens zo hoog was maar de vraag hoger was doordat miners alles opkochten.

Nu heb je dus geen miners (althans stuk minder) en is de chip tekort ook weg + gas/electra weer naar normalere prijzen. Toch zie je de prijzen nog hoger dan zijn vorige generatie opnieuw. Dat klopt niet en daarom zie je ook dat vergalopperende effect met de 4000 series ;) Mensen weten nu wel wat beter ipv zij roekeloos zo'n kaart van 1200-2000 euro gaan incasseren.

Tenslotte zal Nvidia dit ook goed observeren en wellicht twee keer beter nadenken bij de volgende generatie videokaarten.

[Reactie gewijzigd door deniz280 op 22 juli 2024 14:11]

Ik denk niet dat een handje gewetensvolle gamers echt iets betekenen in de massa. Ik vond mijn 2070S voor 550 al te duur vier jaar geleden, en die voldoet in nagenoeg alles nog. Maar ik weet ook dat ik niet de massa vorm. Als ik morgen ineens een nieuwe kaart nodig heb, dan heb ik weinig keus behalve uit die hele dure generatie, of ik moet een zeer beperkte performance winst op de koop toe nemen.

Aan de andere kant, nu dit plan backfired, en mijn kaart het nog prima doet, kan ik ook wachten tot de volgende lichting in de hoop dat die relatief goedkoper is.
Ik ben vorig jaar van een rtx780 naar een 2060 gegaan omdat de rtx het na 8 jaar opgegeven had. De 2060 die ik nu gebruik kan alles makkelijk aan wat ik speel. Een 3070TI is technisch gezien al overkill en zoals andere gezegd hebben is de 40xx over het algemeen veel te duur.
Maar dan nog, als ze even duur zijn waarom zou je dan voor de 3070TI gaan ipv 4070? Als ze even duur zijn, of de 4070 een fractie duurder, dan ben je toch dom als je nog voor de oude, tragere, slurpendere kaart zou gaan. Heb zelf ook nog de 2060super, maar voor VR merk ik toch al wel zelfs al met mn HTC Vive Pro(1) dat die te traag is.
Als ze even duur zouden zijn ok, maar ik zei ook dat ik mogelijk eventueel alleen een 3070TI zou gaan halen als die in de prijs zou gaan zakken.
50 euro verschil volgens mij, dan is de keus snel gemaakt...
Kan je dan niet beter wachten op de 4060(ti)?
Zelf met prijsdaling is een 3070ti zeer duur voor een relatief oude kaart.
Heeft de 3070Ti ook niet maar 8GB VRAM? Dat is echt enorm weinig tegenwoordig
Linus tech tips heeft al paar maanden geleden voorspelt dat de 3000 series niet meer in prijzen zal dalen en ook bewust. Nvidia wilt dat je geen oudere kaart haalt maar hun nieuwe series kaarten voor max prijs.

Op dit item kan niet meer gereageerd worden.