GeForce 4070 Ti-videokaart duikt op in supportpagina van Nvidia

De Nvidia GeForce 4070 Ti-videokaart is opgedoken in een supportpagina van de Omniverse View-applicatie. Dat is een app van Nvidia waarmee gebruikers kunnen samenwerken aan 3d-gerenderde projecten. Hiermee lijkt het bestaan van de 4070 Ti officieel te zijn bevestigd.

De videokaart was in september aangekondigd als de RTX 4080 12GB en zou aanvankelijk in november beschikbaar komen naast de RTX 4080 16GB. De introductie werd in oktober echter geschrapt na kritiek. Volgens sommigen was de 12GB-variant van de RTX 4080 immers meer een veredelde 4070, in plaats van een volwaardige 4080. Later verschenen geruchten dat Nvidia de videokaart zou herintroduceren als de RTX 4070 Ti.

De specificaties van de videokaart zouden volgens die geruchten wel dezelfde blijven, enkel de naam zou veranderen. De vermeende GeForce RTX 4070 Ti zou net als de geannuleerde kaart beschikken over 7680 CUDA-cores, een 2,6GHz-boostkloksnelheid en 12GB GDDR6X-geheugen. Ook de tbp van 285W en de 192bit-geheugenbus met een doorvoersnelheid van 21GB/s blijven van toepassing. Over de prijs en releasedatum van de vermeende 4070 Ti wordt nog gespeculeerd. De geannuleerde RTX 4080 12GB had een adviesprijs van 1099 euro, wat een prijsindicatie is voor de betreffende videokaart.

Wanneer de videokaart op de markt verschijnt, is nog niet bekend. Een Italiaanse webwinkel heeft begin december wel een webpagina voor de grafische kaart online gezet met daarop een aftelklok voor een ASUS TUF-variant van de kaart. Die aftelklok loopt op 5 januari af. Nvidia zou de kaart begin januari aankondigen op CES.

Nvidia GeForce RTX 40-kaarten
Videokaart RTX 4090 RTX 4080 Vermeende RTX 4070 Ti
(geruchten)
Architectuur Ada (TSMC 4N) Ada (TSMC 4N) Ada (TSMC 4N)
CUDA-cores 16.384 9728 7680
Boostsnelheid 2,52GHz 2,51GHz 2,61GHz
Geheugen 24GB GDDR6X 16GB GDDR6X 12GB GDDR6X
Geheugenbus 384bit 256bit 192bit
Tbp 450W 320W 285W
Releasedatum 12 oktober 2022 November 2022 5 januari 2023
Adviesprijs 1869 euro 1399 euro Onbekend

Door Jay Stout

Redacteur

28-12-2022 • 17:28

88 Linkedin

Reacties (88)

88
88
43
7
0
30
Wijzig sortering
Wat zal de performance worden ten opzichte van de voorgaande 3000 serie? Wellicht vergelijkbaar met 3080 of 3080 Ti?
Ik render nogal wat met de GPU (niet met Octane) maar in principe telt dan vooral het aantal CUDA cores en schaalt het redelijk proportioneel mee. Dus het is best apart dat een kaart met 7680 cores zou winnen van een kaart met meer dan 10k cores. De enige verklaring lijkt mij dat er nogal wat 'beauty' passes zijn die bijvoorbeeld wat nieuwe technieken gebruiken.

In de FAQ van Otoy staat ook letterlijk: "OctaneRender scales linearly with the number of CUDA cores within a given GPU architecture (e.g. the GTX 690 with 3072 CUDA cores is twice as fast in OctaneRender as the GTX 680 with 1536 CUDA cores)."

Ik render zelf vooral in V-Ray en Keyshot (beiden GPU) en waar ik ooit 2x1070 had, toen een 2080 Ti en een 1070 en nu een single 3090 is de performance altijd een optelsom van de aanwezige CUDA cores. Dus ik moet nog even kijken of ik de vrij lompe 2080Ti in deze case kan frommelen omdat ik die cores wel kan gebruiken. Dan kom ik in Keyshot en V-Ray GPU redelijk richting een single 4090 qua performance 14k vs 16k cores.
"telt dan vooral het aantal CUDA cores en schaalt het redelijk proportioneel mee". Je hebt gelijk, als het dezelfde core clock speed betreft. Dit is redelijk gelijk gebleven in de 1000, 2000 en 3000 serie. Echter, verandert de kloksnelheid heel erg van de 3000 naar de 4000 serie.

Het klopt wel wat icall5s zegt als men uitgaat van de formule (CUDA cores x boost core clock speed in Mhz), dan krijgt men respectievelijk 7680 x 2610 en 10752 x 1860 voor de RTX 4070 Ti en RTX 3090 Ti die beide rond de 20 miljoen uitkomen bij deze rekensommen.

Wat er niet klopt is dat de 4070 Ti een 192 bit geheugenbus heeft ten opzichte van 384 bit bij de RTX 3090 Ti en deze heeft dus de helft van de geheugenbandbreedte van ongeveer 1 TB/s (GDDR6X/384 bit) wat neerkomt op ~ 500 GB/s (GDDR6X/192 bit). Ik weet niet of dit impact heeft op de snelheid van het renderen maar ik vermoed van wel.
"Ik weet niet of dit impact heeft op de snelheid van het renderen maar ik vermoed van wel."

Dat zal wel iets doen met de tijd om de render te starten maar in praktijk niet echt met het renderen zelf. Tijdens het renderen via de GPU wordt er niets meer met het geheugen gedaan, je scene moet dus ook daadwerkelijk in de GB's van de GPU passen wil je hem over GPU kunnen renderen. Nu is V-Ray wel bezig met een soort van hybrid mode maar die is alles behalve stabiel.

Op veel forums van 3D geeks hebben veel mensen bijvoorbeeld liever 2x3090(Ti) ipv een 4090 of zelfs 2x4090. Dat komt omdat nVidia het nodig vond om NVLink te killen wat 2x3090(Ti) een interessante optie maakt omdat je met je GPU render 48GB kunt aanspreken (V-Ray/Cycles etc ondersteunen dat bijvoorbeeld) terwijl je niet de astronomische bedragen hoeft te betalen die nVidia wil voor de 'pro' serie Quadra/Tesla etc. Een RTX A6000 kost zo'n 6800 terwijl je dan wél 48GB hebt maar nog steeds 10k aan CUDA cores. Koop je dan bv gewoon 2x een al dan niet nieuwe 3090(Ti) dan ben je een stuk rapper voor een stuk minder geld (wanneer je wil renderen over GPU).

Wanneer je bij V-Ray kijkt bij de CUDA benchmarks zie je bijvoorbeeld ook 2x4090 sneller zijn dan 2x NVIDIA A100-SXM4-40GB. Dat is €4000 euro vs. €60000 euro. Nu kan die laatste sommige dingen echt wel beter maar voor GPU renders is het onzin. Behalve dus als je meer dan 24GB geheugen wil, dan moet je vooralsnog naar 2x3090 met NVLink, naar een pro-serie, of wachten tot de consumer kaartjes meer geheugen krijgen (wat ik voorlopig niet zie gebeuren).
Vrees van niet, de 70 is meestal iets minder als de 80ti van de vorige range.

We kunnen met zijn allen alleen maar hopen dat ze met flink wat kaarten blijven zitten op deze manier en dat de prijs zo wat omlaag gaat.

Kijk je echter naar de inflatie van andere producten lopen ze redelijk in de pas helaas. Omdat het hier om grotere bedragen gaat valt het meer op, maar kijk maar eens goed naar een supermarkt bonnetje van 3 jaar terug en dan 1tje van vandaag.
Het verschilt erg per generatie.

de 1070ti is bijvoorbeeld wel sneller dan de 980ti.

Ook werkt inflatie heel anders op supermarktproducten dan op computerhardware, In tijden van inflatie zie je best vaak dat computer hardware goedkoper wordt, omdat de vraag inzakt, doordat mensen minder geld over hebben, en verkopers daardoor gedwongen worden om prijzen te verlagen om de hardware te kunnen verkopen.
Zou kunnen, maar ik weet nog dat mijn 1080ti echt beter was (zonder raytracing) als een 2070. Dus met de informatie die ik heb maar geantwoord.

De huidige inflatie is geen normale inflatie meer, de dubbele cijfers vliegen om je oren. Mensen eisen meer loon etc, ook bij Nvidia.

Het lijkt erop dat we onderweg zijn naar een wereld waarin Jan modaal het van marktplaats moet hebben voor zijn tech.
Ik zie het anders. De RTX4000 serie loopt voor op wat games en consoles (en dus gamers) nodig hebben én er is een groot rtx3000 stock.

Die twee zaken samen zorgen ervoor dat de nieuwste generatie heel duur wordt. Als ze de 4000 even duur maken als de 3000 serie graken ze niet van hun stock af.

Wie koopt de 4000 serie? Een nichepubliek die kost wat kost alles op ultra willen spelen op 4K of een VR headset hebben. Die groep is eerder klein = dure GPU’s.

Pas bij de next gen consoles zullen nieuwe GPU’s goedkoper worden.

Ook die ‘ultra’ settings in games zijn eigenlijk een gimmick. Er zijn weinig games die er echt beter uitzien met raytracing. Ook dat zal nog even duren.

Voorlopig kunnen pc-gamers nog goed mee met €500-€700 kaarten. Die zijn high-end genoeg om meer frames te genereren dan de huidige generatie consoles. Het zijn immers consoles die de benchmark zijn voor game devs. Dat is altijd al geweest.

Die ultra settings kosten je vaak veel fps voor heel weinig meerwaarde.

Zelfs de 4070ti is overkill voor de high-end gamer en zolang je maar wegblijft van de ultra settings.
Draai het om. Als je van je oude stock af wil, gooi je het in de aanbieding. Dat is hoe het overal werkt, behalve kennelijk bij Nvidia.
Je gooit enkel iets in de aanbieding als je het anders niet tijdig verkocht krijgt. Dat is hier blijkbaar niet het geval. Zolang er vraag is zal de promo uitblijven. En door de 4000 serie zo duur te maken blijft die vraag komen.

Heel veel producenten en leveranciers hebben ooit allerlei chips ingekocht om de rtx 3000 kaart bouwen. Je moet geen helderziende zijn dat ook zij Nvidia onder druk zetten om geen goedkope 4000 kaart op de markt te brengen.
beter dan*

Ik weet niet of het nu direct uitmaakt wat er sneller is of niet. Met de huidige prijsstijgingen ben ik erg bang dat deze kaart niet meer fps per euro zal leveren dan een 3080Ti of 3080 zal doen. Dus dan maakt het mij niet uit of er 40 of 30 op de doos staat…

De 4080 en 4090 zijn ook gewoon nog steeds kneiter duur voor de fps die ze leveren. Daar hoef ik persoonlijk geen geld aan uit te geven. Een nieuwe generatie moet ook gewoon de oude generatie obsolete maken in fps per euro, anders is het geen nieuw product.
Dat is altijd zo geweest en moet ook gewon zo blijven

[Reactie gewijzigd door youridv1 op 28 december 2022 20:07]

Helemaal mee eens, plus dat de games welke ik speel niet het nieuwste van het nieuwste nodig hebben.

Toch is mijn PC inmiddels weer bijna 4 jaar oud met de (destijds nog betaalbare) 2080 er in en wil ik hem gaan vervangen. Op deze manier ga ik na een jarenlang Nvidia gebruiker te zijn geweest, toch ook eens mezelf weer inlezen op AMD. Normaal gesproken ben ik vrij honkvast, maar 1300+ voor een videokaart begint echt serieus geld te worden.
Kijkend naar de specs en de benchmarks van o.a. de 4080 etc gok ik dat de 4070Ti vergelijkbaar zal zijn met een RTX 3090Ti..

Dan krijg je dus ongeveer 20-25% meer prestaties dan een RTX 3080 voor eveneens 20-25% meer geld.. Mooi hè.. Maar er zullen vast wel weer mensen zijn die gaan lopen beweren dat het een goede prijs is etc omdat de RTX 3090Ti 2x zo duur was.. Alsof de videokaart markt van 2021 en begin 2022 toen die 3090Ti uitkwam normaal was ofzo.. Deze nieuwe generatie is een totale ramp qua prijzen, voor sommige modellen is de prijs/prestaties verhouding zelfs een stuk slechter dan die van de vorige generatie.. Zo is een 4080 40-45% sneller dan een 3080 maar wel doodleuk bijna 2x zo duur, 100% duurder dus (van €719,- naar €1399,-).. Het zou lachwekkend zijn als het niet zo triest was.. Een RTX 4070Ti voor €1099,- straks is ook een idiote prijs.. Zelfs voor een RTX 4080 is dat nog teveel..
Nvidia krijgt voorlopig mijn geld niet met deze absurde prijzen en ik hoop dat anderen hun geld ook in de buidel houden.
Dat is gewoon de prijs die deze nieuwe hardware nu eenmaal kost. Wil je goedkopere, dan zal de vooruitgang ten opzichte van de RTX30xx serie marginaal zijn. Kijk ook naar AMD, die nieuwe kaarten zijn ook gewoon duur, en ook AMD gaf aan dat door het steeds verder verkleinen, en meteen willen gebruiken, de kosten steeds hoger worden.
Daar ben ik het echt niet meer eens!
De prijzen voor videokaarten waren medio 2015/16 vlak vóór de bitcoin craze inderdaad al best prijzig, maar waar ik mijn 1070 nog net op tijd voor een, naar mijn mening, redelijke 440,- heb mogen kopen is deze op dit moment, meer dan 7 jaar later nóg duurder dan toen ik hem kocht.

Er was los van dikke winstmarges voor webshop, scalpers en op een gegeven moment óók de fabrikant (die overigens eerst heel hypocriet boos werd op de webshops en daarna net zo hard de marges omhoog tikte) geen enkele reden om de prijzen zo hoog te zetten.

Het gevolg nu is dat de fabrikant gewend begon te raken aan die dikke winstmarges terwijl de vraag enorm aan het dalen is, de bitcoin mining craze is immers voorbij.
ze proberen nog wat domme whale's(mensen met te veel geld en geen kennis van zaken, of papa's creditcard) te overtuigen met deze in-sane prijzen voor de nieuwe crypto-vrije generatie kaarten, maar het lijkt er voorzover niet op dat jan modaal erg happig is op de huidige prijzen van de kaarten.

Dus wat nu: een vrije val in de vraag, een hoog aanbod, de prijs die zich conformeert aan het aanbod(economie 101).
Ik wacht dus nog even met een nieuwe kaart halen, mijn geklockte 1070 houdt het nog redelijk vol met de laatste games op mijn 1080P scherm, en ik zie nog geen goeie reden/enorme verbeteringen om nu over te stappen(waar ik dat met mijn voorlaatste kaart, de 660TI dat wel had na 4 generaties).
bla bla bla

We leven nu eenmaal in een markt van vraag en aanbod.
nVidia zal dus zo veel als mogelijk vragen voor z'n producten, het is geen ngo.
De prijzen zijn inderdaad hoog, maar blijkbaar verkopen ze goed, zoniet zou nVidia de prijzen wel aanpassen.
Met andere woorden: deal with it!
Prijs je gelukkig dat je tot 2015 vrij goedkope videokaarten kon kopen. Premium producten, want dat zijn het echt wel, hebben premium prijzen.
Denk een fout die veel mensen ook maken, is een high end gpu van 10 jaar geleden vergelijken met een high end gpu vandaag, eigenlijk zijn die high end gpu's vandaag een categorie boven de vroegere high end gpu's, vooral sinds de 3000 serie.
Denk een fout die veel mensen ook maken, is een high end gpu van 10 jaar geleden vergelijken met een high end gpu vandaag, eigenlijk zijn die high end gpu's vandaag een categorie boven de vroegere high end gpu's, vooral sinds de 3000 serie.
Hoe bedoel je?

In de 10* serie had je Titan kaarten, dat was een klasse boven high-end, **90 kaarten zijn misschien boven high-end te noemen. Maar dat praat de huidige trend van prijsverhogingen in alle klassen er onder niet goed...
een 80 serie van 10 jaar kan je niet meer vergelijken met een rtx3080, die grootte van de chip van de rtx3080 is veel groter, en kost dus meer om te produceren. Zelfde geld voor een 70 serie.
Oké, volgens die logica moet een RTX 4080(AD103 met 379 mm² die size) dus bijna de helft goedkoper zijn om te produceren dan de RTX 3080(GA102 met 628 mm² die size)... Verklaar?
Je bedoelt kleiner....het word niet groter de chips worden kleiner.

Dus kleiner en minder materiaal.
Dus zou het goedkoper moeten worden.

[Reactie gewijzigd door noway op 30 december 2022 19:23]

Het klopt niet wat je zegt. Ten eerste verkoopt de 4080 moeizaam. Er wordt geklaagd vanuit retail dat de kaarten niet genoeg verkopen. De 4080 is dan ook een stuk absurder geprijsd dan de 4090, die beter loopt.

Ten tweede gaat het over een duopolie positie: enkel Nvidia en AMD maken videokaarten (Intel reken ik even niet mee). In alle markten met maar 2 spelers zie je te weinig noodzaak om met prijs te concurreren. Dat zie je ook met de nieuwe AMD kaarten die hoewel goedkoper dan Nvidia ook duur zijn. Dus vraag en aanbod gaat vaak niet helemaal op: het is graag of niet. Nvidia kan eigenlijk vragen wat ze willen en altijd kaarten verkopen omdat er weinig andere keus is. En zeker voor bepaalde workloads buiten gaming is er eigenlijk geen andere keus dan Nvidia.
Wat klopt er dan niet?
Ik snap wel dat winkels graag veel verkopen, maar dat doet niet ter zake. Het interesseert winkels immers niet wat ze verkopen, enkel hoeveel hun winstmarge is op het product.
Het probleem is dat de 4070 nog niet te koop is.
De 4090 is voor de premium klanten, de 4070 is voor high end klanten.
De 4080 is er om een gat te vullen dat gewoon niet zo boeiend is. Zonder de 4080 zou het gat te groot zijn tussen de 4070 en 4090 en het zou voor nVidia niet interessant zijn om de 4080 te verkopen voor de prijs van de 4070, want dat zou de 4090 opeens heel duur lijken.
Wees gerust, slimmere mensen dan ons hebben hier over nagedacht.

Om verder te gaan, in het premium segment doet een monopolie of duopolie niet echt ter zake.
Voor mensen in dit segment is de prijs minder van belang, die willen gewoon het beste (en hebben dus geen interesse in de 4080). nVidia heeft overigens een sterke positie, er is dus geen noodzaak om op prijs te concurreren. Veel gamers betalen blijkbaar met plezier extra.

Buiten gaming komen we trouwens in het Pro segment van nVidia, daar gelden al jaren heel andere prijzen, wat ook normaal is. Dat een aantal hobbyisten dat niet leuk vindt zal nVidia worst wezen.
Bla bla bla

Bij jouw valt het kwartje niet he!
Zij willen teveel geld.
En de overstock? Wtf
Die is er nu wel?
Tijdens de pandemie konden zij niks leveren.... zogenaamd!!!
Right dacht je nu echt dat wij/ik,/anderen daar nu echt geloven?
Het is allemaal onzin...
Je kan beter naar de Efteling gaan en sprookjes bos bezoeken.

Zij verkopen desinformatie.

[Reactie gewijzigd door noway op 30 december 2022 19:28]

Ik heb zeker wel kennis van zaken en toch heeft deze domme whale een RTX 4090 gekocht. Overigens zijn het juist de mensen die kennen van zaken hebben die het geld voor zo'n dure videokaart over hebben anders zouden ze wel genoegen nemen met minder. Ik weet wat ik betaal en wat ik er voor terug krijg en dat is heel veel plezier want ik kan eindelijk op 4k met 120 fps gamen. Ik vind het nog al wat om mensen zo naar beneden te halen, ik weet niet of je dat doet uit jaloerzie of misgunnen? Ik weet wel zeker dat kopers van dit soort extreme kaarten prima weten waarom en in veel gevallen gaat dat om 120+ fps gamen op 4k met hoge instellingen of content creation.
Even wat historische context:

In het verleden plaatste de koper met een groot budget twee of vier kaarten in SLI. Dat kostte de koper toen ook gewoon €1000-2000. Ondersteuning voor SLI hield op bij de 1000 series door een combinatie van factoren. Nvidia verloor toen echter wel inkomsten. Ze probeerden dit nog wel op te vangen met TITAN kaarten maar dat werkte niet goed genoeg. Er zijn nog wel meer factoren, zoals inflatie en meer R&D, maar dit is een van de verklaringen waarom Nvidia de 4090 op $1600 zet en niet op bijvoorbeeld $800, en waarom bijvoorbeeld ook de 3090Ti behoorlijk prijzig was. :)
Tja, je kunt het proberen goed te praten, maar feit blijft dat de normale mens geen €2000,- gaat uitgeven voor 1 onderdeel van het totale systeem. Deze hebben óf het geld helemaal niet óf willen dit niet betalen, heel simpel.
Ik gebruik hier geen morele benadering en probeer dus ook niets goed (of fout) te praten. Verder probeert Nvidia helemaal geen 4090s aan de "normale mens" te verkopen, dus dat is ook helemaal geen probleem. Iemand die met/op een 3050 speelt heeft geen last van de prijs van een 4090 of 4080.
2080ti had nog nv-link "sli" ondersteuning.
Titan kaarten hadden een andere insteek en waren meer gericht op cuda load dan op gaming.
De prijs van de afgelopen series zijn wel degelijk gekomen door de crypto/scalpers/chip tekorten.

Prijzen stijgen doorgaans redelijk makkelijk maar een neerwaartse trend kan maanden of zelfs jaren nodig hebben om uiteindelijk weer te stabiliseren, terug komen op de oude prijs kom je nooit ivm inflatie etc maar de huidige gpu's hebben op dit moment nog steeds inflated prijzen.

De beste vergelijking die ik kan pakken is een cpu/mobo/mem combi, deze zijn duurder geworden door de jaren heen maar ook vele malen sneller, 20% duurder en 200% performance winst.
Gpu's zitten nu op 200% duurder en 200% performance winst.

Ach geef het een paar maanden en de prijzen zakken zo met 30% en dan is het nog de vraag of ze straks niet gedumpt moeten worden als er een nieuwe generatie aankomt, dit soort producten kunnen niet zomaar even op of afgeschaald worden kwa productie.
SLI was echt wel een randverschijnsel hoor. Volgens mij is dat ook de belangrijkste reden dat ze er mee op zijn gehouden. Voor de gamer was het om vele redenen buiten de prijs gewoon niet interessant genoeg (enorm duurdere PC nodig met meer PCI bussen, meer voeding nodig, veel games ondersteunden het nooit goed enz).

Bovendien: SLI verkocht meer kaarten van Nvidia, het verhoogde niet de winstmarge. Ze kunnen nu al niet genoeg kaarten te produceren om aan de vraag te voldoen. Dus dat zou in deze tijd helemaal niks uitgemaakt hebben.

[Reactie gewijzigd door GekkePrutser op 29 december 2022 17:00]

SLI was niet interessant omdat het de drivers ingewikkeld maakte, games er vaak voor moesten aangepast worden,...
Een snellere kaart doet hetzelfde op een eenvoudigere manier en bovendien gebruiken ze dezelfde chips/tech in hun professionele lijn waar ze echt wel voldoende kaarten verkopen om het rendabel te maken.
De 1070 koop je toch voor rond de 120 euro deze dagen?
Sorry, maar als meerdere bedrijven aangeven dat het produceren van nieuwere hardware dat op kleinere procedee wordt gefabriceerd aanzienlijk duurder is geworden dan bv 8 jaar geleden, dan geloof ik dat toch meer dan iemand die vindt dat het veel te duur is en dat er hele grote winstmarges gehanteerd worden, zonder echt ook aan te tonen darlt het zo is. En ze zullen misschien de marge met een paar procent verhoogd hebben om de eventuele geleden dip in te halen, maar gigantisch verhoogd geloof ik niet.
Ja het zijn al krankzinnige adviesprijzen, maar de verkoopprijzen zijn nog krankzinniger.
Dat is het echt niet hoor. Ze krikken gewoon de prijzen absurd hoog op.
Bewijs dat dan eens, want zoals ik al aangaf, ook AMD zei pas geleden hetzelfde dat de nieuwe generaties vele malen duurder zijn om te produceren dan voorheen. Ik verwacht dat de winstmarge die nvidia zelf pakt niet heel veel anders is dan voorheen, dat webshops/tussenpersonen er nog een veel hogere prijs van maken is weer een andere zaak.
De grootste drijver voor de kosten van een chip is de grootte van de chip zelf. .

Want: hoe groter de chip, hoe minder je ervan op een wafer kunt bakken.

De 2080 was: 545 mm²

De 3080 was een massieve: 628.4 mm²

De 4080 is slechts: 379 mm²

De price hike van de 2080 naar de 3080 was dan ook helemaal niet zo gek. En was ook veel minder problematisch omdat je alsnog een gigantische stap in prestaties per euro maakte t.o.v. de 2080.

De 4080 is een veel kleinere chip dan de 3080, maar liefst 40% kleiner, maar wordt voor 50% duurder verkocht. En je gaat er dus ook eigenlijk geen fluit op vooruit als je naar prestaties per euro kijkt.

Tuurlijk, die size is niet het enige dat kosten bepaald, er wordt ook gebruik gemaakt van een duurder proces, het is een nieuwe architectuur, maar dat zijn allemaal dingen die bij vorige generaties ook speelden. Maar een 40% kleinere chip die daardoor voor 50% meer verkocht moet worden? Ik geloof er niks van.

Het veel waarschijnlijke verhaal voor mij is dat Nvidia tijdens de miningboom heeft geproefd dat er een groep mensen is die bereid is dit soort belachelijke bedragen neer te tellen voor gpu's en ze willen het nieuwe prijsniveau op dat niveau houden in plaats van terug te zakken naar het oude niveau.

Kijk bijvoorbeeld naar AMD die hebben met de 7900XTX ook gewoon een kaart neer weten te zetten die voor hetzelfde geld als de 6900XT een flinke stap in prestaties per euro laat zien.

Let wel, ik koop veel vaker Nvidia kaarten dan AMD kaarten, maar deze nieuwe generatie mogen ze echt houden. En het feit dat mensen zoals jij mee gaan in het verhaal dat het allemaal komt omdat het zo duur is om te produceren dat is precies wat Jensen graag wil. Wat denk je waarom hij dingen roept als "Moores law is dead"? Ondertussen weet AMD wel gewoon te innoveren zonder de prijzen enorm op te voeren.
En je vindt dan nog geen 4080s aan MSRP. Je mag er al gauw 50 EUR bijtellen tenzij je erin slaagt om een FE model te bemachtigen.

Ik heb het al een paar keer gezegd online, maar zeg het hier graag ook eens: Nvidia heeft zich denk ik misrekend aan de hoge prijzen die ze hebben zien betaald worden de afgelopen jaren. De mensen die voornamelijk die prijzen betaalden waren niet gamers, maar zakenlieden die de kaarten konden gebruiken om geld mee te verdienen, en dan heb ik het niet eens over scalpers en creators, maar dan over cryptominers.

ETH stond enorm hoog en de prijs van electriciteit relatief laag, dus zelfs kaarten van meer dan 2000 EUR waren op ongeveer een jaar terugverdiend, en de rest was dan pure winst. En dan kon die kaart na een paar jaar alsnog verkocht worden als tweedehandskaart voor een aanzienlijk deel van de aankoopprijs. Dus dan maakt het niet echt uit dat een kaart zoveel geld kost, want het was een pure financiële rekensom die positief resultaat gaf, dus dan was de investering het waard. Gamers daarentegen, die vonden die prijzen terecht verwerpelijk hoog en wilden dat er enkel aan geven als ze die prijs het waard vonden, en dat was niet zo vaak.

Nvidia zag die hoge prijzen en wilde zelf een groter deel van die waarde tot zich nemen, en heeft de prijzen dan zelf verhoogd. Maar nu ziet de markt er HEEL anders uit: GPUs zijn niet meer rendabel om mee te minen, zeker niet binnen de gemiddelde levensduur van zo'n kaart, dus die financiële rekensom geeft nu een negatief resultaat aan. Dus dat betekent dat mensen die kaart niet meer kopen om geld te verdienen, en dan zeker niet aan zeer hoge prijzen.

Dan heb je nog maar 3 markten over. één van die markten, de creators die zo'n kaarten gebruiken voor 3D rendering of videobewerking, ligt nog redelijk dicht bij de verloren markt van cryptominers omdat die ook de kaart gebruiken om geld mee te verdienen, maar zelfs dan nog gaat het over een andere rekensom, omdat het product van zo'n kaarten niet rechtstreeks kan vertaald worden naar geld zoals dat met crypto het geval was, dus al te dure kaarten waren daar iets minder interessant. Maar zelfs dan nog konden kaarten worden ingebracht als beroepskost of worden afgeschreven over een periode van meerdere jaren, waardoor zo'n mensen wel bereid zijn om voor topmodellen een premium te betalen, maar dat minder bereid zijn voor de niet-topmodellen.

De tweede markt is die van scalpers. Scalpers konden met de 3000 generatie wel iets verdienen omdat er lange tijd een groot verschil was tussen vraag en aanbod door de pandemie en de problemen met de productie, waardoor mensen van andere markten sneller geneigd waren om via een scalper te kopen tegen aangezwollen prijzen. Maar met de 4000 generatie van kaarten is dat verschil er juist niet, enerzijds omdat mensen toen de prijzen terug normaal werden meer kaarten van de 3000 generatie zijn beginnen kopen en niet direct een nieuwe kaart nodig hebben, en anderzijds omdat het productietekort van de 3000 generatie bij de 4000 generatie veel minder aanwezig is. Meer nog, er is zelfs een overschot aan aanbod, waardoor scalpers gewoonweg hun kaarten niet meer kwijtgeraken, zelfs niet aan de prijs waarvoor ze die oorspronkelijk gekocht hebben of door deze terug te brengen naar de winkel.

De laatste markt, die van de gamers, die is er nog wel en is een trouwe klant, MAAR niet voor elke prijs. Een gamer die een kaart koopt kijkt daarbij naar wat hij van zijn potentiële aankoop verlangt en vooral hoeveel dat hem zal kosten. Gamers hebben namelijk veel meer dan de andere drie markten een budget en zoeken binnen dat budget naar de kaart die hen het beste de performantie biedt die zij nodig hebben. En dan merk je dat gamers onder te verdelen vallen in categoriën gebaseerd op de resolutie van hun scherm, hun gewenste framerate en in hoeverre ze bereid zijn om hun settings aan te passen. En dan zijn gamers vaker bereid om op die laatste 2 categoriën water bij de wijn te doen als dat ervoor zorgt dat hun budget niet overschreden wordt.

En dan zie je dat de 4080 in de huidige markt een directe concurrent is voor de 4090, omdat die zich allebei richten op het luxesegment van 4K of zelfs 8K aan hogere framerates. Dat is een ZEER kleine groep van nog geen 5% van de spelers, en die hadden waarschijnlijk al een goede kaart gekocht voordat de 4080 op de markt is verschenen. De meeste gamers gamen nog altijd op 1080P, met een minderheid op 1440p, en die willen helemaal geen kaart van 1000 EUR. Zij willen een kaart van rond de 2-300 EUR voor 1080p, en rond de 5-600 EUR voor 1440p, en dan liefst aan de lagere kant, en in de 3000 generatie klopte dat wat.

Als ik kijk naar het huidige segment van kaarten van Nvidia, dan is de 3060 momenteel de 1080p koning want haalt makkelijk 120 FPS op die resolutie, de 3070 is goed geschikt voor 1440p en de 3080 en hoger zijn bedoeld voor 4K. Als ik dan kijk naar de 4000 lineup en het idee dat alles een stapje opschuift elke generatie, dan zal de 4060 goed geschikt zijn voor 1440p en de 4070 voor 4K. Dus de 4000 lineup zou ideaal een 4050 krijgen voor 1080p die rond die 300 EUR hangt, een 4060 rond de 500 EUR en een een 4070 rond de 700 EUR voor 4K. Dan blijven de prijsklasses bewaard en moet je geen fortuin uitgeven.

Ik denk dat we gewoon moeten afstappen van het idee dat een specifiek kaartnummer voor een specifieke prijs gaat en in de plaats dat er een specifieke prijs is voor elk performance niveau en dat de performance niveaus elke generatie een niveau lager gaan zakken qua kaartnummer. Dus niet zeggen: een 4060 moet zoveel kosten, een 4070 moet zoveel kosten en een 4080 zoveel, maar eerder zeggen: Voor een kaart die 1080p120 kan draaien moet je zoveel betalen, een kaart die 1440p120 draait kost zoveel en een kaart voor 4K is verkrijgbaar aan deze prijs, en dan de kaart kiezen die bij dat budget past.

Het zal afwachten worden wat er zal gebeuren tijdens CEX over een week en wat Nvidia daar zal zeggen. Mijn voorspelling in elk geval is dat Nvidia een presentatie zal geven waarin ze de volledige rest van de 4000 lineup gaan delen van de 4050 tot de 4070 Ti en daarbij duidelijk zullen zeggen welk performanceniveau ze beogen met die kaarten en welke prijsklasse daarbij hoort. Misschien dat we op termijn ook nog wel lagere kaartnummers zullen zien voor mensen met een lager budget die 1080p60 beogen in plaats van 1080p120 of 144, denk dan maar een 4040 of zoiets.
Ik denk dat we gewoon moeten afstappen van het idee dat een specifiek kaartnummer voor een specifieke prijs gaat en in de plaats dat er een specifieke prijs is voor elk performance niveau en dat de performance niveaus elke generatie een niveau lager gaan zakken qua kaartnummer. Dus niet zeggen: een 4060 moet zoveel kosten, een 4070 moet zoveel kosten en een 4080 zoveel, maar eerder zeggen: Voor een kaart die 1080p120 kan draaien moet je zoveel betalen, een kaart die 1440p120 draait kost zoveel en een kaart voor 4K is verkrijgbaar aan deze prijs, en dan de kaart kiezen die bij dat budget past.
Dat is wat Nvidia heeft gedaan door de 4080 op 1200 dollar te plaatsen, afstappen van de 'normale' prijzen.

Verder heeft het geen zin om op 1080p120 oid te gaan indelen aangezien die eisen met de jaren veranderen. Vroeger kon het voorkomen dat je een game als Age of Empires niet aan de praat kreeg omdat de game 800x600 vereiste en je monitor niet verder kwam dan 640x480. Uberhaupt gaat het resultaat per game verschillen.

Tot slot is de prijs aan het eind van de dag afhankelijk van vraag en aanbod. Kaarten als de 3080 zijn nog altijd slecht beschikbaar en daar zie je ook nog altijd prijzen voorbij komen die rond de 1200 euro zitten. Combineer dat met de voorraad van de 4080 (eerder tientallen dan honderden) en het zit er dik in dat wanneer Nvidia de prijs terug naar 800 schroeft ze binnen een week uitverkocht zijn.

Ik heb zelf ook liever het systeem waarbij je bij een partij als alternate en pre-order voor de normale MSRP kunt plaatsen. Alleen Alternate heeft daar zoveel commentaar op gekregen dat ze dat niet meer gaan doen. Hetzelfde voor de AIB's die diverse producten uiteindelijk nauwelijks of uberhaupt nooit meer zijn gaan leveren. Vermoedelijk omdat ze nieuwe SKU's voor meer geld konden verkopen, al dan niet gedwongen door hogere inkoop prijzen. Maar eind van de dag doen 'we' het vooral zelf.

[Reactie gewijzigd door sdk1985 op 29 december 2022 00:29]

Ik heb de berekeningen gedaan op basis van de TPU reviews, en ik denk dat Nvidia voor het prijspunt van 300 EUR "entry level high refresh rate gaming" in gedachten heeft, dus ongeveer 120 FPS in grafisch intense games zoals Battlefield op de laagste resolutie die niet overwegend CPU limited is. Voor de 970 en 1060 was dat 900p, voor de 2060 en 3060 is dat 1080p, en de kans bestaat dat het voor de 4000 generatie 1440p is. En als je kijkt naar de benchmarks van die kaarten in de recentste Battlefield die TPU getest heeft, dan klopt dat ook wel: de 970 heeft een MSRP van 300 USD en haalt 120 FPS bij 1600x900 in Battlefield 4 zonder AA, de 1060 voor 300 USD haalt dat ook maar dan met 4X AA, de 2060 kost 350 USD MSRP maar haalt 140 FPS op 1080p in BF1 en de 3060 kost 300 EUR en haalt 130 FPS in BF5. Een beetje extrapolatie en ruw schatten doet me vermoeden dat Nvidia voor de 4000 generatie voor het prijspunt van 300 EUR de 4050 in gedachten heeft, welke waarschijnlijk 120 FPS zal halen in Battlefield 5 op 1440p. Ik zeg daarbij expliciet 1440p omdat het ernaar uitziet dat met de huidige generatie CPUs en GPUs 1080p stilaan eerder CPU limited zal zijn. Het kan ook zijn dat deze generatie de laatste zal zijn waarbij Nvidia 1080p120 gebruikt als doel voor entry level high refresh rate gaming, en dat vanaf de 5000 series 1440p120 dat doel wordt.
En dan zie je dat de 4080 in de huidige markt een directe concurrent is voor de 4090, omdat die zich allebei richten op het luxesegment van 4K of zelfs 8K aan hogere framerates. Dat is een ZEER kleine groep van nog geen 5% van de spelers, en die hadden waarschijnlijk al een goede kaart gekocht voordat de 4080 op de markt is verschenen. De meeste gamers gamen nog altijd op 1080P, met een minderheid op 1440p, en die willen helemaal geen kaart van 1000 EUR. Zij willen een kaart van rond de 2-300 EUR voor 1080p, en rond de 5-600 EUR voor 1440p, en dan liefst aan de lagere kant, en in de 3000 generatie klopte dat wat.
Je kijkt je hier wel een beetje blind op resoluties vind ik. Met VR is het ook heel belangrijk een zware kaart te hebben en zelfs een 4090 is niet voldoende voor redelijke settings in veel games helaas. Ik heb zelf een 3080Ti en denk ook aan upgraden (is ongeveer een 2x verbetering naar de 4090).

Ik hoop alleen dat de prijs een beetje gaat zakken (is al een beetje aan de gang, ze zijn pas nog bijna 100 euro goedkoper geworden)

Maar het idee "een dure kaart is alleen nodig voor hoge resoluties" gaat met VR niet meer op.

[Reactie gewijzigd door GekkePrutser op 29 december 2022 17:09]

Ik reken VR onder hoge resoluties, want de meeste moderne VR brillen hebben een resolutie die significant groter is dan 1080p vanwege het feit dat het gewoon 2 schermen zijn. daarnaast zijn de beelden op die schermen voor zover ik weet ook niet exact hetzelfde, dus is niet gewoon een hogere resolutie maar een volledig frame dat twee keer moet berekend worden.
Prima, dat is hun goed recht, maar ik koop het niet. Een nieuwe serie vervangt in principe de oude serie en wat Nvidia doet is de nieuwe serie telkens flink duurder maken onder het mom van meer performance. En niet een beetje duurder maar gewoon verdubbelen. Ik geloof er niets van dat puur de gestegen kosten zijn doorberekend. Er zijn nog anderen redenen die worden verzwegen. Ook dat is hun goed recht, het gaat er de aandeelhouders natuurlijk om dat er zoveel mogelijk geld wordt verdiend en blijkbaar is deze prijsstelling daarbij de gekozen strategie. Ik ga dat alleen niet betalen al zou ik graag een nieuwe high end gpu willen hebben. De grens ligt voor mij bij 1000 euro voor het XX80-model wat ik in principe al een idioot bedrag vind voor een videokaart.
Ik kan er met mijn verstand totaal niet bij dat er mensen zijn zoals SuperDre die het prima vinden dat er zulke absurde prijsverhogingen komen door allerlei smoesjes. €1000 ligt voor mij boven budget voor het XX80 model. Al maanden wacht ik op de prijsverlagingen van de 3080 en raad eens? Nope, ze zijn juist duurder geworden! Puur waanzin gewoon en dat voor een meer dan twee jaar oude generatie.
Ik denk dat we moeten afstappen van het concept van "Ik MOET een XX80 model hebben" en eerder moeten kijken naar "Ik moet een kaart hebben die ####PXXX kan draaien". Want als je het op die manier bekijkt zijn de prijzen van GPUs veel minder sterk gestegen de afgelopen jaren, zelfs als je er rekening mee houdt dat #### om de zoveel jaar een trapje hoger gaat.
Voelt toch een beetje als een geforceerde redenatie terwijl de werkelijke reden gewoon is dat zowel AMD als Nvidia een idioot prijsbeleid hanteert. Prijsverhogingen zijn we allemaal aan gewend, zeker in deze tijden maar een 100% verhoging is naar mijn idee niet meer te rechtvaardigen. Hier moeten we tegen in opstand komen door de te dure modellen te laten liggen.
Hoezo is nzall's redenatie "geforceerd"? De enige redenatie die geforceerd is (door NVIdia's marketingafdeling) is "ik moet weer een XX80 model hebben" - het is expliciet marketing welke naam er op een kaart geplakt wordt. Zie ook hierboven: dit is exact dezelfde kaart die NVidia eerst probeerde te slijten als "4080". Je hebt exact evenveel FPS ook nu de naam verandert is in "4070Ti".
Het punt is dat Nvidia bij elk generatie meer performance leverde voor een iets hogere prijs. Maar dat lijkt nu voorbij. Ze leveren met de nieuwe generatie dezelfde performance voor dezelfde prijs. Enige is dat er snellere videokaarten zijn dan het topmodel van de vorige generatie waar je nu dus ook absurd veel meer voor moet betalen. Ik zie geen reden om het op een andere manier te bekijken. Het prijsverloop van de laatste jaren is exponentieel.
Ik ben het met je eens, in die zin dat de te dure modellen bedoeld zijn voor een andere markt. Als je momenteel kijkt naar de performance leaks van de 4070 Ti van de afgelopen dagen, dan zou die kaart kunnen wedijveren met de 3090 Ti. Dat betekent dus in feite een kaart die goed geschikt is voor 4K aan 100 FPS, terwijl de 3070 Ti momenteel eerder geschikt is voor 1440p120. Dus die kaarten zijn bedoeld voor een ander publiek dat aan een andere resolutie speelt. Ik denk dat je voor een opvolger met vergelijkbare performance van de 3070 Ti niet zozeer moet kijken naar de 4070 Ti, maar dan eerder naar de 4060, welke dus anderhalf niveau lager staat. Overigens is volgens een andere leak de MSRP prijs van de 4070 Ti ook met 100 USD gezakt naar 800 EUR ipv 900 EUR.
Bullshit. Specifiek in deze generatie is een plotselinge 50+% price hike niet te voorkomen, iets wat nog nooit eerder gebeurd is, en dit gebeurt toevallig nadat door de historische GPU shortage, cryptomining en thuis zitten veel mensen in de vorige generatie meer over hadden voor een GPU?

Men probeert gewoon de winstmarges van 2021 ad infinitum voort te zetten.
Onzin. Het is niet onze zaak dat AsML mega bedragen vraagt voor hun hardware en dat de industrie dat gewillig ook betaald. De bedrijven moeten de kosten onder controle houden, zodat ze beter kunnen concurreren. Maar ja, met de cryptogekte konden heerlijk verkopen met zalige marges, daar wilden ze meer van....
Tja, maar de gebruiker wil graag enorme vooruitgang zien ten opzichte van de voorganger, maar op dit moment kan dat dus alleen tegen hoge kosten, anders komen ze niet veel verder dan een marginale verbetering.
Het is ook voor nu niet anders, enig advies dat ik iemand kan geven is om te wachten tot de prijzen zakken, of tot volgende generatie te gaan wachten (want dan schuift de boel qua performance door, kun je makkelijker een tier lager gaan)

Andere optie is dit ophoesten, maar als ik mij bedenk dat mijn 2070 Super 609 euro was (puur omdat ik dat model wou, ze waren toen te koop vanaf 555 euro) en nu hetzelfde tier kaart (4070 Ti) waarschijnlijk minimaal 950 euro gaat kosten... dan sla ik dat gewoon over.

Dan is er ook natuurlijk AMD, maar die prijzen zijn nu ook hoger (want AMD weet dat ze het gewoon kunnen vragen).

Ik hoop dat met de volgende generatie de prijzen weer wat zakken

"time will tell".
Gezien het feit dat er weinig concurrentie is verwacht ik dat de prijzen pas zullen zakken als Intel Arc competitief wordt. Ik verwacht dat de 5000 en 6000 series nog weer een stuk duurder zullen zijn. Intel Arc is nog lang niet volwassen, zowel op het gebied van prestaties als van drivers.
Zo lang je RTX uit laat staan heb je bijzonder weinig behoefte aan een nieuwe kaart imo. Gelukkig gaan steeds meer mensen inzien dat het RTX heel gaaf is maar het huidige prijs kaartje absoluut niet waard is.

AMD had de kans om in te stappen maar die zien helaas ook enkel doller tekens.
Ik heb sindskort een scherm met 5120x1440 resolutie en Freesync/Gsync en dan is een subtop kaart wel erg fijn. Ik hoopte onder de 1000 euro klaar te zijn maar dat valt dus vies tegen. Reden om de upgrade uit te stellen. Ik verwacht dalende prijzen voor gpu's in de loop van 2023.
Door dat ik te oud ben, zie ik - door de jaren heen - steeds dezelfde marketing-/release methodieken. Persoonlijk ben ik daar klaar mee, maar ik was wel benieuwd of ik de enige ben, of gewoon niet met mijn tijd mee ga. Hit me....
Same here en eerlijk gezegd snap ik het niet. Op deze manier worden alle pc gamers toch naar consoles gejaagd en verliezen ze marktaandeel. kan me niet voorstellen dat dat de strategie is.
Je krijgt mij niet naar een console van 800 euro, of wat kost die PS5 nu met een game en 2 controllers? Ik zal altijd op PC blijven gamen met muis en toetsenbord.

Zeker als je meer met je PC doet, bijvoorbeeld 3D visualisatie of andere grafische toepassingen zoals video editing, misschien streamen, dan kan er niet ook nog eens een console bij.

En ik begrijp dat je ook nog extra moet betalen om online te kunnen spelen?

Met een 3060 TI kan ik nu de meeste games lekker op 144+ fps spelen in 2560x1440 resolutie op high.

Dit is weer een absurde prijs, maar de 4060 gaat de prestaties krijgen van een 3070 en zal met een prijs van zo'n 600 euro echt een mooie kaart zijn voor de meeste mensen. Die prijs verwacht ik aangezien er tussen de 4060 en de 4070 TI (van 1000 euro) ook nog een 4060 TI en 4070 moet komen.
De meeste mensen gamen op iets als een 3060 of nog slechter. Daarnaast gaan de 4090s nog steeds als hete broodjes over de toonbank. Ondanks het feit dat de 4090 een kaart van $1599+ is, kan Nvidia de vraag niet bijbenen. :)
broodjes over de toonbank? Wie ? Waar?
Mensen met knaken zekers.
Ken niemand in mijn kringen....die zo'n dure kaart koopt.
En waarom zouden wij(gamers)zo achterlijk duur blijven kopen?
Die dure les van de 2 versie?
Toen de 3 versie?
Dus er lopen er veel ezels rond volgens jouw!!!
Als je langer meeloopt moet dit toch niet zo vreemd zijn. Vroeger plaatsten er ook mensen 4 580's in SLI. Dat kostte toen ook meer dan €2000. Nu SLI geen optie meer is maakt Nvidia kaarten als de 4090 voor mensen met een dergelijk budget.
Steeds zijn er vernieuwingen in de game-card wereld, zoals SLI er eentje was en dat is allemaal prachtig. En dat Tweakers het verschijnen van een 4070 Ti benoemt, begrijp ik ergens nog wel.

Persoonlijk hoef ik niet elke scheet te zien; net zoiets als wanneer de bumper van de nieuwe Toyota Corolla voortaan iets hoger zit en daadoor betere airflow geeft. De marketing- / hype-machine op PC-gebied an-sich heeft nog steeds veel meer adepten dan ik zou verwachten. So, probably i'm just old :+ maar misschien kan Tweakers aangeven hoeveel mensen dit artikel lezen? Prove me wrong please.
Ik hoef gelukkig naarmate ik ouder wordt steeds minder het nieuwste van het nieuwste. 4K gaming monitors vind ik voor mij onzin, dus ik blijf lekker op 1440p hangen. RT is leuk maar voegt voor mij ook nog niet bijzonder veel meerwaarde toe. Dus ik kan de komende tijd nog lekker uit de voeten met een 6700XT oid. Even afwachten wat de nieuwe kaart in die serie gaat zijn, en anders koop ik fijn een oudere kaart
* Damic slaat @bousix alles herhaald zich :+ * Damic slaat @bousix nog eens :D
Een midrange kaart met een prijskaartje waar je ongetwijfeld weer achterover van valt.
Als ik zo dat rijtje zie: €1869,- €1399,- dan wordt de volgende €1000,- of meer. Ik kan mij niet voosrtellen dat NVidia minder gaat vragen. Ze krijgen het er ook gewoon voor he. Al die berichten die ik lees over dat 4080 kaarten niet verkocht zouden worden geloof ik eerlijk gezegd niet zo. Mensen zijn echt schapen wat dat betreft, als ze het geld hebben en ze hebben het nodig, kopen ze het gewoon.

Persoonlijk vind ik alles boven de €800,- voor een videokaart te duur. Gelukkig hoef ik niet alles op 4k en met maximale instellingen meer te draaien. 2560x1440 is meer dan voldoende voor mij en daar is de vorige generatie videokaart nog meer dan krachtig genoeg voor.
Ze stonden al op een Chinese webshop vanaf omgerekend 1020 euro en duurder.
Dat de 4080's slecht verkopen is gewoon goed onderzocht hoor.

Men wijkt uit naar de 4090 of de 3080, die laatste is t.o.v. een paar maanden terug om die reden alweer in prijs gestegen.

https://www.youtube.com/watch?v=OCJYDJXDRHw
Het zijn juist de meelopers die de prijzen niet willen betalen, dat is een hele groep die niet op 4k games met 120+ fps gamen omdat deze grote groep schapen voldoende hebben aan 1080p of 1440p of met mindere instellingen.
Waarom zou iemand een 4080 kopen? Als je al bereid bent om €1399,- uit te geven aan een GPU, dan kan die ~€500,- er wel bovenop om een veel betere 4090 op te pikken. De performance/€ ratio zorgt er gewoon voor dat de 4080 heel onaantrekkelijk is en in de schappen blijft liggen.

[Reactie gewijzigd door elaurensh op 29 december 2022 11:27]

Prijzen zijn nog te hoog. Een 3080 vanaf 925 euro. Dat is 200 euro boven de introductieprijs van 2 jaar geleden. Het is nu een last-gen kaart nota bene. En een 4080 begint nu bij 1450 euro! Belachelijk.

Bij AMD is het iets beter. Een 6800XT vanaf 700 euro. Dat is 50 euro boven de introductieprijs. Ook niet fraai na 2 jaar.
Ja maar een 6800XT kostte op 25-11 jl. maar €599 nieuw 😉
Ja kerel, we weten het dat jij toevallig net op een heel gelukkig moment een eenmalige actie hebt kunnen benutten.

De rest zal echter moeten wachten totdat dat het normale prijspunt wordt. En zeg nu zelf, dat had toch eigenlijk al lang een gepasseerd station moeten zijn? Het is nota bene de adviesprijs, van een stuk hardware van twee jaar terug.
Hopelijk zal de nieuwe 4070Ti en de 7800XT(?) de prijzen wat drukken. Ik verwacht trouwens dat de verkoopaantallen zo hard zullen tegenvallen dat fabrikanten met prijsdalingen komen.
Zal mogelijk rond de $999,- komen te liggen, veel te duur voor een midrange kaart.
Ik heb nu een 2070s, die was rond de 5-600 euro en ook dat was al best prijzig voor een midrange kaart.

Nvidia maakt de keuze wat dat betreft wel makkelijk: een midrange kaart van Nvidia of een High-end kaart van AMD voor dezelfde prijs.
De logica ontgaat mij even van die verandering van RTX 4080 naar RTX 4070 Ti omdat meer in de lijn zou liggen dat er eerst een RTX 4070 op de markt komt. Wat je dan wel vaker bij Nvidia zag was dat dan de Ti veelal een min of meer 'opgevoerde' versie was. Nu maken ze dus van een min of meer uitgeklede 4080 opeens een 4070 Ti wat eigenlijk helemaal niet in lijn ligt.

Buiten dat betwijfel ik of het een succes gaat worden wanneer de meer budget 4xxx op de markt komen zoals een 4060 en/of 4050. Meesten gaan denk ik toch uiteindelijk richting 3xxx serie juist door die hoge prijzen van de 4xxx serie die nu verkrijgbaar is. De 3xxx serie ligt nu op een prijs die nog enigszins betaalbaar is en voor velen denk ik meer als voldoend is.
De chip is ook fysiek anders dan van een 4080, dus de naming is juist wel goed gecorrigeerd. De 4070 heeft volgens de geruchten dezelfde chip als de 4070ti/ oude 4080 12gb.
De chip is ook fysiek anders dan van een 4080, dus de naming is juist wel goed gecorrigeerd.
Ik zie het inderdaad maar dan vind ik het al helemaal vreemd wat Nvidia dan gedaan heeft door dan die chip in 1ste instantie binnen de 4080 lijn te zetten. Lijkt mij toch veel logischer als ze meteen dan die andere 'oude' 4080 chip met 12 GB meteen in de 4070 lijn geplaatst hadden.
Zo te zien blijf ik nog wel even gamen met mijn GTX 1080.
Is die 12Gb geen beperkende factor om toch enkele jaren op 1440p te kunnen meegaan? Wat je toch wil, met een dure kaart…

[Reactie gewijzigd door poing op 28 december 2022 18:58]

Herinner me net dat ik slechts 5 jaar geleden een pc had met de EVGA 550TI.
Het lijkt wel steeds sneller te gaan ja.. Vroeger deed je 4 jaar met een radeon 4870..

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee