Door Reinoud Dik

Redacteur

Nvidia GeForce RTX 4060 Ti Review

Videokaart met last van krimpflatie

Conclusie

De verwachtingen van de GeForce RTX 4060 Ti zijn hoog. Als nieuwe mainstreamkaart heeft dit model de potentie meer pc-gamers over de streep te trekken om te upgraden, gebruikers die eerder uitgebrachte kaarten in de RTX 40-serie vanwege de prijs aan zich voorbij lieten gaan. De prestaties van de RTX 4060 Ti zijn prima, zeker met het formaat van de AD106-gpu in het achterhoofd. De prijs en specificaties zijn wel weer een heikel punt.

De gemiddelde prestaties van de RTX 4060 Ti schuren tegen die van de RTX 3070 aan, terwijl het stroomverbruik flink lager is. Dat is een mooie vooruitgang en het is indrukwekkend hoeveel prestaties Nvidia uit deze relatief kleine chip weet te halen. Deze technische kant is als tweaker natuurlijk reuze interessant, maar als consument kijk je in dit segment waarschijnlijk primair naar de prijs-prestatieverhoudingen. Daarin is de RTX 4060 Ti wat minder spannend, net als de voorsprong van minder dan tien procent op zijn voorganger.

Voor 449 euro koop je met de RTX 4060 Ti een videokaart die bijna even snel is als de RTX 3070 en iets sneller dan de RX 6700 XT. De betere efficiëntie scheelt je op termijn op de energierekening en een zuinigere videokaart is makkelijker te koelen. Toch springt de RTX 4060 Ti er niet uit tussen dit huidige aanbod dat momenteel voor vergelijkbare of soms zelfs lagere prijzen verkrijgbaar is. Het is op dit moment nog niet de no-brainer waarvoor je onmiddellijk naar de winkel moet rennen.

Wat daarbij niet helpt, is dat de versie van de 4060 Ti die morgen in de winkels ligt, over 8GB vram beschikt. Zoals ik in mijn analyse over videogeheugen al schreef, is dat vandaag de dag in moderne games niet overdreven ruim bemeten. Veel nieuwe games zul je nu probleemloos kunnen spelen, maar met deze geheugenhoeveelheid is de kans aanzienlijk dat je de komende jaren wat settings terug moet gaan schroeven. Dat hoeft zeker geen probleem te zijn, maar het is wel iets om rekening mee te houden. De aankomende 16GB-versie van de RTX 4060 Ti zal hier geen last van hebben, maar een meerprijs van 110 euro voor het extra geheugen is in dit segment wel erg veel.

De RTX 4060 Ti kan interessanter worden als het vergelijkbare aanbod van de vorige generatie opdroogt, of als de prijs van de nieuwe GeForce wat zakt. De ondersteuning van DLSS3 en AV1-encoding zijn daarbij zonder twijfel in het voordeel van de nieuwe generatie, naast de hogere efficiëntie. De RTX 4060 Ti tilt daarmee de markt voor mainstreamvideokaarten naar een hoger niveau wat features en prestaties betreft, maar helaas geldt dat ook voor de prijs.

Reacties (243)

243
242
110
11
0
103
Wijzig sortering
Op 1440P 'maar liefst' 8% sneller dan zijn - qua naam - direct voorloper 3060Ti :|

Het lijkt wel dat hoe lager je in de 40 series komt qua line-up, hoe minder de vooruitgang qua prestaties is t.o.v. het voorgaande 30 series model:

3090>4090 (4K)=50% sneller
3080>4080 (4K)=45% sneller
3070Ti>4070Ti (4K)=39% sneller
3070>4070 (1440P)=21% sneller
3060Ti>4060Ti (1440P)=8% sneller :+

[Reactie gewijzigd door !mark op 23 mei 2023 15:08]

Op 1440P 'maar liefst' 8% sneller dan zijn - qua naam - direct voorloper 3060Ti :|

Het lijkt wel dat hoe lager je in de 40 series komt qua line-up, hoe minder de vooruitgang qua prestaties is t.o.v. het voorgaande 30 series model:
Dat lijkt me een bewuste keuze om de hele markt te dekken.
Er is (A) een groep mensen die de goedkoopste kaart kopen die net doet wat ze willen,
er is (B) een groep die kaart koopt met de beste bang/buck,
en er is (C) een groep die de snelste kaart koopt die ze kunnen betalen.

Voor groep A is het belangrijk om de prijs van de kaart laag te houden. Prestaties doen er niet echt toe zolang de kaart maar goedkoper is dan die van de concurrentie. Maar hij moet natuurlijk wel sneller zijn dan de voorganger anders kopen mensen die. Dus dan krijg je zo'n kaart die een paar procent sneller is.

Voor groep B is het belangrijk om een kaart te hebben die veel waarde levert, dan is die groep bereid om een hogere prijs te betalen.

Voor groep C is het enige belangrijke dat de kaart sneller is dan A en B. Prijs doet er niet echt toe zolang het maar een hele snelle kaart is.

Dan krijg je een line-up zoals je laat zien. Dat geldt overigens niet alleen voor GPU's maar ook voor auto's en een hoop andere producten die (óók) een luxe zijn.
En vanuit groep B lijkt dus ook iedereen te willen kijken, maar men ziet het nu vanuit groep C.
Momenteel is alle data overal erg direct naar kaartnummer vs kaartnummer vergelijking toe. Maar op basis daarvan gaan de meeste mensen lijkt mij uiteindelijk geen aankoop doen.

Toevallig 2 dagen geleden een post op reddit waar een gebruiker die stats van !mark had gepost, maar dan ook met een tabel waarbij men vanuit prijs perspectief kijkt onderaan de post. (zie net dat het niet dezelfde stats als mark zijne zijn, maar ongeveer gelijk. stats daar van 3DCenter die meta analyse van de markt doen)

Zo'n tabel en vergelijking ziet er mij veel interessanter uit dan de rechtstreekse generaties vergelijken. Het voelt mij alsof Nvidia de markt en de kaartnummers een beetje bespeeld met; iemand met een 2080 of 3080 zal minder snel upgraden naar een 3070TI want de koper ziet dat (onbewust?) als een categorie lager, terwijl dat in de realiteit eigenlijk niet helemaal het geval is.
Kan helemaal mis zijn maar dat is het gevoel dat ik bij deze hele reeks krijg.

[Reactie gewijzigd door faxityy op 23 mei 2023 17:38]

Iemand die al jaar een dag een xx80 class kaart koopt ('verstandige' groep C, want normaliter is xx90 law of diminishing returns), geeft incrementeel meer geld uit. Dit punt wordt wel eens hard afgestraft (waarom kost een xx80 nu al >1000 euro), maar eigenlijk zou het om fps/$ (of EUR) moeten gaan.

Maar m.i. ook in zo'n blik (is eigenlijk situatie B ) bespelen ze het op een gunstige manier. Iemand koopt niet een xx60(Ti) class kaart omdat die de beste bang/buck geeft, maar koopt een bang/buck kaart en dat is 'toevallig' vaak de xx60(Ti) class. Paar jaar geleden was de GTX970 enorm populair omdat die een enorme klap sneller was de GTX960, ondanks het 3.5GB schandaal, en dat tegen een acceptabele prijs.

Voor deze generaties kan je wederom die afweging maken. De 4070 kaart is 30-37% sneller dan de 4060Ti. Echter kost de 4070 vs 4060Ti kost 48% meer. Bij de 3060Ti vs 3070 was het prestatieverschil maar 14-17%, met kosten 3070 vs 3060Ti 24% meer. Deel je die twee ratios op elkaar, en dan is de 3070 dus zo'n 6% 'slechtere koop' (bang/buck) dan de 3060. De 4070 is zo'n 8% 'slechtere koop'.

De FPS/watt grafieken, mocht je ook stroomprijs mee willen rekenen, is erg vergelijkbaar. Aangezien je Watt voor Euro's kan vervangen, is ook daarin geen groot verschil te beargumenteren tussen de xx60Ti of xx70 kaart versie.

Naar mijn mening zijn zulke getallen zeer opgepoetst. Bij NVIDIA maken ze natuurlijk ook dit rekensommetje. De FPS/watt nummers suggereren wel dat ze beide chips even gunstig hebben afgesteld. De tweede knop waar ze dan nog aan kunnen draaien is de prijs. Met een bijna lineair productsegment is er eigenlijk geen 'sweet spot' te vinden waar we vroeger over spraken (een kaart die slechts 20% trager is voor 40% minder geld oid). Afgezien van VRAM dat bij aanvang al te klein was aanbemeten (datzelfde commentaar was er ook al voor de 3080 10GB), kan je ook weinig winnen op een slimme keuze: een bang/buck knaller die ook nog gunstiger verouderd (zoals een RX480/RX580 8GB). Het is eerder een kwestie hoe 'premium' je wilt gamen. Wil je 120Hz: kost meer. Wil je 1440p/4K: kost meer. Enzovoort. En m.i. is daarin het ergste dat je, afgezien van inflatie, dus na 2-3 jaar wachten bijna geen extra fps voor je euro's krijgt. Maar dat zal ongetwijfeld ook alles te maken hebben met de gigantische tekorten en de bevindingen die toen zijn gedaan (zoals dat mensen blijkbaar 1500-2000 euro willen neerleggen voor een 3080 10GB).

[Reactie gewijzigd door Hans1990 op 23 mei 2023 18:12]

Mijn beste koop ooit was een 1080Ti, de extra performance boven de 1080 maakte dat die kaart flink langer mee ging en uiteindelijk betere bang for buck gaf.

Maar vooraf was natuurlijk niet te voorspellen dat de 2000 serie zo tegen zou vallen.

Ik heb nu een 4090 gekocht en eigenlijk om twee redenen: Als ik thuis wat aan het klooien ben voor werk (met CUDA) is de 24GB heel erg welkom en ten tweede omdat ik het geld heb en kan missen dus waarom niet dat voordeel mee pakken. Voor gaming had ik ook een 4080 kunnen nemen (3440x1440@120), maar de 4090 was bij introductie procentueel net zoveel duurder als dat hij sneller was.

Ik zou op dit moment ver weg blijven van 8GB kaarten. De prijzen zijn nauwelijks budget te noemen voor de 4060(Ti) dan mag je toch wel een beetje aan de toekomst denken en voor 16GB gaan.

Als nVidia normale prijzen had gevoerd en er niet zoveel crypto dwazen in de wereld waren had ik in de tussentijd ook al een 3090 gekocht, maar met deze prijzen sla ik met plezier een generatie over. Het is aan nVidia wat ze willen meer kaarten verkopen of een hogere marge per kaart. Als ze voor dat laatste gaan zal ik simpelweg minder vaak kopen.

[Reactie gewijzigd door Omega Supreme op 23 mei 2023 21:02]

Probleem met deze kaart is niet zozeer de 8GB, maar de krappe memory bus als je GamersNexus hun review bekijkt. Er komt wel een 16GB, maar die heeft diezelfde memory bus.en zal dus maar in beperkte scenarios beter presteren.
Ipv de 16GB versie zou ik kijken of ik nog een rdna2 kaart op de kop kan tikken. 6800xt is iets goedkoper dan de msrp voor de 16GB versie van 4060.

DLSS3 artifacting is - maar dat is maar mijn mening - irritanter dan DLSS1 was en vooral een wanhoop greep. Als je fps te laag is gaan de extra frames het spel niet speelbaar maken aangezien de latency per definitie hoger is dan zonder DLSS 3, maar met lagere framerate. Een onspeelbaar spel blijft onspeelbaar. Een net speelbaar spel kan onspeelbaar worden. Blijft over spellen die gewoon speelbaar zijn, waarom zou je daar voor die artifacting kiezen.

Ik heb het uitgezet dan maar 100fps ipv de max 120fps van mijn scherm.

[Reactie gewijzigd door Omega Supreme op 24 mei 2023 08:52]

De afgeknepen en onder bemeten kaarten die nu langskomen van Nvidia durf ik gerust e-waste te noemen wat een waardeloze kaarten zijn dit zeg met een ruim over bemeten prijs.
Het voelt mij alsof Nvidia de markt en de kaartnummers een beetje bespeeld met; iemand met een 2080 of 3080 zal minder snel upgraden naar een 3070TI want de koper ziet dat (onbewust?) als een categorie lager, terwijl dat in de realiteit eigenlijk niet helemaal het geval is.
Kan helemaal mis zijn maar dat is het gevoel dat ik bij deze hele reeks krijg.
Daar heb je gelijk in maar dat doen alle merken. Versienummers zijn tegenwoordig voor marketing.

Nvidia had de kaarten ook gewoon door kunnen nummeren ("ik heb kaart type 57") of de datum van publicatie gebruiken als versienummer ("ik heb een 20230512 kaart") of een performanceindiatie ("ik heb ze 60 gigaflop kaart").
Voor de computer is werkt dat net zo goed. Maar niet voor mensen. Mensen willen graag "informatieve" versienummers die in één nummer alles vertellen wat je over zo'n kaart kan weten. Dat kan natuurlijk niet maar mensen willen het tóch. Dan krijg je versienummers als "3070TI" . Geen mens die nog weet waar TI voor staat, maar het doet er ook niet toe.

Dit soort versienummers als naam zijn er voor 95% om je gevoel te bespelen.
Ti = Titanium.
Weet ik nog van m'n Geforce 3 Ti 500 :)
Maar wel 50% performance per watt verbetering. Terwijl de trend juist lijkt om steeds meer stroom te vreten is dat toch wel erg netjes te noemen.
Vind er absoluut niks netjes aan, deze kaart is in vele gevallen gewoon niet sneller als zijn directe voorganger... dat kan ik alleen een totale flop noemen

Helaas zullen deze kaarten toch gewoon weer verkopen en zal nVidia er volgende generatie nog een schepje bovenop doen met zulke acties

Niks voor niks wordt deze kaart op de meeste review sites afgebrand, Tweakers had hier ook echt wel veel harder in mogen zijn

[Reactie gewijzigd door Sinester op 24 mei 2023 08:24]

Ik had, zeker bij een kaart die zich veel meer op value richt, veel liever een 0% verandering gezien in performance per watt en een veel grotere toename in performance per euro.

42 watt klinkt leuk, maar je moet 2300 uur gamen om dat terug te verdienen met het huidige stroom tarief

Snel steaminfo bekeken en persoonlijk game ik 400 uur per jaar. Ik koop meestal wel binnen 5,75 jaar een nieuwe gpu. Dus dan heb ik het prijsverschil nog steeds niet teruggewonnen tegen de tijd dat ik upgrade en ik heb al die tijd minder dan 10% performance toename gehad tov een 3060Ti. Wat een value.

[Reactie gewijzigd door youridv1 op 23 mei 2023 15:33]

Als je nu een 3060ti hebt van 2 jaar oud, dan is een 4060ti überhaupt nog niet echt een upgrade waard.

Er zijn natuurlijk genoeg mensen die elke generatie een upgrade doen, maar bij een xx60 kan je toch sowieso beter upgraden naar een xx70 en er langer mee doen?

Dus op zich snap ik wat je bedoelt. maar 50% performance per watt is een grote upgrade qua technologie, ook al zal het mensen met een 3060ti niet overtuigen voor een upgrade.
Het gaat me ook niet om upgraden vanaf een 3060Ti.

Stel je hebt een GTX 1000 nu, dan heb je de keuze uit zowel 3060Ti of de 4060Ti in het 450 euro en lager segment. De performance per euro van de 3060Ti is gewoonweg beter, ookal is de kaart 2 jaar ouder.
maar dan moet je DLSS3 , AV1 en power efficentie (zachte fan, zonder zweten in de zomer) ook mee gaan nemen.
Dat is mij de 70 euro niet waard als ik naar een value segment videokaart kijk. DLSS3 zit in te weinig games en de meerwaarde ervan is zeer discutabel. Het verdubbelt je fps, maar levert artifacts op en bovendien verbetert je input lag niet dus dan heb je er vaak niets aan. Buiten flight sim heeft DLSS3 imho geen meerwaarde en ik zou het ook niet gebruiken in de games die ik speel, al zouden ze het hebben.

AV1 encoding gebruik ik niet. Ik maak geen content. De 3060Ti kan AV1 gewoon decoden alleen niet encoden. Dus tenzij je en een content creator bent en vooruitstrevend bent met je codecs, is dat een nonfeature

de 3060Ti zit al op 195 watt, kan daarmee wegkomen met een enkele 8 pin en daardoor zijn veruit de meeste aib modellen effectief stil. 42 watt besparing maak ik me niet druk over. Ik heb het in een andee commennt ook al gezegd, maar je moet 2300 uur gamen om dat terug te winnen. Daar doe ik meer dan 5,5 jaar over en zo lang doe ik niet met een kaart. Ik zou daardoor dus duurder uit zijn en ik heb dat extra geld verder nauwelijks teruggezien in mijn gebruik van de kaart.

[Reactie gewijzigd door youridv1 op 23 mei 2023 16:46]

Wat nuanceren:

DLSS3 op 4K werkt gewoon top. Artifacts zijn in 99% van de games niet op te merken zonder vergootglas of slowmotion opname.

Er zijn nu 32 DLSS3 games en de lijst groeit. Dus als je uw kaart een paar jaar wil houden heb je hier zeker voordeel bij.

latency is het enige echte nadeel maar als een game plots speelbaar wordt met raytracing aan en/of 4K, dan ga je echt niet klagen over de extra 20ms lag.

RTX4000 kan wel AV1 decoderen. Aan encoderen heb je idd enkel nut als je uw webcam if beeld wil streamen tijdens gamen of werken.

Als jij voor €70 DLLS3 wil laten liggen is dat uw zaak maar voor de gemiddelde consument is dat echt wel de moeite waard.
DLSS3 genereert extra frames en versnelt niet de daadwerkelijke update snelheid van de rest van de game waardoor de input lag niet afneemt. Het FPS getalletje boeit mij niet. DLSS3 heeft voor mij nul toegevoegde waarde. Het verbetert niets aan mijn speelbeleving. 30 fps of "60fps" met de input lag van 30 fps voelt voor mij hetzelfde aan, namelijk onspeelbaar. DLSS2 kan hier bij helpen, 3 niet.
Dus het maakt me niet uit hoe "top" het wel niet werkt, want het doet niets nuttigs, dus betaal ik er niet voor.
RTX4000 kan wel AV1 decoderen. Aan encoderen heb je idd enkel nut als je uw webcam if beeld wil streamen tijdens gamen of werken.
Aan encoderen heb je voor nu helemaal niets als gemiddelde gamer want vrij weinig software maakt nog gebruik van AV1.
Webcam streamen tijdens het werk kan al 20 jaar hoor, daar heb ik echt geen AV1 voor nodig. Betaalbare webcams outputten nog altijd 720p30. Dat kan prima in een codec met meer overhead dan AV1 of zelfs in software, want 720p30 is peanuts voor moderne hardware.
Ik stream soms mijn scherm via discord naar vrienden tijdens het gamen, maar ook dat is 720p30 op lage bitrate en dus nauwelijks belastend.

Persoonlijk zou ik beide niet kopen en voor een 6700XT gaan. Die extra 4GB VRAM is het mij wel waard. Dat is een feature die ik wel gebruik, in tegenstelling tot de "meerwaarde" die een nvidia kaart biedt. Bovendien is de 1% low performance van de 6700XT sterker dan die van zowel de 30- als 4060Ti. Dat is daadwerkelijk een voelbaar effect.

[Reactie gewijzigd door youridv1 op 24 mei 2023 08:59]

Het FPS getalletje boeit mij niet. DLSS3 heeft voor mij nul toegevoegde waarde. Het verbetert niets aan mijn speelbeleving.
Sorry, dat zijn van die uitspraken die enkel voor u kloppen :) voor vele menden is DLSS3 echt wel een meerwaarde.

Ik begrijp volledig dat DLSS3 fake frames genereert maar je krijg wel degelijk een mooier of smoother beeld voor terug. Als je echt kickt op latency dan is dat idd niet aan te raden.

Ik heb voorbeelden gezien van hele mooie game scenes die enkel mogelijk waren via DLSS3. Bijvoorbeeld raytracing of 4K aanzetten en toch met een heel vloeiende en speelbare fps. Zet 4K native aan en het wordt onspeelbaar. Dus je krijgt wel degelijk iets terug.

Mensen die beeldkwaliteit voor fps zetten zullen DLSS3 welkom heten en mensen die net een 120hz low latency monitor gekocht hebben hebben er mogelijk weinig aan.

Bovendien overdrijf je problematiek zoals artefacts. Ok, in sommige UI heavy games zal je dat mss opmerken. Maar again, geen rampen.

Je kan ook gewoon wat nuance brengen in uw bericht. Alles is zo zwart-wit met een gepolariseerde ondertoon. Je kraakt DLSS3 af maar dat hoeft helemaal niet.

[Reactie gewijzigd door Coolstart op 24 mei 2023 09:55]

ik kraak het af omdat het imho niets nuttigs doet.

De situatie die jij omschrijft, waar dlss3 extra smoothness toevoegt, is wat mij betreft void. Want als je basis framerate zo laag is dat je dlss3 nodig hebt voor smoothing, dan is je input laag naar mijn mening al veel te hoog.

Voor pracht en praal games is 60 fps goed genoeg, maar als je dat met dlss3 moet gaan halen, dan is je basis framerate en game tic dus maar 30-45 fps ofzo. Dan kan het beeld wel soepel zijn, maar de inputs voelen zo soepel als een koud startende dieseltractor bij stevige vorst
Op 3440x1440 zie ik merkbare artifacts met dlss3, 4k kan ik niets over zeggen.

DLSS3 kan een spel niet speelbaar maken als het dat niet is, hooguit vloeiender.

Niet speelbaar is een spel als de framerate zo laag is dat je niet op tijd kan reageren, dan gaat DLSS3 met nog hogere latency het niet oplossen.

Het is vooral voor speelbare spellen op high refresh monitoren dat het, mits je tegen de artifacting kan, een rustiger beeld geeft.
Dat denk ik ook … de RTX3060 reeks kan je ook vinden met 12GB RAM voor minder geld dan deze, terwijl de performantie toch niet zo’n groot verschil geeft. Lijkt me een vorige generatie met 12GB dan toch vooralsnog de betere koop. Met degelijke fans/koeling valt dat allemaal nog wel mee.
De prijs is inderdaad erg teleurstellend. Als die ongeveer hetzelfde was gebleven dan was het een prima vervanger voor de 3060 Ti geweest, maar 8% sneller voor deze prijs is niemand van onder de indruk.
Je gaat dan ook niet van een 3060upgraden,

Maar er staan nog enorm veel 1060-1660-1070 kaarten (Meest gebruikte atm) en voor die groepen is het nu interesant om te upgraden naar 4060 mainstream of 4060 16Gb voor heavy openworld gamers.
Nee, dat is het nu juist. De 4060Ti is prijstechnisch minder interessant dan de 3060Ti, die momenteel voor 380 te koop is.

Het gaat helemaal niet om upgraden vanaf een 3060Ti.
Minder wattage betekend ook een stillere videokaart.
De meeste 3060Ti’s zijn effectief stil. 195 watt is al niet veel en de koelers zijn tegenwoordig prima.

Dat maakt het lagere wattage nog geen sterke selling point bij deze prijs toename

[Reactie gewijzigd door youridv1 op 23 mei 2023 19:35]

Stil verschilt per persoon natuurlijk, helaas kunnen de meeste videokaarten niet lager dan 30% (1000RPM) fan snelheid omdat het goedkope rotzooi is, en dat hoor ik boven mijn kast fans uit.

Een deshroud mod is altijd vaste prik bij mij https://imgur.com/a/xtp57GQ
Valide punt, maar daarvoor moet je wel eerst de rest van je pc op stilte hebben geoptimaliseerd en zodra je tot de lengtes gaat dat je pc stiller is dan een gpu op de laagste snelheid dan ben je sowieso geen klant voor een value product.

Bovendien heeft het TDP geen invloed op het minimum toerental van de ventilatoren, dus voor de vergelijking tussen een 3060Ti en 4060Ti heeft dat weinig meerwaarde.

Overigens deel ik je sentiment over matige gpu koelers wel hoor, voor echt silent operation moet je deshrouden en dat heb ik zelf ook gedaan. Met effectief stil bedoel ik dan ook in de context van de systemen waar 99% van de 4060Ti's in gaan belanden.
En dan ga je ook nog uit van in theorie, met een fps lock wordt het verbruik nog eens minder als dat het probleem is.
Ik vraag me wel af in hoeverre dat nog verder omlaag te halen is door de eindgebruiker zelf. Zo heb ik m'n rx6800 prima stabiel draaiende met 162w, t.o.v. de 240w die in de benchmark genoemd wordt. Dat komt ongeveer neer op eenzelfde fps/watt. Nou ga ik er niet van uit dat je ook 80w van een 4060ti af kunt halen door hem te undervolten, da's percentueel net iets te gek 8)7 Maar ik gok dat het niet super veel zal wezen, wellicht 20-40w
De vraag is in hoeverre Nvidia deze chip op de staart trapt qua kloksnelheden. In relatie tot de vorige generatie, lijkt het er vooral op dat Nvidia er op in heeft gezet een kleinere chip flink rapper te laten lopen. Zeg maar wat je bij AMD ziet als je de RX 6750XT en RX 6800 vergelijkt. De 6800 is juist een vrij luie chip, die fabriek-af eigenlijk teveel voltage meekrijgt simpelweg zodat gegarandeerd iedere kaart het op z'n sloffen haalt.

Het kan natuurlijk goed zijn dat de 4060 Ti zich ook nog netjes laat undervolten, maar als het niet kan zonder de kaart terug te klokken, moet je er dus wel verdere prestaties op inleveren. Al is dat niet per definitie slecht voor de prestaties/Watt verhoudingen.
Dat inderdaad wel ;)
Maar na die nieuwe RTX 4000 gen sneller was dan zn vorige "nummer" zie @!mark had ik verwacht dat ie toch op zn minst gelijk zou presteren als de RTX 3070....dat valt me tegen.

Dus ik zou zeggen hard pass voor deze kaart |:(

Of je moet echt een laag stroomverbruik willen met deze prestaties en je huidige videokaart is kapot... dan is hij het overwegen waard, maar alleen als de prijs een stuk zakt :P
En dat is dan nog ondanks de zwaar verhoogde kloksnelheden. Stel je eens voor hoe efficiënt deze kaart eigenlijk had kunnen zijn, als de chip evern groot was geweest of evenveel kernen (of meer) had gehad als z'n voorganger, bij dezelfde prestaties. Dan had deze kaart nog een stuk lager geklokt kunnen zijn en nog minder kunnen verbruiken.

Dat is waar wat mij betreft de schoen enigszins wringt. Nvidia poogt hier knollen voor citroenen te verkopen.
Ja leuk, maar de performance blijft dan toch nog steeds achter?
Is niets netjes aan, is enkel een toevallige bijkomstigheid van hun krimpflatie model.
Maar wel 50% performance per watt verbetering. Terwijl de trend juist lijkt om steeds meer stroom te vreten is dat toch wel erg netjes te noemen.
De nieuwste kaarten, ook in het hogere segment leveren ook betere prestaties per watt dan de vorige. Niemand verplicht je die nieuwste kaarten op max TDP te draaien. Sterker nog de high end kaarten zijn vaak zuiniger per watt dan de low end kaarten, omdat die laatste op veel hogere clocksnelheden worden gezet.
Dan heb ik liever mijn huidige RX 6750 XT, die zo ergens rond de GTX 3070 zweeft; soms iets trager, soms iets sneller, maar wel met 12GB RAM. Aangezien ik op 1440P spellen speel ga ik ervan uit dat die kaart makkelijk nog 5 jaar mee moet kunnen.

Pasgeleden heb ik een spel geïnstalleerd dat standaard op 1280x720 draaide op mijn 2560x1440 monitor (het is een PC-versie van een console-spel). De monitor schaalde dat zo goed op dat het me in de eerste twee levels niet eens was opgevallen. Ik zag het pas toen ik door de settings heen liep om een wijziging in de controls aan te brengen :X Toen heb ik het spel op 2560x1440 gezet, maar er was geen verschil te zien met de door de monitor opgeschaalde versie.

Misschien KAN het spel intern eens hoger dan 1280x720 en schaalt het zelf op voor hogere resoluties, waarbij die opschaling niet beter is dan die van de monitor... ik zou het niet weten.

Echter, als simpele opschaling al zo goed werkt, dan is het zeker de moeite om voor nieuwere spellen naar FSR / DLSS te gaan kijken. Als ik FSR / DLSS kan gebruiken en spellen in 1280x720 zou draaien, dan kan die RX 6750 XT 10 jaar mee. Dat zou ik prima vinden, want dan heb ik nog wat tijd om door mijn backlog heen te spelen :+

[Reactie gewijzigd door Katsunami op 23 mei 2023 20:06]

Dan heb je waarschijnlijk "geluk" met je ogen, want het verschil niet zien tussen 720p of 1440p lijkt me zeer onwaarschijnlijk.
In andere spellen zie ik dat wel; maar in dit spel niet, om de een of andere reden.

Ik heb één spel (ook een console-port) dat niet eens hoger kan dan 1280x720. Het zou dus kunnen zijn dat dit spel intern gewoon op 1280x720 draait, en dan het beeld opschaalt naar de in het spel ingestelde resolutie, waarbij die opschaling niet beter (of slechter) is dan die van de monitor. Dat zou verklaren waarom er geen verschil te zien is.
En bijzonder is dat afhankelijk van het spel dat je speelt zelfs de 3060Ti beter presteerd. Zie F1 22.
Dit had geen 4060ti moeten zijn, maar een 4050(ti) of een 4060.
Van een 4060ti verwacht je 3070ti performance tegen een stuk lager stroomverbruik. Dat is wat een generatie upgrade normaal gezien rechtvaardigd.
Het is wel bijzonder van de prestaties, maar de naamgeving van de 3060TI en deze is slecht/bijzonder.

De 3060TI is eigenlijk een 3070 light, want dat is het ook. Een 3060TI is een 3070 chip met wat uitgeschakelde delen. De 3060TI heeft ook 8GB terwijl de 3060 6 of 12 GB heeft. De 3060 kwam ook later. Ik heb precies op de lauchday een 3060 TI gekocht.

Deze GPU zou eerder 4060 moeten heten.
Jup en een 3050 is een 3080 Light light light light :+
Een 3050 is een hele andere chip dan een 3080.

Een 3060 TI en een 3070 hebben dezelfde chip. Zie onderstaande artikel.
review: Nvidia GeForce RTX 3060 Ti & RTX 3070 - 9 middenklassers op de testbank
Beide zijn een GA104 met die-size 392,5mm² en 17,4 miljard transistors. Op de 3060 TI is alleen wat uitgeschakeld.
Wist niet beter dan dat de architectuur hetzelfde is maar dan veel minder CUDA cores.

En de 3060TI zal inderdaad van dezelfde lopende band komen als de 3070, maar dan een defecte 3070 waarvan net genoeg cores werken om het een 3060TI te noemen.

Ditzelfde trucje doen ze misschien ook met de 3090 en de slechte batch is een 3080
Hetzelfde idee word bij meer GPU's en CPU's gebruikt.

Maar de 3060(TI) is volgens mij de enige in 30xx serie waarbij de TI en de niet TI een andere chip gebruiken, met andere geheugenbus en vermoedelijk iets andere drivers enzovoort.
Vraag is wel, zonder DLSS3 of zijn de vergelijkingen tussen 3090-4090 met DLSS3..
Volgensmij zijn alle tests hier nu uitgevoerd zonder DLSS3, wat natuurlijk JUIST 1 van de extra krachten is van de RTX4060ti ten opzichte van zijn voorganger.
Ik vind dat echt een totale misleiding, nVidia adverteerd ook alleen maar met deze techniek aan omdat ze weten dat zonder die techniek het gewoon een flop is qua performance

Als je letterlijk in elk spel DLSS3 had kunnen gebruiken had ik nog gedacht van prima dat ze dit laten zien, maar dit is gewoon totaal niet het geval, dus echt een dikke consumenten misleiding dit.. zou bijna verboden moeten zijn
Het is inderdaad één van de redenen waarom NVidia in deze generatie gekozen heeft voor meer L2 cache ten koste van de geheugenbus. Zonder DLSS3 heb je niets aan de Optical Flow accelerators, en maar beperkte winst van de grotere cache. Ja, logisch dat je weinig verandering ziet als je de verbeteringen van de nieuwe architectuur uitzet.
NVIDIA heeft de hele stack lineup een klasse verplaatst. Deze GPU's zijn eigenlijk eigenlijk xx50 series, genaamd als xx60 series en geprijsd als xx70 series.
Zou zomaar eens kunnen kloppen. Dan is dus de 4070ti --> 4080 12GB ; 4070 --> 4070ti; 4060ti 16GB --> 4070 en deze 4060Ti --> 4060.
Alhoewel die 4060Ti 16GB ook later is toegevoegd. In ieder geval, de namen kloppen niet meer bij de kaarten. De prijzen daarentegen liegen niet. Jammer dat de prijzen wel omhoog kunnen als de markt het toe laat (covid/crypto) maar als de markt tegenzit de prijzen niet evenredig noch in hetzelfde tempo worden bijgesteld.
https://tweakers.net/nieu...t-op-16-november-uit.html
Op 1440P 'maar liefst' 8% sneller dan zijn - qua naam - direct voorloper 3060Ti :|

Het lijkt wel dat hoe lager je in de 40 series komt qua line-up, hoe minder de vooruitgang qua prestaties is t.o.v. het voorgaande 30 series model:

3090>4090 (4K)=50% sneller
3080>4080 (4K)=45% sneller
3070Ti>4070Ti (4K)=39% sneller
3070>4070 (1440P)=21% sneller
3060Ti>4060Ti (1440P)=8% sneller :+
En zuiniger niet te vergeten :+
De kaart is niet eens sneller in alle gevallen. Zo heeft de 4060Ti slechtere 1% lows dan de 3060Ti in Fortnite. Toch wel een veel gespeeld spel waarbij een stabiele framerate belangrijk is. Erg teleurstellende kaart en een afrader totdat de prijs verandert.
Bij de WarhammerIII benchmarks op 4k is de 4060Ti zelfs langzamer dan de 3060Ti... En 4k Medium lijkt speelbaar op de 3060Ti.
Ik denk dat er niet veel Warhammer III 4k Medium wordt gespeeld. In Total war gaat je unit size mee met de instellingen. Dus op medium zitten er minder poppetjes in een eenheid. Op 1080 zullen er wel mensen zijn die medium spellen als je een PC hebt die het anders niet trekt. Maar op 4k verwacht ik dat meeste dan naar custom gaan.

Zelf heb ik wel wat grafische instellingen terug gezet tenopzichte van ultra, maar die unit size laat ik wel op ultra om op 1440p Warhammer III te kunnen spelen op een 3060Ti.
Als ik dit zie ga ik zeker niet upgraden. Nu had ik daar ook geen plannen voor.
De 3060 Ti met GDDR6X valt daar nog ergens tussen dus maar 3-4% sneller. Dat is nl. de enige die nu nog wordt verkocht.
RTX3050>RTX4050=5% langzamer als het zo doorgaat.

Wat een absolute afgang.
Komt er dan een 4050 deze generatie? Nvidia skipped toch wel vaker de modellen voor de lowrange ?
Ze hebben nu nog genoeg speelruimte aan de onderkant met een x60 kaartje voor 400 euro...
De teleurstelling is zo droevig ik me werkelijk afvraag Nvidia aan de geestverruimende middelen zit...
Op 1440P 'maar liefst' 8% sneller dan zijn - qua naam - direct voorloper 3060Ti :|
Het wordt nog veel erger. der8auer heeft de 4060Ti op een PCI-e 3.0 systeem getest. Daar is de kaart niet eens sneller dan een 3060Ti. Deze kaart heeft te weinig PCI-e lanes waardoor de kaart te weinig bandbreedte heeft op oudere systemen.

Ofwel, als je een iets ouder systeem hebt en dacht te upgraden naar een 4060Ti. Dat gaat hem dus niet worden.

Ook het argument dat de kaart zuiniger is gaat niet op. Het verschil is zo klein dat je met 4 uur per dag gamen (en wie doet dat nou?) na 3 jaar nog steeds niets gewonnen hebt met een 4060Ti.

Deze 4060Ti kaart is er dus echt een om over te slaan. Waardeloze trage kaart met een veel te hoge prijs.
"Voor 449 euro koop je met de RTX 4060 Ti een videokaart die bijna even snel is als de RTX 3070 en iets sneller dan de RX 6700 XT. "

Op dit moment koop je voor 429 euro een RTX 3070.

De RTX 4060 TI is net uit en nu al te te duur, te langzaam en al helemaal niet toekomstbestendig.
Niet dat het verdiend is maar ik denk dat deze kaart een verkoopsucces wordt.

Als de oude modellen uitverkocht zijn en er een paar tientjes van de prijs afgaan dan wordt dit een interessante aankoop tenzij AMD er iets goeds tegenover zet.
En bedenk je de systembuilders die met een mindere voeding afkunnen in een door hun samengesteldsysteem. De losse componenten markt is inmiddels flink geslonken. Ik vermoed dus dat Nvidia zich dus vooral op de complete systemen markt richt.
Dat betwijfel ik ten zeerste. Het 16 GB model gaat € 559 kosten. Welk voordeel heb je met die kaart tov een RX 6800 voor € 499? Ruim 10% duurder, voor 10% mindere prestaties, het moet niet gekker worden...
Het is maar de vraag hoe lang de 6800 beschikbaar blijft, AMD biedt de kaart zelf niet meer aan en er staat waarschijnlijk een 7xxx variant klaar om gereleased te worden.
Wat je schrijft staat ook in het tweede deel van die alinea, wat je dan net niet quote ;)
Toch springt de RTX 4060 Ti er niet uit tussen dit huidige aanbod dat momenteel voor vergelijkbare of soms zelfs lagere prijzen verkrijgbaar is.
Mogelijk proberen ze nog steeds van het overschot aan 3000-series kaarten af te komen. Als de 3070 een betere deal is dan gaan mensen die kopen in plaats van een 4060Ti, exact wat Nvidia wil.
Voor 449 ging de 3060ti naar mijn pc met 2080 prestaties had daarvoor een 2060.
Net als je denkt Nvidia kan het niet bonter maken komen ze met een kaart die wel de kroon spant!

Tweakers doet minder games in de benchmarks en afhankelijk welke je kiest wordt het nog slechter dan wat hier staat!

Hardwareunboxed heeft ook de review staan, 8% op 1080, 5% op 1440 en 3% op 4K sneller, met Hogwarts en the last of us waarin deze kaart zelfs langzamer is dan de 3060TI!!

Dat is gewoon ronduit schandalig. 8GB is nu al een bottleneck met bv The last of us en Hogwarts leg als je high en ultra wilt spelen.

En 449€ is alles behalve budget wat mij betreft! Okay hij verbruikt minder dan een 3060ti en is energie efficiënt maar men had de kaart ten minste een 35% sneller moeten maken dan de 3060TI.

De 128 bits bus is nu al een bottleneck en wordt dat alleen maar meer. Deze kaart zou gewoon een budget instap kaart moeten zijn van 199€. Maar Nvidia denkt dat mensen achterlijk blijven blijkbaar.

Als je als gamer de keuze hebt tussen een complete PS5 of Xbox series X voor nagenoeg dezelfde prijs moet je wel heel naïef zijn om voor deze kaart te kiezen.

Bij elke launch van Nvidia denk je nu kunnen ze het niet gekker maken( 4090 prijs bij launch net als de 4080) Daarna de achterlijk dure 4070TI gevolgd door een eveneens duren 4070 en nu dit...

Ik weet niet wat zee aan het doen zijn bij Nvidia, maar het lijkt erop dat ze geen klanten meer willen hebben op deze manier. Ik zal deze kaart never kopen of adviseren. Het is gewoon een trieste aanfluiting.

Nu is het wachten tot de 16gb 4060TI uitkomt die eigenlijk nog slechter zal zijn door de beperkte 128 bit bus. Man man, koop je dadelijk een kaart van bijna 600€ die in vooral nieuwe titels niet optimaal gebruikt kan worden. 🤢

[Reactie gewijzigd door Mindfree op 23 mei 2023 17:08]

De nog uit te komen 16 GB-versie van deze kaart klinkt als een aantrekkelijke upgrade voor mijn GTX 1080. die geïnstalleerd is in een compacte behuizing waardoor de TDP niet te hoog mag zijn. HDMI 2.1 is daarbij een bonus. :)

De enige te overwinnen drempel is de prijs. De vraag is niet of ik het kan betalen, maar of ik dat het waard vind.

[Reactie gewijzigd door The Zep Man op 23 mei 2023 15:05]

De reviews van Gamer Nexus wijzen erop dat de 16 GB de moeite echt niet waard gaat zijn. De bus is te hard geknepen, met maar 128 bits. Voor DLSS3 is dat nog wel voldoende, maar tegelijkertijd heb je geen 16GB meer nodig als je DLSS3 gebruikt. Ben je daar echter geen fan van, dan moet je naar een 192 bits bus en dus de 12 GB 4070.

Simpel gezegd: je hebt niets aan de extra 8 GB als je te weinig bandbreedte hebt om daar bytes uit te halen.
Wel als je op je VRAM tanden loopt de laatste 10 maanden. (Uitsluitend AI en ML)
16 is net te weinig voor me.. ik heb nu 11.
24 zou ik wel pakken maar dan zit je gelijk weer op 3090/4090
Inderdaad ook mijn usecase.

Mijn kaart koop ik primair om met ML te spelen, en secundair om te gamen. De hoeveelheid geheugen is belangrijker dan de snelheid. Dat is ook de reden dat ik op een 3060 met 12G zit. Voor mij een sweet spot qua vram en budget.

Het is jammer hoe weinig (lees geen) aandacht daaraan besteed wordt bij reviews van grafische kaarten hier op tweakers.

[Reactie gewijzigd door bassekeNL op 24 mei 2023 09:58]

Ik zet met hetzelfde probleem. Graag meer VRAM voor ML training en inference. Echter is de memory bandwitdh ook erg belangrijk.
when comparing two GPUs with Tensor Cores, one of the single best indicators for each GPU’s performance is their memory bandwidth
En laat de toekomstige 4060 met 16GB VRAM het daar nu net afweten. Dit komt nVidia natuurlijk goed uit, want je moet dan alsnog voor een duurdere kaart kiezen voor dit soort scenario's.
DerBauer zei volgens mij weer het tegenovergestelde. Wanneer hij de 4060ti met PCIE 4 lanes testen ipv 8 ging de performance practisch niet omlaag.
Daarom gok ik dat 16GB wel degelijk gaat helpen. Prijs zal uiteraard te hoog zijn.

Gaat wel interesant zijn op 1op1 benches te zien tussen 8 en 16 GB.
Stel die 16GB variant gaat honderd euro meer, dus 549 euro kosten.
Dan heb je voor 70 euro meer een RTX 4070 (wel met maar 12GB).
Die is in al de grafiekjes in deze review zoveel sneller.
Dus als je een nieuwe videokaart wil, en je wil per se Nvidia 40-serie, en je bent bereid meer dan 500 euro uit te geven, dan nog lijkt het erop dat de 4060Ti 16GB gewoon geen echte optie is.
Stel die 16GB variant gaat honderd euro meer, dus 549 euro kosten.
Dan heb je voor 70 euro meer een RTX 4070 (wel met maar 12GB).
Die is in al de grafiekjes in deze review zoveel sneller.
Een GTX 1080 zit al op het randje van wat deze compacte kast aan kan. Een RTX 4070 heeft een hogere TDP en gebruikt ook daadwerkelijk meer energie, die afgevoerd moet worden. Een RTX 4060 TI krijgt waarschijnlijk een TDP van 165 watt, wat een slag lager is dan de GTX 1080. Qua warmteontwikkeling ga ik er ook op vooruit i.p.v. achteruit.

Verder heeft een RTX 4070 inderdaad 'slechts' 12 GB geheugen, en heb ik wat toepassingen (niet spellen) waarvoor meer VRAM beter is. Ook is een RTX 4070 inderdaad iets duurder.

Vergeet niet dat ik kom van een GTX 1080, en dat zelfs een 4060 TI voor mij een aardige upgrade zal zijn.

[edit]
Onnodig agressieve zin weggehaald.

[Reactie gewijzigd door The Zep Man op 23 mei 2023 22:09]

Het mag wel wat vriendelijker, @sanderbos probeert je alleen maar te helpen :)
Hier een 3080 in een compacte behuizing.. Het is maar hoe je alles koelt vermoed ik ?
Dan moet je ook nog even bekijken welke pci versie je hebt. De 4060ti gebruikt maar een half 4.0 pcie slot (8 in plaats van 16 lanes), snel genoeg op pcie 4 maar niet op pcie3. De gtx 1080 komt uit de tijd van pci 3.0, is je mobo en of cpu uit dezelfde tijd gaat die ook maar pcie 3.0 zijn dus half zo snel. Een paar eerste reviewtjes laten zien dan je dan zo'n 5 a 10% trager wordt https://www.youtube.com/watch?v=SIugY8lDJhY 6:15 , vergeleken met de resultaten hier.
Dus ook maar 8 lanes op je pcie3.0 of de helft van de bandbreedte van je oude gtx1080 kaart.

[Reactie gewijzigd door redzebrax op 24 mei 2023 00:01]

Het grootste probleem van deze kaart is vooral zijn achterlijk kleine geheugenbus: slechts 128bit, iets dat je eerder enkel bij xx50 kaarten zag.

Ook met 16 GB is dat probleem er nog steeds. In sommige gevallen zal de 16GB versie wel wat beter zijn, maar veel extra performance valt hier gewoon niet uit te halen.
Hi all,

Ik zit te twijfelen om mijn RTX 2060 te upgraden voor deze kaart, is dit het waard?

Ik game over het algemeen op 1440p en merk dat mijn huidge kaart wat minder aan het worden is.

Zijn er andere opties ?

Op het moment heb ik 550 watt voeding en hoop deze te kunnen blijven gebruiken.
Je kan de review van Gamers Nexus bekijken...

https://www.youtube.com/w...st=WL&index=4&pp=gAQBiAQB

Korte antwoord: nee. Ik zou eerder voor de 4070 gaan.

[Reactie gewijzigd door Roadrunner op 23 mei 2023 19:27]

Die zit net boven mijn prijspunt :(

Ik heb de review gezien en mij boeit het ook niet of niet alles op ultra kan.
Ik snap de frustratie wel als je naar de 3060Ti kijkt maar die zie ik ook overal voor 450 euro :/

[Reactie gewijzigd door MrRyuzaki op 23 mei 2023 19:34]

ga AMDs kopen domme mensen... stop met Nvidia heilig maken.
Slechts 5-8% sneller dan de 3060Ti van de vorige geneatie voor hetzelfde geld.. Dat is toch best wel iets om je voor kapot te schamen als Nvidia.. En ja, ze zullen het wel weer proberen te verkopen met mooie verhalen over DLSS 3.0, AV1 en de betere efficientie (iets waar Tweakers vrolijk aan meedoet gezien de conclusie), maar uiteindelijk gaat het altijd puur om de fps per euro die je krijgt voor je geld, en daar zit dus amper tot geen vooruitgang in.. Zoveelste aanfluiting van deze Nvidia 4000-serie generatie GPU's..

Wordt lachen trouwens als straks de reviews komen van de 16GB versie die amper sneller zal zijn (want zelfde specs behalve meer VRAM).. Daar gaan ze meer dan 500 euro voor durven vragen, en ook dat gaat dus (volkomen terecht) voor geen meter verkopen.. Het is bijna gewoon zielig (hoe blind ze zijn voor het huidige sentiment in de markt)..

[Reactie gewijzigd door Inflatable op 23 mei 2023 16:28]

maar uiteindelijk gaat het altijd puur om de fps per euro die je krijgt voor je geld
En daar komt juist DLSS3 dus bij om de hoek kijken, want die maakt een groot verschil wat betreft fps.
Ik denk dat jij je nog eens gruwelijk zult vergissen in hoe deze kaarten zullen gaan verkopen. Echt veel keuze in een moderne kaart is er niet binnen dit segment.

[Reactie gewijzigd door SuperDre op 23 mei 2023 17:30]

DLSS 3.0 creëert nep frames (zonder input) tussen de echte frames door om de illusie te wekken van meer fps.. Je wordt infeite voor de gek gehouden.. Qua echte rendering is de 4060Ti GPU amper sneller dan die van de 3060Ti.. Ook lang niet alle games ondersteunen DLSS 3.0..

Deze 4060Ti gaat minstens net zo slecht verkopen als de rest van de 4000-serie.. Het best verkopende model is nog altijd het enorm dure top model 4090, wat boekdelen spreekt.. Dat er verder weinig keuze is geeft ook alleen maar aan hoe enorm triest het gesteld is met de videokaart-markt op dit moment.. Nvidia en in mindere mate AMD dachten lekker door te kunnen profiteren met enorme marges na de Covid19 en crypto gektes met hun nieuwe generaties.. Helaas voor ze.. Ik voorzie in de 1e paar weken al kortingen op 4060Ti, net zoals met de 4070 gebeurd is.. 1 grote verkoopflop (gelukkig)..
Jij hebt geen nvidia vermoed ik ?
Ik gebruik dlss in veel games niet alleen voor betere fps maar vooral voor de betere anti-aliasing die het kan bieden. Zie bijvoorbeeld resident evil 4 waar dlss betere anti-aliasing heeft dan native.
Ik heb een RTX 3080 10GB op dit moment.. Daarvoor ook generaties lang Nvidia gehad.. Ik ga niet goedpraten wat ze deze generatie flikken vooral met hun prijsbeleid in het hogere segment en de zogenaamde "prestatieverbeteringen" in het lagere segment.. Je krijgt alleen maar echt meer prestaties als je ook flink meer betaald, of je wordt genept met frame-generatie..
Jij hebt het over de upscaling van DLSS. Die is absoluut bruikbaar en heeft in veel gevallen (niet altijd) betere AA dan native rendering inderdaad. Frame generation (DLSS 3) is een heel ander verhaal.
"Nep frames"...

Het is makkelijk om te vergeten wat het doel van een videokaart is. Dat is om je ogen voor de gek te houden, dat ze een 3D scene zien op je scherm (of VR bril). En je ogen hebben géén frame rate. Vanwege de evolutionaire noodzaak om beweging snel te zien wordt motie-detectie al vroeg in het visuele systeem gedaan, zonder daarbij het hele 3D beeld te hebben. DLSS frames kunnen op die manier prima bijdragen aan de belevenis van snelle, vloeiende beweging. Dat hoeft niet perfect te zijn, want je hersens hebben simpelweg niet de bandbreedte om in een paar milliseconden die theoretische imperfecties te zien.
Je vergeet nog de beste DLSS 3 feature te vermelden, hogere latency!

Nvidia doet echt altijd alles goed en DLSS heeft alleen maar voordelen, dus hogere latency is beter, punt uit. :+
"De RTX 4060 Ti tilt daarmee de markt voor mainstreamvideokaarten naar een hoger niveau wat features en prestaties betreft, maar helaas geldt dat ook voor de prijs."

Is de definitie van mainstream, juist niet de prijs die dat bepaald? Oftewel de RTX 4060 Ti is niet meer een mainstream maar een instap high-end kaart geworden.
Mainstream betekend 'voor de massa', je moet het in verhouding met de rest van het aanbod zien, los van de prijs.

Of het nu budget, mainstream of high-end is, de prijzen liggen hoger dan een paar jaar geleden. €550 of zelfs €660 is alsnog minder dan ik voor m'n 3060Ti heb betaald, dat maakt mijn kaart niet ineens high-end.
"De RTX 4060 Ti tilt daarmee de markt voor mainstreamvideokaarten naar een hoger niveau wat features en prestaties betreft, maar helaas geldt dat ook voor de prijs."

Is de definitie van mainstream, juist niet de prijs die dat bepaald? Oftewel de RTX 4060 Ti is niet meer een mainstream maar een instap high-end kaart geworden.
Volgens mij is het beter om te kijken naar wat mensen daadwerkelijk doen. Als grote groepen deze kaart kiezen als beste keuze dán is het een mainstreamvideokaart. De prijs heeft natuurlijk een grote invloed op welke kaart mensen kiezen maar het is niet het enige. De invloed van de GPU op de perfomance van spellen is steeds groter geworden in verhouding tot andere aspecten zoals je CPU en RAM. Het is dus niet gek dat mensen een steeds groter deel van hun computerbudget uitgeven aan de grafische kaart.

Door inflatie is het ook nog eens lastig om de prijzen van nu te vergelijken met die van 5 jaar geleden.
Nee, high-end is 4080 of hoger IMHO. Of wat wil je daar voor segment aan hangen?
Nee, hij heeft het over prijs. Vroeger had je voor 400 euro (of minder) top of the line videokaart...
Nu een instapkaart ala 4060...
Vroeger vroeger. Vroeger had je een 5 deurs hatchback voor 15k. Vroeger had je een mooi huis voor 150k. Vorig jaar had je (in theorie) een relatief high end kaartje voor 749 euro. Een 1080ti was dat ook. Die zijn absoluut flink duurder geworden. Maar voor 400 euro heb je al heel lang geen high end kaart meer.
GTX 1070? Tamelijk high-end.
Midrange. Dat was nog in de tijd dat de echte high-end een aparte naam had (Titan). Daaronder had je dan nog twee "gewone" modellen die je beide nog als high-end kon aanduiden (1080 Ti en non-Ti). 1030 en 1050 waren de low-end opties, 1060 en 1070 dus midrange.
Maarja, in 2008 kostte een fles 1.5L coca cola ook maar 1,41 en nu 2,49, en dat is dan iets dat niet eens een nieuw product is.
En de RTX2060Super en de RTX3060ti hadden ook beiden een adviesprijs van $399, net zoals de RTX4060ti. Ja, de GTX1060 (non ti) was al een stuk goedkoper $249, en de GTX960 (non ti) was ook $199. De GTX4060(non ti) gaat ook $299 kosten.
Dus gezien de behoorlijke inflatie van de afgelopen jaren, waarbij alles een stuk duurder is geworden, valt het toch nog best mee. Ja, tuurlijk had ik het ook graag gezien dat die kaarten een stuk goedkoper waren, maar ik vond bij de 2060super die ik destijds kocht al verrekte duur (367 was toen (nov 2019) het goedkoopste dat die te krijgen was, onbekend merk EN in de aanbieding).
De prijs maakt iets niet high of low end. Het product zelf, en de plaats in de lineup bepalen dat.
Vroeger was top of the line SLI / Crossfire en daar was je vaak meer dan €1000 aan kwijt. Tegenwoordig is dat niet meer de moeite waard dus daar is de XX90 klasse voor in de plaats gekomen.
Hoe zie jij "instap high-end" met maar 8GB VRAM precies voor je? :+
8GB is echt nog zat hoor, voor 1080p of 1440. Mensen laten zich gek maken door een handjevol slecht geoptimaliseerde games. Uiteindelijk is The Last of Us gepatched en werkt het nu ook prima op 8GB kaarten.
Ieder z'n mening...
Maar aangezien 8GB al 10 jaar op gaming videokaarten zit, en al 7 jaar midrange is (RX 480), is het niet meer dan logisch dat het nu low-end gaat worden. Dat is gewoon hoe het gaat met hardware.

Naar mijn mening is deze review er eentje van het type 'heel voorzichtig bewoorden'/'niet al te kritisch zijn'. Dat mag Tweakers natuurlijk prima maar heel realistisch kan ik het niet vinden... Naar mijn mening is de 4060Ti 8GB voor deze prijs letterlijk en figuurlijk DOA (vergeleken met wat er al op de markt is), en €100+ extra voor enkel 8GB erbij op de 4060Ti 16GB is ook belachelijk IMO.

edit 1
Dezelfde kaart, heel andere review:
https://www.techspot.com/...idia-geforce-rtx-4060-ti/

edit 2
Dezelfde kaart, heel andere review, Gamers Nexus:
https://youtube.com/watch?v=Y2b0MWGwK_U

[Reactie gewijzigd door HuisRocker op 23 mei 2023 19:33]

Uiteindelijk bepalen software ontwikkelaars of de 8gb vram genoeg blijft. Aan de hand van de systeemeisen die ze stellen. Als 8gb de norm is voor een midrange kaart dan zouden ze zich daarop aan moeten passen. Maar weet niet zeker of ze dat gaan doen. Zal dan anders wel te kosten gaan van hun eigen sales. Of mensen richting de consoles pushen. Wat hun waarschijnlijk dan weer weinig boeit.
Ik kan mij nog een gelijkaardig dilemma herinneren van de Geforce 4200ti die bestond in een 64MB en 128MB versie.
De 128MB versie was volgens de experts de betere keuze, want toekomstgericht.
Enkele jaren later bleek dat de mensen die de 128MB versie hadden gekocht (waaronder ikzelf) teveel hadden uitgegeven: de chip was niet snel genoeg om de nieuwere games te draaien met hoog detail waardoor de 64MB versie even snel bleek.

De kans lijkt mij reeel dat deze 4060ti hetzelfde probleem zal hebben.
We hebben bij de 1060-kaarten gezien dat de 6 GB versie veel langer meeging dan de 3 GB versie.

En reviewers kunnen nu al allerlei situaties creëren waarbij de chip op zich snel genoeg is, maar de kaart uit zijn geheugen loopt. Dat zorgt dan met name voor grote dips in de prestaties, waardoor je flinke stotters krijgt, wat buitengewoon irritant is.

Er zijn ook diverse interviews geweest met ontwikkelaars die aangeven dat ze zich niet meer laten limiteren door 8 GB geheugen.
Er zijn ook diverse interviews geweest met ontwikkelaars die aangeven dat ze zich niet meer laten limiteren door 8 GB geheugen.
Dat is ook prima toch zolang ze alles maar goed schaalbaar maken. 8GB zou ruim voldoende moeten zijn voor medium-high. Als je Ultra wil, dan pak je een segment hoger. Alles wat op 5 jaar oude hardware draait (consoles) zou met gemak op een moderne GPU moeten draaien. Vrijwel alle VRAM issues van de afgelopen tijd komt door slecht geoptimaliseerde games of dat mensen met x60 of x70 kaarten alles volle bak open zetten i.c.m. 4K resoluties waar die kaarten niet voor bedoeld zijn.
Ultra loopt nu bij diverse spellen al over de 8 GB heen en dat gaat daarna natuurlijk gebeuren voor high, dan voor medium, etc. Dat is bij The Last of Us al het geval, waar je zelfs bij medium al bijna 10 GB gebruikt.

Het verhaal dat het allemaal komt door een gebrek aan optimalisatie is een broodje aap verhaal. Dan kun je net zo goed beweren dat elk spel slecht geoptimaliseerd is omdat de spellen niet meer in 1 GB passen.

Uiteindelijk willen ontwikkelaars de gamers steeds wat extra's geven, wat ook steeds meer geheugen kost.

[Reactie gewijzigd door Ludewig op 23 mei 2023 19:54]

Laat ik die nou nog steeds gebruiken. Prima kaart!
Bij die kaart was dat toekomst kijken (er waren geen games die er gebruik van maken)
Bij deze kaart is het simpelweg kijken naar games die al op de markt zijn. Als je alsnog in de toekomst wil kijken heb je ook betere historische data, het zijn de moderne games die niet genoeg VRAM hebben en dat gaan er enkel meer en meer worden.

Er zijn ook een aantal game developers die hebben aangegeven dat het lastig is om constant 8GB aan VRAM als ondergrens in gedachte te nemen - wat voor NVIDIA toch wel een teken zou moeten zijn om geen kaarten daarmee uit te brengen. Zeker niet als ze toch wel behoorlijke performance hebben.
(AMD doet het iets beter maar heeft ook de nodige missers, de vorige generatie hadden ze bij 4GB RX 6500 XT te weinig geheugen en het belooft ook weinig goeds voor de aankomende 7600 XT met 8GB).
Meerdere spellen lopen al tegen issues aan met maar 8GB vram. Problemen met het laden van textures, frame stuttering en soms zelfs ronduit crashes.
De 16GB is een goede uitkomst voor Stable Diffusion en andere ML/AI spullen. Daar is meer VRAM vaak beter dan een hogere kloksnelheid.
Ha ja de 4200ti zat ooit ook in mijn systeem (Athlon XP 2000+ die later gerbranded werd naar 2400+) De koeling op de gpu was niet echt toereikend voor de hitte die er afkwam en dus was het een herriebak. De fan zelfs nog proberen te vervangen! Dat ging dus niet goed en dus daarna uit nood een silent 6200 bij de MM gekocht die ongeveer net zo snel was. Een GPU waar ook bijna iedereen zeer negatieve comments over had, maar voor mij dus een uitkomst was. Stil en nog dezelfde performance ook!
(De goede ouwe tijd dat videokaarten nog gewoon goedkoper werden binnen een jaar en dus even wachten loonde. Dat zal je nu dus duidelijk kunnen vergeten)

[Reactie gewijzigd door AtariXLfanboy op 23 mei 2023 18:02]

Ik denk dat ik toch de review van Gamers Nexus meer vertrouw. Die zeggen dat je deze kaart links moet laten liggen zodra je op een resolutie gamed van boven de 1080p.
Niets voor dus als 4K gamer.
Zelfs op 1080p lopen sommige games tegen problemen aan. Meestal alleen op ultra settings, maar soms al op high settings.
Over 2 jaar zit je voor AAA titels geheid tegen medium-low aan te hikken.

Niet een al te te beste situatie voor een €450 (!!!!) kaart, een prijs die tot voor kort behouden was voor stevige upper mid range kaarten.
Ik denk dat ik toch de review van Gamers Nexus meer vertrouw. Die zeggen dat je deze kaart links moet laten liggen zodra je op een resolutie gamed van boven de 1080p.
Niets voor dus als 4K gamer.
Waar in deze review hier lees je dan dat je de 4060 Ti voor 1440p of 4K moet gebruiken of kunt overwegen? Volgens mij sluit het juist wel aardig aan, er wordt ook primair naar 1080p gekeken omdat de kaart daarvoor bedoeld is.
M'n hele leven en bij ieder spel is het altijd al spelen met instellingen geweest om een acceptabele balans tussen looks en prestatie te vinden, maar tegenwoordig lijkt het alsof alleen 'ultra' maar geldt en alles wat daarbij onder de 60 fps komt onacceptabel is.

Ultra instellingen zijn voor mij iets voor high-end kaarten. Ik speelde met m'n 1060 6GB al op 1440p, en zou als ik een 4K monitor zou hebben daar nu m'n 3060Ti voor gebruiken. Als het niet soepel genoeg draait zet ik een paar of alle instellingen wel een stapje of twee naar beneden.

Wat ik bedoel te zeggen, in mijn ogen is dit een echte 1440 kaart en zeker geen 1080 kaart, tenzij je je aan de fps hype mee wil doen natuurlijk.

[Reactie gewijzigd door Alxndr op 23 mei 2023 15:44]

Sorry hoor, maar deze producten bestaan niet in een vacuum. Als de 4060 ti gratis was, dan was het inderdaad een prima kaart voor 1440p of 4k. Ik heb ook een tijd een RX 480 8gb gebruikt op 1440p en daar kon je prima leuke games mee spelen. Er is meer mogelijk dan je denkt als je je verwachtingen bijstelt.

Echter, deze 4060 ti kost 400$ en voor die prijs kunnen we best hogere eisen stellen dan "adequaat". Denk je echt dat 8% verbetering het beste is dat NVIDIA doen kan? Ze zijn gewoon lui geworden door de mining hype en daardoor hebben we dit slappe aftreksel van een videokaart.
Even ter vergelijking: de 3060 ti is meer dan 30% sneller dan de 2060S en de 2060S is meer dan 30% sneller dan de 1070.

Stel, de 5060 ti is even 'goed' en is dus ook 8% sneller dan zijn voorganger, dan zou deze 5060 ti even snel zijn als een 3070 ti. Zou jij dat product kopen? Of doe je toch mee aan de "fps hype"?
Het lijkt alsof je op iemand anders reageert. Relatieve prestaties tov van vorige generaties en de prijs heb ik het toch helemaal niet over?

Nog afgezien dat ik het compleet oneens ben. 8% meer is significant, DLSS 3 en AV1 ook, om over betaalbaarheid en beschikbaarheid tov van de vorige generatie nog maar te zwijgen.
Je zegt dat dit een prima 1440 kaart is, mits je de settings wat lager zet, maar IMO zouden we anno nu voor 400$ wel iets hogere verwachtingen moeten hebben. 3060 ti is even snel als 2080 super, als deze kaart even goed was als een 3080 ti, dan zouden er geen discussies of compromissen nodig zijn.

Overigens is het geen goed teken dat de kaart 1080p ultra niet aan kan. Wat vandaag ultra is, zal ooit high heten, dan medium, enz.
Hopelijk gaat dit niet al te hard, maar de dag dat medium textures + low RT meer dan 8gb is gaat zeker komen.

[Reactie gewijzigd door B127 op 23 mei 2023 19:17]

8% is significant?

Dat is nog niet het verschil tussen 55 of 60 fps...

AV1 is alleen leuk voor streamers, en DLSS 3 geeft de illusie van meer frames, maar je input lag ligt hoger.
Ik heb een 7 jaar oude 1080ti en die scoort ook nog steeds even hoog als de 3060ti. Dit is al langer aan de gang.
M'n hele leven en bij ieder spel is het altijd al spelen met instellingen geweest om een acceptabele balans tussen looks en prestatie te vinden, maar tegenwoordig lijkt het alsof alleen 'ultra' maar geldt en alles wat daarbij onder de 60 fps komt onacceptabel is.
Ik probeer het altijd te vergelijken met de consoles. T.o.v. Switch is eigenlijk alles beter :+ . Die zit nog op 500 Gflops. Deze kaart is qua performance ongeveer gelijk of sneller dan de Playstation 5 waar een iets langzamere 6700 XT in zit. (10.3 TFLOPS).
Als je je PC ook voor andere doeleinden gebruikt dan is de prijs van deze kaart vergelijkbaar met een uitvoering: Sony PlayStation 5 Digital Edition Wit, Zwart. Wil je meer geheugen dan kun je ook kijken naar de 6700xt of 6800.

30 fps @1080p@medium settings (met FSR naar 1440/4k) is prima speelbaar in mijn optiek. Voor sommige games wil je liefst wel >48hz (daar beginnen de meeste freesync monitoren), maar dat kan ook prima met de juiste instellingen.
Zo speel ik zelf ook altijd mijn spellen.

Ik stel het spel in op de resolutie van de monitor (als ik het niet vergeet... zie boven... en het niet vanzelf gebeurt), en zet dan alle instellingen op max. Dan kijk ik wat de prestatie is, en dan verlaag ik de instellingen één voor één, stap voor stap, te beginnen bij degene die ik het minst belangrijk vind. Zodra het spel rond de 60 FPS draait vind ik het wel prima.
Tjah, NVIDIA is het niet met je eens en heeft deze als een 1080p kaart neergezet. Hoogstwaarschijnlijk doordat de memory bus zo klein is dat bij 1440p in sommige gevallen de performance behoorlijk onderuit gaat (zie de Gamers Nexus review).

Bij PC gamers in het algemeen is een 60fps inderdaad toch wel de ondergrens, dat is het ook al jaren geweest. In recente jaren is er ook vraag naar flink meer i.c.m. hoge refreshrate monitoren.
1 2 3 ... 6


Om te kunnen reageren moet je ingelogd zijn

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee