Nvidia brengt GeForce RTX 4060 Ti-variant met 16GB geheugen uit

Nvidia heeft zijn GeForce RTX 4060 Ti 16GB uitgebracht. Het bedrijf kondigde die kaart eerder al aan voor een release in juli, maar deze had nog geen concretere releasedatum. De RTX 4060 Ti krijgt een adviesprijs van 559 euro. Dat is 110 euro meer dan de bestaande 8GB-variant.

De Nvidia GeForce RTX 4060 Ti 16GB kwam dinsdag 18 juli om 15.00 uur uit. De videokaart heeft twee keer zoveel geheugen, maar is verder identiek aan de huidige RTX 4060 Ti 8GB. Zo behoudt de 16GB-variant een Ada Lovelace-gpu met 4352 CUDA-cores. Ook de geheugenbus van 128bit blijft ongewijzigd. De 16GB-variant heeft een adviesprijs van 559 euro, terwijl de 8GB-variant beschikbaar is voor 449 euro.

Er zijn nog geen onafhankelijke reviews van de RTX 4060 Ti 16GB verschenen. Nvidia heeft voor de release van deze kaart geen reviewsamples beschikbaar gesteld. Er waren voorafgaand aan de release ook geen drivers beschikbaar voor de pers, schrijft TechPowerUp. Daardoor was ook het testen van eventuele kaarten van boardpartners tot het introductiemoment niet mogelijk.

Nvidia GeForce RTX 4060 en 4060 Ti

Videokaart RTX 4070 RTX 4060 Ti RTX 3060 Ti
Gpu AD104, TSMC 4N (5nm) AD106, TSMC 4N (5nm) GA104, Samsung 8nm
Streaming Multiprocessors 46 34 38
CUDA-cores 5888 4352 4864
L2-cache 36MB 32MB 4MB
Geheugen 12GB GDDR6X 8 of 16GB GDDR6 8GB GDDR6
Geheugenbandbreedte 504GB/s 288GB/s 448GB/s
Tgp 200W 160W 200W
'Gemiddeld stroomverbruik
tijdens gamen'
186W 140W -
Adviesprijs 669 euro 8GB: 449 euro
16GB: 559 euro
419 euro

Door Daan van Monsjou

Nieuwsredacteur

18-07-2023 • 16:41

116

Lees meer

Reacties (116)

116
114
48
2
1
55
Wijzig sortering

Sorteer op:

Weergave:

NVIDIA heeft schijnlijk een niet geupdate grafiek gedeeld, of zie ik dat verkeerd? Ze hebben letterlijk dezelfde grafiek als de 8GB versie gereleased, maar een gedeelte anders ingekleurd zodat het lijkt alsof de 16GB versie zoveel beter is.

https://cdn.discordapp.co...80p-max-settings_full.jpg
https://cdn.discordapp.co...6572/dhRaj96gV1j4vnUy.jpg

Edit: Blijkbaar is dit de 16GB grafiek: https://cdn.mos.cms.futurecdn.net/XkShqDuubMJbKAzDpyTqMP.jpg
Hierbij is het opvallend dat Resident Evil 4 en Plague Tale lagere FPS hebben, maar blijkbaar met hogere settings. Alsnog vrij misleidend en hierdoor lijkt het juist alsof de 16GB versie juist slechter is, en de game beter is geoptimaliseerd als je het mij vraagt.

[Reactie gewijzigd door Apart op 22 juli 2024 17:23]

Ja de Nederlandse marketing pagina verwijst naar de engelse pagina. Daar staat wel een logisch verhaal: https://www.nvidia.com/en.../geforce-rtx-4060-4060ti/

Hier wordt ingegaan op de verschillen tussen de 8 en 16GB kaarten:
In most games, both versions of the GeForce RTX 4060 Ti (8GB and 16GB) will deliver the same level of performance, because the specs are otherwise identical. There are a handful of games which play best at “High” settings presets on the RTX 4060 Ti (8GB), and “Ultra” settings on the RTX 4060 Ti (16GB).

In most games, both versions of the GeForce RTX 4060 Ti (8GB and 16GB) will deliver the same level of performance, because the specs are otherwise identical. There are a handful of games which play best at “High” settings presets on the RTX 4060 Ti (8GB), and “Ultra” settings on the RTX 4060 Ti (16GB).
Als je goed oplet dan zie je dat in de grafiek van de 8GB variant wordt vermeld dat alles op max draait behalve plague en resident evil. Bij de 16GB grafiek is die beperking verdwenen. Hetgeen ze dus in de text uitleggen, ook bij de deep dive.
On the gaming side, high resolutions also generally require an increase in VRAM. Occasionally, a game may launch with an optional extra large texture pack and allocate more VRAM. And there are a handful of games which run best at the “High” preset on the 4060 Ti (8GB), and maxed-out "Ultra" settings on the 4060 Ti (16GB). In most games, both versions of the GeForce RTX 4060 Ti (8GB and 16GB) can play at max settings and will deliver the same performance.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 17:23]

Wait wut .. betekend dit dat ze oorspronkelijk de 8GB gelijk stelden aan de 16GB versie? (wat uiterst misleidend is en puur bedrog ?)

Bij het maken van de grafiek bij de 8GB versie gaan ze toch nog niet de gegevens van de 16GB toevoegen? Legende toont alleen aan dat er een 8GB versie is, met gegevens van de 16GB versie.
De eerste grafiek is die van de release van de 8GB versie. De grafiek die ze nu hebben laten zien is qua performance identiek, alleen anders ingedeeld in kleuren, de data lijkt precies hetzelfde. (Kijk bijv. maar naar Resident Evil 4/(Remake) ) De framerate capped bij beide grafieken op ongeveer 125, maar opeens zou de 8GB versie minder goed zijn op de grafiek waar ook de 16GB versie op staat.
In de meeste gevallen zullen de prestaties identiek zijn. Pas bij hogere instellingen, als dat extra geheugen echt gebruikt word, krijgt de 16GB versie de overhand.
Dat komt door de te lage bus 128 bit.....dit is echt een slechte kaart.
Echt links laten liggen en vooral voor de prijs!
De geheugenbandbreedte is nog wel ondermaats.

Ook vreemd dat hier een 16gb variant van komt, maar niet van de 4070's, die er meer aan kunnen hebben.
Dat zal aan de bus liggen, een 8GB kaart is vrij makkelijk te upgraden naar een 16GB kaart, simpelweg door het aantal chips te verdubbelen. Je hebt hier een 128 bits bus, dus waarschijnlijk zal je op een 8GB model van de 4060 Ti 4 32 bits geheugenchips zien van 2GB elk, en op deze kaart zullen dat er waarschijnlijk 8 zijn (of ze kiezen voor 4GB chips als deze inmiddels verkrijgbaar zijn binnen GDDR6, ik zie ze echter nog niet wanneer bijvoorbeeld kijkende bij Samsung https://semiconductor.samsung.com/dram/gddr/gddr6/).

Een 4070 heeft echter een 192bit bus waardoor je 6 of 12 chips wil gebruiken, waardoor je op 12/24GB uitkomt.
Ja wou zeggen voor ai was een 4070 ti met 16 of 20 GB wel wenselijk
Ach, als je daar echt veel mee wilt doen, commercieel, dan kan je beter een 24GB GPU kopen, duurder, maar is dan een investering. Privé voor van alles en nog wat gaat t zelfs prima op m’n 1080 Ti met 11 GB.
Niet iedereen kan zo'n investering doen, vooral voor startende developers of in welk gebied je dam ook veel vram nodig hebt (hobbyisten ook bijv) dan is een 16gb 4060 ti wel aantrekkelijk. Helaas nog steeds te duur tov vorige gen natuurlijk.
Heb dezelfde grafische kaart als jij en alles lukt. Ik heb zelfs een image AI generator lokaal draaiend gekregen. Ben echt trots op de aanschaf van die tijd.

Toch moet ik eerlijk bekennen dat ik stiekem naar nieuwe kaart aan het loeren ben.
Inmiddels begint ray tracing te lonken en in tijden geen games meer op ultra/high settings gespeeld.
Same, ik draai gewoon Automatic1111 op Windows, met AI generation (Stable Diffusion), tientallen models en LORA's, en dat gaat gewoon prima. Alleen niet super snel, maar puur voor hobby werkt dat gewoon prima.
De geheugenbandbreedte is nog wel ondermaats.

Ook vreemd dat hier een 16gb variant van komt, maar niet van de 4070's, die er meer aan kunnen hebben.
Waarom zou een 4070 er meer aan kunnen hebben? Het mooie van extra vram op je videokaart is nu juist dat je ultra textures kunt draaien op een kaart die te traag is voor de volledige ultra preset. Dan ziet je game er alsnog iets leuker uit. Maar is geen verplichting dat je kaart snel is om de hoogste texture details te gebruiken.
1440p en 4k hebben meer geheugen nodig.

De 4060 is op de markt gezet voor 1080p, 4070 voor 1440p en 4080 en 4090 voor 4k. Althans, dat is de logica van nvidia.

Het gaat niet enkel om textures.
Dat valt eigenlijk best wel mee, hoeveel meer VRAM een hogere resolutie verbruikt. Dat is echt fractioneel in vergelijking met de impact van texture detail settings. Het is niet zo dat een 4x hogere resolutie 4x meer VRAM nodig heeft.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 17:23]

Echt? de 4060 voor 1080p? wow dikke vooruitgang die kaart.....de 3060 ti draait vlekkeloos 1440p 2 k.
En in sommige test was ie sneller of gelijk aan de 4060 {de 3060 ti }
Deze kaart is een Dikke joke { 4060 }
ik blijf wel effe draaien met mijn 1070 ti op 1080p

ik koop voorlopig nog niks tot de mijne het begeeft....wordt het kamp rood.
Ben klaar met de misleiding en te mooi maken verhaaltje van Nvidia.
Wow 110€ voor een extra 8gb lol

Had ook ergens gelezen dat het rond de 20€ voor een extra 8gb zou kosten voor NVIDIA zelf.
Doen jullie geen 5.5x marge op jullie producten en diensten dan? Hoe wil je dan miljardenbedrijf worden?
/s Zo simpel is het natuurlijk allemaal niet, maar ja, dit is lekker fors bovenop al een forse prijs.
Nouja zo simpel is het in dit geval wel onderaan de streep. De rest is identiek. En we weten intussen dat bij veel GPU’s het mogelijk is om met veel werk de VRAM te upgraden is.
Zeker waar maar goed dat de 20xx en de 30xx zo betaalbaar waren de afgelopen jaren
*kijkt op DRAMeXchange: $3.20 voor 8 gigabit = $25.60 voor 8GB. Goede deal inderdaad als ze hier €110 extra voor vragen.
ACM Software Architect @Cristan18 juli 2023 19:16
Ze zullen uiteraard een marge hebben, mogelijk zelfs een zeer dikke.

Maar het is ook weer niet eerlijk om net te doen alsof ze letterlijk alleen het geheugen moeten kopen en het dan 'vanzelf' een kaart met 16GB ipv 8GB is geworden. Het lijkt me dat er meer werk is om e.e.a. te assembleren (naast soldeerwerk ook voor de plaatsing van de koeler) en testen en ik kan me ook voorstellen dat er hierdoor net wat meer kans is dat een product niet door de tests komen.

Overigens is een adviesprijs in Nederland inclusief btw, dus dat alleen al verklaart dan 19,10 euro van die 110.
Uit de fabriek komt het ook nog bij een distributeur terecht die winst maakt, en vervolgens bij een winkelier die winst maakt, en dan komt inderdaad die 21% BTW er nog bovenop. En die marges komen bovenop de marge van Nvidia zelf.

Dus onderdelen + assemblage is inderdaad niet het hele verhaal. Er zit een dikke marge op het product zelf, maar voordat het überhaupt gebouwd kan worden zit er miljarden R&D in zo'n product. Uiteindelijk komen ze dan bedrijfsbreed op een nettomarge ergens tussen de 15 en 25% uit.

[Reactie gewijzigd door Wolfos op 22 juli 2024 17:23]

Maar het is ook weer niet eerlijk om net te doen alsof ze letterlijk alleen het geheugen moeten kopen en het dan 'vanzelf' een kaart met 16GB ipv 8GB is geworden.
Het zou best kunnen dat dat wel zo is. 8x 8Gbit chip, of 8x 16Gbit chip op dezelfde printplaat, die daarvoor ontworpen is natuurlijk, dan is het prijsverschil letterlijk enkel de kosten van de geheugen chips. Die paar spoortjes verschil op de printplaat gaat de kosten niet maken.

correctie: de 4060 heeft 4x16Gbit chip. En 32Gbit chips lijken nog niet in massaproductie te zijn, het gaat zo niet.

Even een paar jaar wachten en ze dan zelf vervangen ;)
Als NVIDIA dat ondertussen niet onmogelijk heeft gemaakt.

[Reactie gewijzigd door locke960 op 22 juli 2024 17:23]

MSRP in $ verschilt 100$. NVIDIA's gross margin ligt bedrijfsbreed rond 65%. Dwz dat voor extra 25.6$ BOM cost ze gemiddeld 25.6/(1-0,65)=73.14$ vragen. Hun 100$ extra ligt eerder tegen een gross margin van 75%.
Maar ik weet niet precies hoe het met potjes geld schuiven gaat mbt AIB partners e.d. Als die wel iets van die extra 100$ terugzien, dan klopt mijn bovenstaande berekening van 75% GM niet.
En ik neem in deze berekening ook niet garantie afhandeling en fabricage uitvallers mee. Daarvoor moet je wel materialen inkopen, maar je ziet er niets van terug in je omzet.

Maar als het wel klopt: dat noem ik pas geld verdienen. En dan ook nog in het mainstream segment met concurrentie. Ik neem namelijk gemakshalve aan dat de flagship producten de meeste margin genieten en daarmee het bedrijfsbrede gemiddelde omhoog moeten trekken.

[Reactie gewijzigd door Hans1990 op 22 juli 2024 17:23]

*kijkt op DRAMeXchange: $3.20 voor 8 gigabit = $25.60 voor 8GB. Goede deal inderdaad als ze hier €110 extra voor vragen.
Ik denk niet dat Nvidia op de dagmarkt VRAM inkoopt. Die zullen wel gebruik maken van afspraken met een langere termijn. De prijs is het afgelopen jaar van meer dan 12 naar rond de 3 gedaald. Zie https://www.techpowerup.c...s-8-gb-selling-for-usd-27.
DRAM eXchange? Ik geloof niet dat ze DDR4 geheugen gebruiken hoor. "8 of 16GB GDDR6".
GDDR6 staat op $3.90 op die site. Dus je berekening loopt scheef en je zou op $31.20 uitkomen voor 8 GB.
Dat is de prijs van Biweekly High ;). Ik had naar Session Avg. gekeken.
Niet alleen dat, NVidia heeft een onderhands trucje uitgehaald waar ze elke onderliggende chip van 40XX generatie eentje hebben opgeschoven in tier. De 4060 is bijvoorbeeld gebaseerd op wat 'normaliter' een 4050 zou zijn geweest.
voor dat geld koop je een 4070 maar dan mis je 4gb. nvidia weet al te goed wat ze aan het doen zijn betreft de prijzen
hm ik heb de prijs indicatie verkeerd gezien zie ik nu ik dacht dat de 4060 duurder is

[Reactie gewijzigd door Tweakwondo op 22 juli 2024 17:23]

Lost dit een probleem op?
Ja sommige hebben zich wijsgemaakt dat low end cards 16+GB VRAM moeten hebben om bruikbaar te kunenn zijn.
*Gebaseerd op één game die vanwege een bug extreem lage texturekwaliteit had bij release wanneer je een 8GB kaart gebruikte.

[Reactie gewijzigd door Wolfos op 22 juli 2024 17:23]

2 slechte ports die met updates dat grotendeels opgelost hebben.
Sorry, maar in games als forspoken en hogwarts legacy betekent 'opgelost' dat de game simpelweg bepaalde textures helemaal niet meer inlaad. Ook in 1080p. Dus de game draait oke, maar ziet er niet uit. Met raytracing draaien veel recente games slecht op 8GB kaarten, ook op kaarten die dat qua performance prima zouden moeten kunnen draaien.

Zie bijv: https://youtu.be/Rh7kFgHe21k

8GB is karig, vaak net genoeg. Maar steeds vaker belemmert het de performance (of de speelervaring) van kaarten onnodig. Extra pijnlijk is het feit dat juist de nvidia features als DLSS en raytracing extra vram vereisen. Voor een kaart van ruim 400 euro mag iemand meer verwachten dan dit.

Ik vind trouwens niet dat deze kaart enkel met 16gb moest worden geleverd, de 4060ti had gewoon een 4050ti moeten zijn voor rond de 250 euro.

[Reactie gewijzigd door Raphire op 22 juli 2024 17:23]

Neen wat je beschrijft was een bug, al opgelost sindsdien. Dus neen een benchmark van een buggy game toont niks aan. Er is een reden dat die video begint met 2 buggy games btw.

Je kan mooi zien dat zowat alle games in 1080p hezelfde verschil hebben als in 1440p en raar genoeg concluderen ze dan dat 8gb te weinig is voor hedendaagse games? LOL toont juist aan dat het neit uitmaakt.

https://www.techpowerup.c...rformance-analysis/5.html

De games dat ze gebruikte halen nog geen 8gb VRAM logisch dus.
8GB is karig, vaak net genoeg. Maar steeds vaker belemmert het de performance (of de speelervaring) van kaarten onnodig. Extra pijnlijk is het feit dat juist de nvidia features als DLSS en raytracing extra vram vereisen. Voor een kaart van ruim 400 euro mag iemand meer verwachten dan dit.
RT wel, DLSS super resolution bijvoorbeeld soms minder soms evenveel :
https://www.youtube.com/watch?v=98nyc9OrrgE
Ik vind trouwens niet dat deze kaart enkel met 16gb moest worden geleverd, de 4060ti had gewoon een 4050ti moeten zijn voor rond de 250 euro.
Zowel nvidia als AMD kaarten zijn te duur voor wat ze bieden echter is dat wat er nu te koop is.
Neen wat je beschrijft was een bug, al opgelost sindsdien. Dus neen een benchmark van een buggy game toont niks aan. Er is een reden dat die video begint met 2 buggy games btw.

Je kan mooi zien dat zowat alle games in 1080p hezelfde verschil hebben als in 1440p en raar genoeg concluderen ze dan dat 8gb te weinig is voor hedendaagse games? LOL toont juist aan dat het neit uitmaakt.
Ik denk dat dit recente filmpje (met de 4060ti 8GB vs 16GB) mooi illustreert dat zelfs in de games waar 8GB nu speelbaar is je wel heel veel performance inlevert: https://www.youtube.com/watch?v=2_Y3E631ro8

In sommige games is dit zo'n 15-20% FPS gemiddeld en de 1% low performance is soms zelfs 25% beter met het 16GB model. Er is dus wel degelijk te zien dat 8GB een probleem begint te worden, dat is nu in een handje vol spellen zo, maar dat zullen er in de toekomst steeds meer zijn.
Inderdaad. Een paar luie ports die idioot veel VRAM slurpen (en er ook niet beter uitzien dan games die dat minder doen) en ineens is alles wat niet 12Gb of meer aan boord heeft onbruikbaar geworden of zo.
AMD heeft anders ook aardig 16GB lopen promoten als het minimum toen ze de the RX6xxx serie gelanceerd hebben. Dat ze vervolgens in het laagste segment kaarten met minder VRAM lanceerden en daar vervolgens niet meer over VRAM sizes praatten laten we maar even buiten beschouwing.

Dat vervolgens alle AMD fanbois van de hoge toren gingen roepen dat 16 GB toch echt wel het minimum was heeft ervoor gezorgd dat deze mythe een eigen leven is gaan leiden en dat zelfs gerenommeerde reviewers hier in meegingen.
16GB is ook het minimum wat je op high end kaarten mag verwachten vanaf een bepaalde prijs

Jij valt blijkbaar over dat iedereen het roept en niet echt nodig is, maar het echte probleem wat mensen hebben is dat je met deze prijzen gewoon 12-16GB mag verwachten

Dat low end (goedkopere) kaarten minder GB hebben is natuurlijk logisch en niemand (die ik ken) heeft daar problemen mee, sterker nog die kaarten kunnen de extra GB's meestal niet eens benutten

[Reactie gewijzigd door Sinester op 22 juli 2024 17:23]

Verwijderd @k99518 juli 2023 16:57
Low end card is een rx580 8gb 😂
die kost nu 200 euro in pricewatch? Dat is toch low end?
Verwijderd @k99518 juli 2023 20:00
Rx580 is inmiddels een hele oude kaart, maar kun je nog op veel plekken nieuw krijgen voor 80-130 euro, dat is echt low end gaming 😬
1080p low tot high afhankelijk van de game, dat is een goeie VFM.
Daar zijn zelfs op aliexpress 16Gb varianten van opgedoken vorige week.
460 euro voor een 4060ti 8GB is niet low-end. Als deze kaart de prijs had van een 4050(ti) dan was niemand gaan klagen over de 8GB.

Een nieuwe kaart uitbrengen van 460 euro met, voor nu, krap aan genoeg VRAM, terwijl er duidelijke (indicaties van) problemen zijn in verschillende recente games is gewoon dom. En nee, instellingen verlagen is niet een 'oplossing'. De chips in deze kaarten kunnen prima 1080p ultra en soms 1440p ultra spelen. Ze worden enkel gelimiteerd door VRAM en geheugenbandbreedte.

[Reactie gewijzigd door Raphire op 22 juli 2024 17:23]

het ging over de 4060 die 300 is en ja dat is low end van gpu kaarten.
Die kan de huidige games eve goed aan als de 3060/2060 en 1060 ervoor.
Dit artikel gaat over of de 4060ti 16GB (adviesprijs 560 euro) en de reactie waar je eerst op reageerde vraagt of dit model tov het 8GB (adviesprijs 460 euro) model een verschil maakt.

Desalnietemin. De 4060 is gewoon een zuinigere 3060 voor hetzelfde geld, afhankelijk van het model heeft de 4060 zelfs minder VRAM. Daarnaast was de 3060 toen die ruim 2 jaar terug uitkwam al niet een goede deal vergeleken met de rest van de lineup. En met deze generatie is dat niet beter, sterker nog, het is eerder een achteruitgang in het lagere segment.

[Reactie gewijzigd door Raphire op 22 juli 2024 17:23]

oooh WOW 40w zuiniger en langzamer in sommige gevallen...dat noem ik GEEN vooruitgang en al helemaal niet voor dat geld.
Dus deze kaart is te duur en langzamer en lagere bus snelheid en nu kan het wel met 16gb?
wij moeten wel heel naïef zijn om dit goed te praten of niet?
Ik ben het geheel met je eens hoor, qua prijs/performance gaan we er 0 op vooruit deze generatie. Erg jammer.

16GB zal aan de 4060ti inderdaad niks veranderen. Door de beperkte geheugenbandbreedte zal die kaart weinig hebben aan de extra VRAM. Dit is duidelijk gewoon een 4050(ti) niveau chip die zodanig geprijst zou moeten worden.

[Reactie gewijzigd door Raphire op 22 juli 2024 17:23]

Ik loop in MSFS 2020 en X-Plane 12 zo makkelijk tegen mijn 8GB-limiet dat ik echt zit te wachten op een kaart als deze. Ik moet deze simulaties dan ook op medium textures draaien om de framerate acceptabel te houden. Daarbij is een high-end gpu niet nodig omdat het meer cpu-limited is. Kortom, een mid-range GPU met 16GB is perfect.

Zelfs een game als Diablo IV loopt niet op 8GB met 4k-textures, en hoewel de kleinere textures meer dan voldoen is het stilaan wel een teken aan de wand dat 8GB op z'n laatste benen loopt.

[Reactie gewijzigd door TheBlackbird op 22 juli 2024 17:23]

Ik denk niet dat 16GB Vram veel gaat helpen ivm de lage geheugen bandbreedte. Veel games worden daardoor al gelimiteerd.

[Reactie gewijzigd door Raphire op 22 juli 2024 17:23]

voor mensen die zeggen "breng gewoon een 4070 met 16GB uit", had ooit deze info gelezen

de bandbreedte zegt ons hoeveel VRAM er eigenlijk mogelijk is:
4060 heeft 128 bit (4x32bit chips) met elk 2GB VRAM (4 x 2GB = 8GB), die ze nu dus hebben geüpgraded naar 4GB (4 x 4GB = 16GB)
een 4070 heeft 192 bit bandbreedte, dus 6 chips. Dat betekent dat als ze 2GB modules er op zetten (wat nu is), de kaart 12GB VRAM heeft, en als ze dat upgraden naar 4GB hebben we dus een 4070 24GB

denk dat ze zoiets niet zouden willen uitbrengen, want met zoveel VRAM heb je liever ook een sterkere kaart
vraag me ook af of er niet gewoon 3GB modules bestaan, want 18GB is dan wel heel lekker

maar ja, ik wil ook gewoon dat ze alle VRAM omhoog bumpen zonder er een idiote premium van 5.5x de kostprijs op zetten (wat ik van andere comments heb gelezen)
vraag me ook af of er niet gewoon 3GB modules bestaan, want 18GB is dan wel heel lekker
In principe zijn alle geheugengrootte van chips natuurlijk altijd machten van 2. Dus het is inderdaad zo simpel als of geheugenchips van 2 GB of 4 GB. :)
ah, logisch 8)7

er bestaat tegenwoordig wel 24GB DDR5 RAM, zijn deze dan eigenlijk intern 16+8GB?

waarom kan dat daar wel en in GPU's niet?
er bestaat tegenwoordig wel 24GB DDR5 RAM, zijn deze dan eigenlijk intern 16+8GB?
Dat durf ik niet met zekerheid te zeggen, maar....
waarom kan dat daar wel en in GPU's niet?
...het is wel zo dat GDDR op de gpu gesoldeerd zit in die zin dat je vast zit aan de aantallen chips waar de kaart voor ontworpen is. Je kunt je VRAM verdubbelen maar het aantal chips niet ophogen zonder een en ander aan te moeten passen.

Bij regulier ram geldt dat niet. De slots zijn gewoon een rij pinnen waar je een geheugenmodule steekt. Wat er achter de rij pinnen gebeurt is 'geheel' aan de fabrikant van de geheugenmodule. Bv dubbel zo veel chips op een bankje plaatsen, of meer ranks (1, 2, 3 of 4) waarbij je meer geheugen toestaat. Ranks zijn eigenlijk gewoon een setje archiefkasten naar elkaar; waarbij je helaas maar 1 sleutel hebt voor alle kasten samen en je dus niet tegelijk meerdere kasten open kunt trekken. Ook alle kloksnelheden en timings staan niet vast; het geheugen dicteert de specificaties, tenminste als je XMP gebruikt.

Er is wel een theoretische maximum geheugen die het moederbord aankan maar los daarvan ben je als consument ook nog geheel vrij om modules te mixen en te matchen. Ja dan verlies je mogelijk wel dual channel, maar punt is dat een ram controller dus veel flexibeler is om meerdere redenen.

Dat heeft ook een keerzijde, het is ondoenlijk om DDR zo snel te laten gaan als GDDR. Elk nadeel hebze voordeel.

[Reactie gewijzigd door A Lurker op 22 juli 2024 17:23]

schoon uitgelegd, ben wat slimmer geworden vandaag
Een 4090 heeft 24GB. Zouden ze deze binnenkort kunnen opschalen met 4GB geheugenchips voor een pro kaart, goed voor 96GB?
4090 heeft een 384-bit bus, dus 12 chips met elk 2GB om zo aan 24GB te komen. In theorie zouden ze deze dus kunnen upgraden naar 4GB modules en dus 48GB op dezelfde manier waarop ze de 4060Ti van 8GB naar 16GB hebben geüpgraded.

Denk niet dat er op moment 8GB modules zijn, dus geen 96 maar wel 48, al betwijfel ik of ze dit zouden doen, nvidia kennende.
Zolang de rest geen bottleneck is, lijkt dit wel een interessante kaart voor videotranscoding in Plex/Emby/Jellyfin en TVHeadend servers. Daar is VRAM meestal wel bepalend hoeveel gelijktijdige streams je kunt transcoden.
Ik geloof dat NVIDIA de hoeveelheid transcodes beperkt met consumenten GPU's. Intel en AMD hebben wat dat betreft geen restricties/beperkingen.
Die beperking is kinderlijk eenvoudig te omzeilen met een patch. En wordt dus dan ook massaal toegepast.
Klopt, maar dat is tegenwoordig 5 simultane encodes. Daar komt bijna iedereen wel mee uit.
110 euro voor 8GB… schandalig.
Daar zullen ze weer flink wat kritiek op krijgen, en terecht!

[Reactie gewijzigd door Cowamundo op 22 juli 2024 17:23]

Dit zou opzicht een mooie kaart kunnen zijn voor deep learning, gaat misschien niet super snel maar heeft wel 16Gb geheugen, voeg er twee bij elkaar en je hebt 32Gb geheugen en 8700 cuda cores. Best een aardig en betaalbare set voor wat grotere deep learning projecten.
Hm... lastig, Nvidia heeft ze weer eens uitgekookt gepositioneerd! De 8 GB variant klopt qua prijs tegenover de 3060 Ti, maar ja, wil je nu nog een 8 GB kaart?
Anderzijds: kies voor de 16 GB variant heb je voor 100€ boven de 3060 Ti ondanks de cache wellicht toch wel een bandbreedte probleem en nog 100€ erbij met de 4070 wel een duidelijk betere kaart.
Er zijn in een aantal games (zoals fortnite) al duidelijke geheugenbandbreedte problemen, waardoor de 4060ti zelfs slechter scored dan de 3060ti. Ik zou niemand de 16GB versie aanraden. Er zijn veel betere (alsnog te dure) opties.

[Reactie gewijzigd door Raphire op 22 juli 2024 17:23]

Er zijn in een aantal games (zoals fortnite) al duidelijke geheugenbandbreedte problemen, waardoor de 4060ti zelfs slechter scored dan de 3060ti. Ik zou niemand de 16GB versie aanraden. Er zijn veel betere (alsnog te dure) opties.
Waar heb je dit gezien? Bij HWU is de 4060 Ti gewoon sneller in Fortnite dan de 3060 Ti. Bij 1440p presteren beide kaarten nagenoeg identiek (1 fps verschil, kan net zo goed meetfout zijn).
Fortnite was misschien een slecht voorbeeld, de 4060ti is daar (op 1440p) ongeveer even goed als de 3060ti, maar schaalt duidelijk niet lekker. Het feit dat we op 1080p wel betere performance zien tov de 3060ti wijst wel op een bottleneck in de memorybus. In games als hogwarts legacy en TLoU (beide memory-intensive games) zien we echter wel de 4060ti duidelijk onder de 3060ti duiken.

[Reactie gewijzigd door Raphire op 22 juli 2024 17:23]

In Hogwarts Legacy zie ik hem eigenlijk ook niet onder de 3060 Ti staan, zie https://www.techpowerup.c...rtx-4060-gaming-x/21.html. The Last of Us Part 1 is een redelijk problematische game, althans voor patch 1.05. Zie The Last Of Us Part 1: Has Naughty Dog Fixed The PC Port?. Daar zou ik geen GPU op durven beoordelen, zeker niet op de early release.
De hogwarts legacy cijfers van de 4060ti zijn in je vorige bron duidelijk onder de 3060ti: https://www.techspot.com/...idia-geforce-rtx-4060-ti/

Het is moeilijk te zeggen waarom de kaart in de techpowerup review wel weer beter presteert. Bepaalde regio's in die game zijn een stuk zwaarder dan andere, maar er zijn ook meerdere patches geweest die performance veranderen. Ik weet niet hoe de testcondities, gameversies e.d. van de twee reviews verschillen.

[Reactie gewijzigd door Raphire op 22 juli 2024 17:23]

Opvallend verschil inderdaad. Het lijkt erop dat beide games redelijk bijzonder werken. Overigens vond ik de bovenstaande digital foundry review erg interessant. Je ziet dat ze letterlijk betere textures zijn gaan gebruiken terwijl het vram gebruik tegelijk minder is geworden. Dus even simpel samen gevat was er iets mis met hun hele preset.
Beide games zijn inderdaad duidelijk niet goed geoptimaliseerd. Maar ze laten wel duidelijk een probleem zien met de performance/geheugenbandbreedte configuratie van de 4060ti. Het is echt op het randje, en als een game niet goed omgaat met assets en geheugenverdeling (wat we helaas recent vaker zien) heb je een probleem die er bij veel andere GPU's niet is. Leuk dat ze dat maanden later fixen, maar daar heb je weinig aan als je bij release wil spelen.

[Reactie gewijzigd door Raphire op 22 juli 2024 17:23]

De settings zijn dus expres aangepast zodat de 16GB versie er beter uitkomt, als ik de grafiek in de eerste instantie observeer?

Op dit item kan niet meer gereageerd worden.