Gerucht: RTX 4060 Ti met 16GB vram heeft 5W hogere tdp dan 8GB-model

De RTX 4060 Ti met 16GB geheugen zou 5W meer verbruiken dan de reguliere versie met 8GB. Dat claimt Videocardz, dat niet vertelt hoe het aan die informatie komt. De twee modellen lijken verder op vrijwel alle vlakken op elkaar.

Videocardz schrijft dat Nvidia's komende RTX 4060 Ti een tdp van 165W krijgt. De site heeft doorgaans betrouwbare informatie, maar zegt dit keer niet op welke bronnen het bericht is gebaseerd. Het gaat om de RTX 4060 Ti met 16GB vram, waarover vorige week geruchten naar buiten kwamen. De 4060 Ti met 16GB zou nagenoeg identiek worden aan de 4060 Ti met 8GB. De modellen zouden beide 4352 cudacores hebben en een 128bit-geheugenbus. Daarmee zouden de modellen allebei een geheugenbandbreedte van 288Gbit/s hebben.

Het enige verschil zit in het verbruik en mogelijk de boostclock. Van die laatste is bij het 16GB-model nog niet bekend hoe hoog die is. Bij het 8GB-model wordt die boostclock 2535MHz. De tdp van de 16GB-versie is 165W. Op de 8GB-kaart is dat nog 160W.

Eerder bleek al uit uitgelekte informatie dat het 16GB-model in juli beschikbaar moet komen. Videocardz bevestigt die geruchten; de kaart zou in de tweede helft van die maand uitkomen. Over het 8GB-model gaan al weken geruchten rond. Die kaart zou op 24 mei worden uitgebracht.

Door Tijs Hofmans

Nieuwscoördinator

15-05-2023 • 10:33

96

Reacties (96)

96
96
40
2
0
29
Wijzig sortering
Ik hou mij niet veel bezig met pc hardware momenteel maar er is toch pas een 4070 uitgekomen en die heeft maar 12gb net zoals de 4070 ti. Nu komt er dus een 4060 ti met 16gb?
Dit slaat toch nergens op of mis ik iets?
Ja ik snap dit ook niet meer, waarom had die 4070(ti) dan niet gewoon ook al 16 gig?
Precies mijn gedachten...
dat ligt weer aan de busbreedte van de fysieke chip. De 4070Ti is zodanig ontwikkeld dat hij per VRAM chip een 32 bits communicatiebus heeft (wat dus resulteert in een 192 bit bus voor 6 memory chips). De VRAM chip heeft een density van 2GB wat leidt tot een totale VRAM capaciteit van 12GB. Omdat deze VRAM chips vaak verdubbelen in waarde was de enige optie van Nvidia om de 4070Ti uit te brengen in: 6GB, 12 GB of gelijk 24GB. bij 24GB moeten er modules gebruikt worden van 4GB per stuk, en naar mijn weten bestaan deze niet.

16GB creëren is dus in principe onmogelijk omdat de gebruikte geheugenchips een 32 bit busbreedte hebben. Omdat de fysieke chip van de 4070Ti (de AD104-400) niet meer actieve lanes heeft dan 192 is het fysiek onmogelijk om meer dan 6 32 bit memory modules aan te sluiten. Vandaar het limiet van 12 GB.

De 4060Ti heeft vermoedelijk 8 geheugenchips die elk een busbreedte hebben van 16 bit (dus 128 bit totaal). Met het plaatsen van 1GB capaciteit bereik je hiermee 8GB VRAM, en met het plaatsen van 2GB capacteit chips bereik je 16GB.
Dan begrijp ik werkelijk niet dat anno 2023 een 4070ti wordt gefabriceerd met een 256 bus!?!?!? Tweakers hebben zelfs een 3070 uitgerust met 16gb.

[Reactie gewijzigd door 1Joshua5 op 23 juli 2024 15:15]

De 3070 heeft een 256bit geheugen bus welke 8 geheugenchips heeft van 1GB 32 bit (8*32=256bit) in het aangehaalde geval van de door tweakers aangepaste 16GB 3070 zijn deze 1GB 32 bit chips vervangen door 2GB 32 bit exemplaren.
Dit is geen antwoord op mijn initiele vraag, en dus slaat je reactie kant nog wal.
Je begrijpt niet dat anno 2023 een 4070 Ti gefabriceerd wordt met een 256 bit bus welke onjuist is, dit is namelijk een 192 bit bus. Als de 4070 Ti een 256 bit met een bus was gemaakt had de kaart 8 geheugen chips gehad (van 2Gb) en dus 16GB i.p.v. 12GB. De 3070 series hadden 256 bit bus vs de 4070 series 192 bit welke dus een reductie is in bus bandbreedte.
Verhelderend, thanks!
128 bit bus ..is en blijft creupel...totaal niet interessant voor gaming.
Past nie. Kan 12 of 24 op.
Voor de meeste professionele doeleinden (simulaties uitvoeren, GPGPU, AI inference en AI training) is veel VRAM en veel geheugen bandbreedte erg belangrijk. Nvidia verkoopt hiervoor de professionele videokaarten (RTX a5000 etc.) voor een fikse meerprijs. De 4070 (ti) heeft een busbreedte van 192 bit, waardoor het of 12GB of 24GB aan geheugen zou moeten hebben. Met 24GB zou het de professionele kaarten onaantrekkelijk maken. De 4060 ti heeft met de 128 bit bus zo weinig bandbreedte dat het verdubbelen van de hoeveelheid VRAM hun professionele kaarten minder beconcurreerd.

TLDR: Nvidia doet dit voor marktsegmentagie redenen.
Er is de laatste maanden veel te doen over kaarten met 8GB aan videogeheugen. Een aantal recente games blijkt meer te gebruiken waardoor de performance of visuele kwaliteit er onder leidt. Een moderne kaart als de 4060 Ti met 8Gb uitbrengen lijkt in dat licht niet logisch en de tech-reviewers vielen hier massaal over.

En opeens is daar de 4060 Ti met 16 GB. Was dit altijd al gepland of heeft de brede kritiek toch invloed gehad? Zeg het maar.

(En een 4060 Ti uitbrengen met 12 GB is niet zo makkelijk aangezien je dan ook iets moet aanpassen aan de busbreedte van 128 bit. Die zou dan naar 96 bit of 192 bit moeten. Dat eerste maakt 'm te traag, dat laatste maakt het een te afwijkend product ten opzichte van de 4060 Ti 8Gb en 4070)
Maar. als 12GB over een een 96 bits bus te traag is, geldt dan niet hetzelfde voor 16GB over een 128 bits bus? Beiden geven 8 bits per 1GB (of moet ik dat niet zo zien?)
Als je een spel hebt dat 10 GB aan VRam gebruikt, is die 10 GB sneller gevuld over een 128 bit bus dan over een 96 bit bus.
Klinkt logisch, dus stel dat een spel 16 GB VRam gebruikt, dan is dat ook niet heel snel gevuld met een 128 bit bus?
Jawel hoor, dat vullen gaat altijd snel (vanuit de beleving van een mens), Je kunt die 16GB in no time volgooien met data, ook over een veel kleinere bus. En er zal altijd gelden dat als je de totale capaciteit overschrijd je zichtbare performanceproblemen krijgt. Dit wil je dus ten alle tijden voorkomen.

De snelheid van het geheugen speelt een andere rol en heeft niet zozeer met capaciteit te maken, de totale bandbreedte (en dit is niet enkel de bus) wil je zo goed mogelijk afstemmen op de GPU snelheid gezien beide afhankelijk zijn van elkaar. Een 4060Ti met een 96bit bus zou de GPU zodanig kunnen bottlenecken dat er potentieel verloren gaat. Maar dit zou weer gecompenseerd kunnen worden met hoger geclockt geheugen. Zoals zovaak spelen veel meer zaken een rol in de totale performance van een videokaart dus om te stellen dat 96bit te weinig zou zijn is incorrect.

Het zou mij niets verbazen als een 4060Ti prima kan functioneren met een 96bit bus gezien deze generatie behoorlijk anders geoptimaliseerd is op dat vlak. Je ziet dat een 4070 met een halve bus ten opzichte van een 3080 al gelijke prestaties kan leveren. Grotere cache speelt hier mogelijk een rol.

Dit alles neemt niet weg dat als geheugen overloopt er altijd een performanceprobleem ontstaat, hoe snel of traag het geheugen ook is. En dus zal de 4060ti met 16GB in sommige gevallen beter bestand zijn tegen bepaalde settings tov een 4070ti. Daar waar de totale maximum snelheid uiteraard lager is, kan de videokaart in sommige gevallen beter presteren dan de 4070ti en dat is zeker een vreemde keuze van nVidia.
Dank voor de uitgebreide toelichting!
Zoals zovaak spelen veel meer zaken een rol in de totale performance van een videokaart dus om te stellen dat 96bit te weinig zou zijn is incorrect.
Dat klopt natuurlijk. Caches zijn groter in de 40x0 generatie en schijnbaar compenseert dat de relatief smallere busbreedtes.

Met 'te traag' in het geval van 96 bits bedoelde ik dan ook niet de precieze performance, maar wel hoe een 4060 Ti 12 GB/96 bits zou presteren ten opzichte van de 4060 Ti 8 GB/128 bits. Voor situaties waar de extra 4 GB niet direct nodig zijn, zou dan de 12 GB versie slechter presteren dan de 8 GB, terwijl hij vermoedelijk duurder zou zijn.
Het belachelijke is dat die 10+ GB vaak pas behaald word op 4K met nieuwere games. Deze kaarten zijn niet gemaakt voor 4K hoogstens 1440p en 4K bij oudere games. Hier aan voldoen ze ook gewoon. Storm in een glas water. Bij een RTX 4070 zou ik me daar eerder zorgen om maken.
2k begin ook al steeds meer tussen de 10-12gb te bevinden qua vram. 4k is al zelfs over de 12gb te gaan bij de nieuwste zwaarste games.
Als het spel niet in VRAM past moet hij constant textures uitladen en inladen uit het normale RAM. VRAM zit direct op de videokaart en geeft snelle access voor de GPU tot textures.

Meer VRAM maakt je spel niet sneller, als je maar genoeg hebt. Maar 8GB is gewoon niet meer genoeg dus hij moet het constant van langzamere plekken laden.
Maar 8GB is gewoon niet meer genoeg
Dit soort uitspraken worden veel te makkelijk gedaan.
Er zijn genoeg games die er prachtig uit zien en onder die 8 GB VRAM blijven.
Als je al bijna 8 GB nodig hebt om bijv. zo'n The Last Of Us met 1080p op low settings te spelen dan is dat naar mijn idee niet iets dat we maar gewoon als de nieuwe norm moeten accepteren.

En het zal best dat een hoop mensen steeds mooiere games wil en uiteraard de grafische mogelijkheden daarin steeds beter worden, maar er is op het moment een enorme onbalans in wat kan en wat voor de reguliere consument haalbaar is.
Als gameontwikkelaars massaal de middelvinger gaan opsteken naar iedereen die niet even minimaal €600 uit geeft aan hardware upgrades dan snijden ze zichzelf in de vingers.
Het huidige "meer VRAM is meer beter" mantra is inderdaad wel bijzonder kort door de bocht. Zaken als bandbreedte maar ook zaken als de texture fillrate van de GPU zelf zijn net zo belangrijk. De hoeveelheid VRAM is maar een klein deel van de puzzel, iets wat men wel eens vergeet. AMD speelt hier mijn inziens aardig op in door GPU's met (te) veel VRAM te leveren. Zonder dat dit aantoonbare betere resultaten geeft boven de wat minder bedeelde Nvidia tegenhanger. Je ziet het echter wel vaak als bonus punt genoemd worden zonder uitleg bij de meer mainstream reviewers, dus marketing technisch werkt het.

Het is ook erg lastig monitoren hoeveel VRAM een spel daadwerkelijk nodig heeft. Gezien het vaak wordt gevuld met een systeem van 'pakken wat je pakken kan'. Terwijl dat wellicht niks oplevert qua performance.

Er zullen vast games zijn die er baad bij hebben, denk ook aan HQ-mods maar dan zit je vaak op hoge resoluties te spelen met hoge/maximale instellingen. Dan denk ik dat dit soort mid-range kaarten sowieso geen goede keus zijn. Los van de hoeveelheid VRAM.

Enige wat ik een lastige vind is dat je niet in de toekomst kan kijken, zeker met de huidige prijzen zullen mensen vaak een GPU kopen voor meerdere jaren. Als ik zie wat o.a. Unreal laat zien kan dat texture-wise best wel een pil gaan worden. Al zijn er ook flinke stappen gemaakt in het optimaliseren van textures. Dus dat is even koffiedik kijken.
Devs willen mooiere en uitgebreidere games maken. Hoe verwacht je dat dit gebeurt zonder dat de gebruikers betere hardware gaan draaien?

Met deze mentaliteit zouden alle games er permanent uitzien als 2016 titels.

Tevens is VRAM gebruik een van de minst compute intensieve methodes om mooiere graphics en betere performance te behalen.
Hoe verwacht je dat dit gebeurt zonder dat de gebruikers betere hardware gaan draaien?
Hoezo hoe? Ze maken toch steeds 'mooiere' games?

Ik zeg ook niet dat er geen ontwikkeling moet zijn. Ik geef aan dat er een onbalans is.
Ontwikkelaars willen het allemaal zo mooi mogelijk maken en natuurlijk zou iedereen op 4K en 144 Hz en een Oled monitor willen spelen. Maar dat is gewoon niet realistisch.
Met deze mentaliteit zouden alle games er permanent uitzien als 2016 titels.
Maar het niveau van hardware is bij veel mensen ook niet van 2023.
PC's zijn altijd al prijziger geweest dan de consoles en met de laatste jaren zijn met name de GPU's absurd in prijs gestegen. Komt daarbij nog dat men sinds 2016 toch wel minimaal een keer een nieuw moederbord, CPU, geheugen en sowieso de voeding heeft moeten upgraden.
Zelfs al zou je dat een jaar geleden allemaal gedaan hebben dan zit je nu met een 'last gen' systeem omdat alles alweer een generatie verder is.
Het percentage PC-gamers die daadwerkelijk de hardware hebben om een game met de hoogste settings soepel te laten draaien is ontstellend klein en wordt steeds kleiner.
Ik zie het in mijn omgeving in ieder geval dat mensen veel langer met hun 'oude' hardware blijven zitten of zelfs over gaan op consoles.

Games als Red Dead Redemption 2 of Cyberpunk 2077 kunnen op 1080p en ultra settings prima draaien met 6 GB VRAM en nog minder als je de settings lager zet.
Als ontwikkelaars hun games niet speelbaar willen maken voor 85% of meer van de gamers dan lijkt het me logisch dat ze minder games verkopen.
Vorige generatie was er ook een 3060 ti met maar 8gb en een 3060 met 12gb.

Waarom? Nobody knows.
Ben benieuwd op welk prijsniveau ze die gaan neerzetten, lijkt me in potentie een populaire kaart worden. Lijkt me dat hij zelfs tegenover 4070 12GB op hetzelfde prijspunt (iets boven de 600 in Nederland) het mogelijk nog goed zou doen.

[Reactie gewijzigd door kftnl op 23 juli 2024 15:15]

De 4070 verkoopt totaal niet dus als de 4060 Ti meer dan 500 euro kost dan is die ook ten dode opgeschreven. De 4060 (Ti) is voor de doelgroep die misschien max 400 euro voor een kaart over heeft.
Waarop baseer je dat de 4070 helemaal niet verkoopt? Zoals ik begrijp is het juist een kaart die op dit moment heel goed verkoopt. De reden waarom de 4060ti eerder ten dode is opgeschreven is het beperkte 8GB, waar het op zijn minst 12GB had moeten zijn, en voor de 4070 juist 16GB.
De kaart is sinds de lancering constant verkrijgbaar. Je hebt vrije keuze uit AIB. De prijzen zijn ook constant rond de MSRP of zelf fors beneden de MSRP. Er zijn constant acties zoals nu met Diablo 4 (in de VS kreeg je zelfs een tijdje een 100 dollar steam gift card erbij).

Als een kaart goed verkoopt dan zie je de eerste 4 tot 8 weken enorme tekorten en stijgende prijzen. En helemaal geen acties zoals ik aan gaf.
De 4070 launch sales nummers waren dramatisch. Nvidia downscaled al productie... De 4070 is een keiharde flop. Veel te duur.
Lijkt idd een interessante kaart, maar na alles wat de laatste tijd heb gezien zal de prijs (te) hoog worden.
Eerste maar weer eens afwachten met dat stroom verbruik.
Mijn rtx3070 verbruikt volgens evga 220w maar in-game tikt hij soms toch echt de 300w aan.
TDP staat voor Thermal Design Power en staat niet voor het maximale verbruik van een videokaart. Het is een richtwaarde voor het vermogen dat een koeloplossing moet kunnen afvoeren. Dit wil zeggen dat de verbruikspieken gerust hoger mogen zijn zolang dat het gemiddelde verbruik over een bepaalde periode maar onder de TDP blijft. Er zit namelijk wat vertraging op hoeveel vermogen een koeloplossing kan opnemen en afvoeren waardoor je kortstondig meer kan verbruiken om dat erna weer af te voeren en "ruimte" te maken voor een volgende piek.

Verder kunnen moderne videokaarten een hogere kloksnelheid aanhouden (i.e. boosten) als daarvoor ruimte is in het stroom- en thermisch budget. Met andere woorden: als de kaart niet te warm is en de stroomvoorziening het aan kan dan mag de kaart hoger klokken en meer verbruiken.
Je kan hem altijd undervolten als het stroomverbruik te hoog is. Heb ik met mijn MSI 3070 ook gedaan. Stroomverbruik ging van 230W naar 180W ingame terwijl de prestaties nagenoeg hetzelfde zijn. Scheelt ook een boel lawaai omdat ie veel minder warmte hoeft af te voeren.
De 4070 zit rond de 190 watt Max. Dat deze kaarten minder gaan gebruiken lijkt me dan ook wel voor de hand liggend.
Mijn 4070 Ti verbruikt 155 Watt met een power limit van 55% en ik verlies dan maar 5% FPS.
Dan heeft NVidia geluisterd naar de potentiële kopers om alsnog een 16Gb variant uit te brengen.
Op zich is dat wel goed natuurlijk, alleen vraag ik mij af wat deze gaat doen op vlak van prestaties?
En nu de prijs nog, ik ben wel in de markt voor een 4080 maar die prijzen pfff.
Voor nu zit ik goed met mijn 3080 12GB die ik onder adviesprijs heb kunnen kopen.

[Reactie gewijzigd door Blizzard_1978 op 23 juli 2024 15:15]

Ja inderdaad, met een 3080 zit je nog goed :-) heel goed zelfs.
Zeker als je kijkt naar de huidige markt zijn prijzen :(
Sja, de prestaties zullen wss niet zo geweldig zijn :(
1. prestaties zeggen niets, prijs/prestatie zegt alles.
2. Sinds wanneer is 22.06 TFLOPS traag? Een PS5 zit op 10TFLOPS.

Het zou echter wel kunnen dat ze deze kaart twat dichtknijpen voor 4K resoluties door de bus breedte wat te knippen.

288GB/s bandbreedte is niet zo veel lijkt eerder 1080 territorium in combinatie met Raytracing, ultra settings etc. Het valt natuurlijk nog af te wachten wat de werkelijke impact is van de beperkte bandbreedte. Het zou in ieder geval wel de snelste 128bit kaart op de markt zijn.
Hoe groot is het verschil tussen 128 bit en 192 bit qua prestatie als alle andere spects identiek zouden zijn?
Qua geheugen bandbreedte 50% extra als de geheugenchips specs niet veranderen. Maar dan komt de vraag of de GPU zelf erg echt iets aan heeft. Je kan wel 7,5 GBps aan data aan een GPU aanleveren, maar als hij maar 5 kan verwerken (dit is een enigszins versimpelde situatie) heb je niks aan die 50% extra.
Als de GPU Core langzaam genoeg is maakt het niet veel uit neem ik aan. Leuk dat je een 128 lane snelweg hebt, maar stel je kan maar 50 lanes vullen met auto's voordat de core het niet meer aan kan, heb je niks aan 192 lanes.
Wat is een TDP?

//edit: waarom zo zwaar in de minus? Is ontopic post. Normaliter wordt in de laatste alinea bij tweakers de technische termen toegelicht. Bij dit artikel niet. Vind niet zo’n gekke vraag. In 30jr ict heb nog nooit iemand over TDP gehoord.

[Reactie gewijzigd door himlims_ op 23 juli 2024 15:15]

Dat staat voor Thermal Design Power (wiki). Oftewel het thermische maximale vermogen waar de chip op ontworpen is; hoeveel warmte hij maximaal zal kunnen afgeven.
Thermal Design Power of te wel hoe goed moet je koeler zijn.
Het is niet zoals velen denken het afgenomen vermogen nee dat is het EDP(Electronic Design Power).
Zit wel correlatie tussen dat wel.
Dat geeft aan hoeveel rendement je verliest door warmte ;-)
Duidelijker: het geeft aan hoeveel warmte iets maximaal kan genereren. Zie ook Wikipedia. Of dat 'verlies' is, ligt aan de toepassing. Gebruik je een computer ook als kachel, dan is de warmte geen verlies. :+

[Reactie gewijzigd door The Zep Man op 23 juli 2024 15:15]

en hoeveel is ook dan ook verwarrend. omdat uiteindelijk 100% in warmte word omgezet.
Als je hem als kachel wilt gebruiken dan kun je toch beter een gloeilamp gebruiken dan een pc. Een gloeilamp is de ideale warmtebron en misschien wel een van de beste die we hebben . Hij heeft een rendement van ongeveer 90%
Als je hem als kachel wilt gebruiken dan kun je toch beter een gloeilamp gebruiken dan een pc.
Op een gloeilamp speel ik geen computerspellen, of doe ik andere intensieve berekeningen waar een GPU voor gewenst is.

[Reactie gewijzigd door The Zep Man op 23 juli 2024 15:15]

Op een computer speel ik ook geen spellen ;-)
Bij elektrische kachels is dat rendement zo goed als 100%. En er zijn wel meer apparaten die meer dan 90% omzetten in warmte (wat in de meeste gevallen een ongewenst bijproduct is, zoals bij computers, bij gloeilampen meestal ook, wellicht terrarium lampen en dergelijke als uitzondering), dus dat een gloeilamp een ideale warmtebron is, is wel een erg vreemde conclusie.

Dus als je hem als kachel wilt gebruiken ... dan kan je beter een kachel gebruiken. Waarom een gloeilamp? Rare opmerking.
Zijn het verliezen? Wat is het rendement van een CPU of GPU?
Ik zeg je hebt een hoog rendement bij een hoog aantal Flops/Watt.
Die warmte is een bijproduct van het werk wat een Transistor doet.
Als die warmte er niet was dan zou de snelheid nog verder omhoog kunnen
Eerder hoe sneller je de warmte kan afvoeren die warmte is inherent aan de arbeid(calculaties) die er uitgevoerd word.
Thermal design power
dus hoeveel stroom hij nodig heeft en warmte produceert
google is je beste vriend
Niet hoeveel stroom hij nodig heeft, hoewel dat vaak dichtbij het TDP ligt. TDP is het vermogen wat aan warmte afgevoerd moet worden.
Exact wat he said.
TDP is not EDP
Ik hoop dat ze ook met kleine(<210mm) kaarten komen, dan passen ze nog in mijn minicase :)
Ik probeer te begrijpen wat voor nieuwswaarde dit heeft…
Het gerucht gaat rond dat een RTX-4060 TI 16GB vRAM heeft en een hogere TDP dan de huidige RTX-4060 8GB variant.
Dat kan ik ook lezen. Ik zoek dus naar de nieuwswaarde. Bedoel, serieus, 5W??

[Reactie gewijzigd door Remco2001 op 23 juli 2024 15:15]

5W is wellicht niet veel voor een Nvidia/AMD videokaart, maar ik draai er een 16TB Synology NAS op... }:O :Y)
Lijkt me sterk, een enkele 16TB HDD verbruikt dat al volgens hun specificaties.
De oudere kleinere varianten gebruiken meer. Dan komt de NAS zelf ook nog eens met zijn verbruik.

En inderdaad gaat dit nergens over, omdat dit gaat over 2 versies van 4060Ti. 160 vs 165W.
2x8TB SSD in JBOD 4W-5W afhankelijk of er een SSD in gebruik is of niet. Deze is juist specifiek gebouwd op energiezuinigheid en voor 24/7 gebruik, vandaar het uiteindelijke lage verbruik. De NAS met de 8 HDDs trekt een heleboel meer, maar die staat voornamelijk uit (doel is 1x per maand aan voor backup/transfer).

Waar ik met de vergelijking op doel is dat je met 5W eigenlijk best heel veel kan, geheel afhankelijk van wat je gebruikt. Maar in deze context natuurlijk wordt gezien als een insignificant verschil. Maar wat ik verwacht is dat het niet alleen op de hoogste stand 5W meer kan gebruiken, maar ook op idle stand 5W meer verbruikt (always on geheugen), wat waarschijnlijk heel wat meer impact zal hebben...
Het is 5W TDP verschil, dus in idle waarschijnlijk nog minder.
Verder komen deze kaarten in machines die juist niet 24/7 aan staan.

Maar goed, je vergelijking gaat compleet mank. Mijn 4 cilinder diesel sedan doet ook makkelijk 1 op 20.
Die stomme vrachtwagens met hun 1 op 3 slaan natuurlijk nergens op.
Oh wacht, iets met 30 ton vracht wat wel vermogen vraagt.
Qua rauwe rekenkracht is die nas van jou natuurlijk ook een lachertje als als het op grafische kracht aan komt.

Lang verhaal kort, een nas vs grafische kaart is gewoon geen vergelijking.
Maar je 16TB Synology NAS kan vast geen moderne game draaien...
Iets met auto vergelijken met een vrachtwagen.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 15:15]

"De 4060 Ti met 16GB zou nagenoeg identiek worden aan de 4060 Ti met 8GB."

Het lijkt te gaan om een 8gb 4060 Ti vs 16gb 4060 Ti.
Ik snap niet dat ze een 4060 ti met 16Gb uit gaan brengen.
Waarom heeft de 4070 dan maar 12Gb?

Mij lijkt het dan logischer om de 2 4060 ti's dan 6Gb en 12Gb te geven.
Of van mijn part 8 en 12, maar dat kan zover ik weet niet i.v.m. chips en bandbreedte.
En de 4070 16Gb.

Of mis ik hier iets?
Ze zijn afhankelijk van de opzet van de geheugenbus. Uit mijn hoofd heeft de 4070 een 192bit bus dus moet daar 12GB of 24GB op; bij de 4060 (Ti) is dat 128bit en zit je vast aan 8GB of 16GB.

Ga je afwijken van die configuraties dan krijg je rare dingen zoals een GTX 970 3.5GB of gaat het gewoon niet werken.

Laat niet weg dat het inderdaad krom is.
Een reden om het te doen is dat veel kopers vaak niet goed naar alle cijfers kijken/begrijpen. Vaak staat bij videokaarten in de naam of ergens anders relatief duidelijk hoeveel geheugen erin zit. Voor veel mensen is dat als het hoger is een best grote plus. Of het nodig is bij het type kaart of logisch is qua positionering hoeft niet altijd, als de marketing afdeling denkt dat het geld oplevert dan gebeurd het vast wel.
Ik zie liever een 4070Ti met 16 Gig of meer verschijnen... echt belachelijk weer dat ze zo raar/lukraak te werk gaan met dit soort dingen.
Dat gaat niet werken gezien de 4070(TI) op de 192 bit memory bus zitten ( de opties daar zijn 6, 12, 24 GB etc.)

Nu kan de 4070TI best 24GB krijgen voor de prijs die nvidia er voor vraagt, maar dat doen ze express niet in verband met "planned obsolescence", ze willen wel dat mensen hun GPU over max 3 jaar weer moeten inruilen.

De 4060TI is sowieso een gekke kaart, met zijn 128bit bus heeft het wel erg weinig bandwidth.
ter vergelijking, een rtx3060 12GB model (non TI) heeft een 192 bit bus en throughput van 360GB/s, terwijl de 4060TI maar 288GB/s heeft.

Het verschil met de last gen TI is helemaal groot, de rtx3060TI heeft maar liefs 448.0 GB/s ofwel bijna 2x zo veel!
Je kan van de 4070ti natuurlijk ook gewoon een 256bit bus variant maken met trager 16GB geheugen zodat je bandbreedte weer gelijk is. Dat geheugen is ook gelijk een stukje goedkoper.
We hebben ook al lang gezien dat deze generatie bij lange na niet zo'n brede bus nodig heeft. Om dit te vergelijken met de vorige generatie is incorrect. Heel kort door de bocht kan je stellen dat 128bit vergelijkbaar is met 256bit van de vorige generatie dus zo slecht is het helemaal niet. Blindstaren op die cijfertjes moet je niet doen.

Zo kan ik ook wel vinden dat mijn 3080 met 800+ GB/s zoveel beter is als een 4070, maar dat is hij echter niet...

[Reactie gewijzigd door BruT@LysT op 23 juli 2024 15:15]

Je kan van de 4070ti natuurlijk ook gewoon een 256bit bus variant maken met trager 16GB geheugen zodat je bandbreedte weer gelijk is. Dat geheugen is ook gelijk een stukje goedkoper.
Ja natuurlijk, couldn't agree more!
We hebben ook al lang gezien dat deze generatie bij lange na niet zo'n brede bus nodig heeft. Om dit te vergelijken met de vorige generatie is incorrect. Heel kort door de bocht kan je stellen dat 128bit vergelijkbaar is met 256bit van de vorige generatie dus zo slecht is het helemaal niet. Blindstaren op die cijfertjes moet je niet doen.
Wat betekend dit precies, want dit klinkt als een excuus van nvidia om meer te bezuinigen. GB/s zijn uiteindelijk toch gewoon een objective metric. Voor bijv. productivity werk en voor games op hogere resoluties maakt bandbrede wel degelijk uit.
Zo kan ik ook wel vinden dat mijn 3080 met 800+ GB/s zoveel beter is als een 4070, maar dat is hij echter niet...
In ieder geval wel op dat gebied, ik zeg ook niet dat een 4060TI geen hoge FPS kan behalen, wel dat zijn lage bandbrede misschien een bottleneck vormt om het maximale er uit te halen wat er in zit.
Weer wat geleerd, thanks! En zeker voor de huidige prijzen zijn het karige kaarten die ze samengesteld hebben met het idee dat het allemaal wel "wat minder lang mee mag".

Op dit item kan niet meer gereageerd worden.